Kan du gætte, hvor de er fra? Sådan mener AI, at vi ser ud i hovedstadsområdet
Du får med garanti forskellige billeder i hovedet, hvis du skal tænke på en person fra Køge eller fra Nørrebro. Det gør den kunstige intelligens også.
En person fra Hundested har ikke nødvendigvis særlig meget til fælles med én fra Vestegnen.
I hvert fald ikke, hvis man spørger AI-tekstgeneratoren ChatGPT.
Vi har fået den til at beskrive personer fra forskellige steder i hovedstadsområdet, og så har vi fået AI-billedgeneratoren Midjourney til at lave et billede ud fra svaret.
Brian Due, der forsker i kunstig intelligens og bias og er lektor ved Nordiske Studier og Sprogvidenskab, forklarer, hvordan værktøjerne helt grundlæggende fungerer:
- AI’en er blevet fodret med en masse data fra internettet, og ud fra det gætter den for eksempel på, hvad der er det mest sandsynlige næste ord, den skal skrive, siger han:
- Og det fungerer så godt, fordi den har så meget data at trække på, at det bliver meget højt kvalificeret sandsynlighedsberegning.
AI'en giver altså et svar eller laver et billede ud fra, hvordan mange andres billeder eller forestillinger måtte være.
Det kan betyde, at den er meget virkelighedstro, men det kan også gøre svaret stereotypt eller knap så inkluderende:
- Folk med handicap er for eksempel noget, der sjældent er skrevet om i den kontekst, som AI'en kigger i, når den forsøger at give dig den her slags beskrivelser, siger Brian Due.
At vi ser forskellige ud i hovedstaden, hersker der dog ingen tvivl om.
Der er eksempelvis temmelig stor forskel på, hvad det koster at bo i og omkring hovedstaden.
Vi har for nyligt skrevet om, hvor i landsdelen man realistisk kan bosætte sig, hvis man er pædagog eller advokat eller noget tredje. Spoiler: Postbuddet skal noget længere væk fra Købehavn end piloten.
AI kan bekræfte stereotyper
De store demografiske forskelle er også noget, AI'en lægger mærke til.
Men du må ikke blive alt for fornærmet, hvis AI'en karikerer dit udseende, pointerer Brian lige:
- AI’en laver ikke bias. Den repræsenterer bare virkeligheden ud fra det data, den er blevet fodret med. Og den kan være fuld af fordomme.
Hvis vi for eksempel beder om en beskrivelse og et billede af en person fra Nordsjælland, får vi sandsynligvis en konventionelt smuk, hvid og ret velhavende udseende person.
Det har noget at gøre med den data, den kunstige intelligens trækker på:
- Sandsynligheden for bias er større, jo mindre datagrundlaget er. Den har kun få kilder at bygge det her på. Ordet "Nordsjælland" figurerer måske tit i kontekst med penge, siger Brian Due.
Og hvis du kigger på de her billeder og undrer dig over, hvorfor de alle sammen ligner noget fra 10'erne, er der måske en god forklaring.
Brian gætter på, at det også handler om, hvilke data der er brugt.
Når den her billedgenerator-AI skal afgøre, hvad der er "trendy" og "moderne", har den sandsynligvis rigtigt mange billeder fra 2010'erne i sine data, som den finder inspiration i.
Derfor har den måske ikke opdaget, at opsmøgede skinny jeans ikke længere er det mest moderne på brokvarterne.