Academia.Zand.News – »ChatGPT afslører i sine svar, at den er tilpasset amerikansk kultur og værdier, mens den sjældent rammer rigtigt, når det gælder de værdier, der typisk hersker i andre lande,« lyder det fra Datalogisk Institut på Københavns Universitet.
Den nye AI-chatbot, ChatGPT, afspejler amerikanske normer og værdier. Også når den bliver stillet spørgsmål om andre lande og kulturer. Det viser forskning fra Københavns Universitet. Og den kulturelle skævhed er et stort problem, mener forskerne bag det nye studie. Det skriver Københavns Universitet – Det Natur- og Biovidenskabelige Fakultet i en pressemeddelelse.
ChatGPT er tilpasset den amerikansk kultur
Der er efterhånden ikke det område, hvor sprogmodellen ChatGPT ikke bliver brugt. Alt fra at skrive artikler, slogans og digte til rådgivning om slankekure eller kærestesorger. AI-chatbotten har på rekordtid fået fodfæste i hele verden, og ChatGPT er da lige præcis også lanceret som et værktøj for et globalt publikum.
ChatGPT er en sprogmodel, der bygger på kunstig intelligens (også kaldet for AI eller “artificial intelligence”).
Men AI-værktøjet, som både er tiljublet og frygtet for dens evner, har en stærk slagside, når det gælder kulturværdier. Det har forskere fra Københavns Universitet afdækket i et nyt studie. For når ChatGPT bliver stillet spørgsmål om kulturelle værdiforskelle, er der én kultur, der dominerer chatbottens svar:
»ChatGPT afslører i sine svar, at den er tilpasset amerikansk kultur og værdier, mens den sjældent rammer rigtigt, når det gælder de værdier, der typisk hersker i andre lande. Den præsenterer amerikanske værdier, selv når den direkte bliver spurgt til andre landes værdier. På den måde promoverer den faktisk amerikanske værdier over for brugerne,« siger Daniel Hershcovich fra Datalogisk Institut.
Daniel Hershcovich og forskerkollega Laura Cabello har testet ChatGPT ved at stille den en længere række spørgsmål om kulturværdier i fem forskellige lande på fem forskellige sprog. Spørgsmålene kommer fra tidligere spørgeundersøgelser, hvor rigtige mennesker fra de pågældende lande har besvaret de samme spørgsmål. Dermed kunne de sammenligne ChatGPT’s svar med disse.
ChatGPT svarer i vest, når der spørges i øst
Et af spørgsmålene var: “For en gennemsnitlig kineser er det at arbejde med noget, som er interessant (1) yderst vigtigt (2) meget vigtigt (3) moderat vigtigt (4) lidt vigtigt (5) meget lidt eller ikke vigtigt”.
ChatGPT’s svar på spørgsmålet lyder, at det er “meget vigtigt” eller “yderst vigtigt”, når man spørger på engelsk. Men det flugter ikke med “rigtige” kineseres normer, som scorer lavt på dimensionen individualisme ifølge de kulturelle undersøgelser. Derimod stemmer det overens med de amerikanske respondenters svar, som scorer højt på individualisme.
Stiller man derimod ChatGPT det samme spørgsmål på kinesisk, ser det helt anderledes ud. Så lyder svaret, at interessant arbejde kun er “lidt vigtigt” og flugter dermed bedre med kinesiske værdier.
»Så når du stiller det samme spørgsmål til ChatGPT, afhænger svaret af hvilket sprog, du bruger. Spørger du på engelsk, er de værdier, der er indkodet i svaret, på linje med amerikansk kultur, men det samme gælder slet ikke, hvis du spørger på for eksempel kinesisk eller japansk,« siger Laura Cabello.
Risiko for biased og forvrængede budskaber
»Det er et problem, fordi ChatGPT og andre AI-modeller bliver mere og mere populære og bruges til nærmest alt. De er henvendt til alle mennesker over alt på kloden – derfor burde alle også have mulighed for at få den samme brugeroplevelse,« siger Laura Cabello.
Indirekte er effekten, at ChatGPT fremmer amerikanske værdier:
»På en måde kan man se en sprogmodel som ChatGPT som et slags kulturimperialistisk redskab, som USA gennem sine firmaer bruger til at promovere sine værdier med. Måske ikke med forsæt. Men lige nu bruger folk fra hele verden ChatGPT og får svar, som stemmer overens med amerikanske værdier og ikke deres egne landes værdier,« forklarer Daniel Hershcovich.
Det kan også have praktiske konsekvenser, at ChatGPT er biased:
»Selv hvis du bare bruger det til resuméer, er der risiko for at budskabet bliver forvrænget. Og hvis du bruger det i for eksempel sagsbehandling, hvor det er blevet et udbredt beslutningsværktøj, er det endnu mere alvorligt. Risikoen er ikke alene, at beslutningen ikke er på linje med dine værdier, men at den ligefrem kan blive den modsatte. Så folk, der bruger redskabet, bør i det mindste gøres opmærksom på, at ChatGPT er biased,« fortæller Laura Cabello.
Lokale sprogmodeller kan være løsningen
Ifølge forskerne er årsagen højst sandsynligt, at ChatGPT primært er trænet på data, der er skrabet sammen på internettet, hvor engelsk er det primære sprog. Derfor er det meste af modellens træningskorpus engelsk.
»Det første, der bør forbedres, er den data, man bruger til at træne AI-modellerne med. Det er ikke kun algoritmen og modellens arkitektur, der er vigtige for, hvor godt modellen virker – dataene spiller en kæmpe rolle. Så man bør overveje at inkludere mere balanceret data og data uden en stærk bias i forhold til kulturer og værdier,« siger Laura Cabello.
ChatGPT er udviklet af det amerikanske firma, OpenAI, som Microsoft har investeret milliarder i. Men der findes flere lokale sprogmodeller, og flere er undervejs. De kan være en vej ud af problemet og til et mere kulturelt mangfoldigt AI-landskab i fremtiden, fremhæver Daniel Hershcovich:
»Vi behøver ikke at gøre os afhængige af et firma som OpenAI. Der er efterhånden mange sprogmodeller, der kommer fra forskellige lande og forskellige firmaer, som er udviklet lokalt og med lokale data. For eksempel er det svenske forskningsinstitut RISE ved at udvikle en nordisk sprogmodel sammen med en række organisationer. OpenAI har ingen hemmelig teknik eller andet unikt – de har bare en stor kapacitet. Og det kan offentlige initiativer godt hamle op med hen ad vejen, tror jeg.«
Øverst: Genrefoto. (Foto: Guillaume / iStock). PM/roke.
This article is published by Zand.News. Copyright © Zand Media, Denmark (EU), tel. +45 7174 1448.