Akademia.Zand.News – Skal en selvkørende bil ofre sig selv og sin passager eller en eller flere fodgængere i en kritisk situation? Menneskets svar afhænger af, om man har fem sekunder (intuitiv beslutning) eller 30 sekunder (overvejet beslutning).
Menneskets moralske kompas kan skifte retning alt efter, hvilken situation vi befinder os i, hvor hurtigt vi skal beslutte os, og hvilken rolle vi i øvrigt har i situationen.
Det viser et nyt, omfattende studie fra en gruppe forskere i forbrugeradfærd og adfærdsøkonomi på Aarhus BSS. Det skriver Aarhus Universitet: Aarhus BSS i en pressemeddelelse.
Skal en bil beskytte så mange mennesker som muligt?
Tidligere studier har vist, at de fleste mennesker hælder til, at en selvkørende bil skal programmeres, så den beskytter så mange mennesker som muligt. Inden for filosofien kaldes denne moralske tilgang for “utilitarisme”.
I det nye studie udfordres denne moralske tilgang imidlertid ved blandt andet at sætte deltagerne i en række eksperimenter under forskelligt tidspres og ved at tildele dem forskellige roller i trafikken – som fodgænger eller som passager i bilen.
Udgangspunktet for studiet er et kendt, etisk dilemma fra psykologiens verden, det såkaldte “Trolley-dilemma”, hvor man skal vælge mellem enten at redde fem jernbanearbejdere på bekostning af én eller ikke at gøre noget.
Overført til selvkørende biler er Trolley-dilemmaet: Skal bilen ofre sig selv og sin passager eller en eller flere fodgængere i en kritisk situation.
Stor forskel på en intuitiv og en overvejet beslutning
Både tid og rolle kan påvirke vores moralske tilgang til dilemmaet, viser studiet, som er lavet blandt knap 3.000 mennesker i USA og Danmark, fordelt på i alt syv eksperimenter omkring dilemmaer med selvkørende biler.
I ét af eksperimenterne, hvor der var flere passagerer i bilen og kun en enkelt fodgænger, gik deltagere, som havde fodgænger-rollen, fra 4,3 procent, der ville redde passagererne, når de skulle svare inden for fem sekunder (intuitiv beslutning), til 60 procent, der ville redde passagererne, når deltagerne fik mulighed for at tænke sig om i op til 30 sekunder (overvejet beslutning).
Læs mere om eksperimentet på: bss.au.dk.
»Studiet viser, at vores moralske beslutninger slet ikke er så simple, som vi måske troede, og at den moralske beslutning, som vi umiddelbart siger, at vi vil tage, ikke altid er til at stole på,« siger Darius-Aurel Frank, der er ph.d.-studerende på Institut for Virksomhedsledelse, Aarhus BSS.
Darius-Aurel Frank er førsteforfatter på studiet, der er offentliggjort som en åben artikel i Nature-tidsskriftet Scientific Reports. Studiet er lavet sammen med lektor Polymeros Chrysochou, lektor Panagiotis Mitkidis fra Aarhus BSS og professor Dan Ariely, Duke University, USA.
Udfordring at overføre moralske beslutninger til algoritmer
Med studiet ønsker forskerne at bidrage til debatten om, hvordan kunstig intelligens skal designes, og hvordan menneskets moralske beslutninger overføres til algoritmer.
»Hvis vi blot overfører moralske beslutninger fra mennesker til kunstig intelligens, så risikerer vi også at overfører de menneskelige moralske modsætninger, som vi ikke umiddelbart kan stole på,« siger Darius-Aurel Frank og fortsætter:
»Derfor er det også vigtigt, at dette studie følges op af yderligere forskning omkring, hvad der påvirker vores moralske beslutninger.«
Forskerne bag studiet har derfor dannet en tværfaglig forskergruppe, der vil dykke nærmere ned i spørgsmålene omkring sikkerhed og etik i udviklingen af design for kunstig intelligens.
Øverst: Genrefoto. (Foto: Comfreak / Pixabay). PM/rk.
This article is published by Zand.News. Copyright © Zand Media, Denmark (EU), tel. +45 7174 1448.