Akademia.Zand.News – Fordommene er ikke kun forbeholdt mennesker. Kunstig intelligens kan have præcis samme udfordring. Algoritmen er nemlig oplært i at efterligne menneskelige beslutninger.
Med støtte fra Danmarks Frie Forskningsfond skal forskere fra DTU undersøge og udvikle algoritmer for mere retfærdig kunstig intelligens i sundhedsvæsenet. Det skriver Danmarks Frie Forskningsfond i en pressemeddelelse.
Kunstig intelligens er ligeså fordomsfuld som mennesker
»Mænd bliver sjældnere deprimeret end kvinder.«
»Kvinder har højere smertetærskel end mænd.«
Fordomme og forudindtagetheder som disse spiller en større rolle, end vi selv er klar over. De kan betyde, at en læge holder tilbage med at give psykologtimer til mænd eller helt undlader at diagnosticere mænd med depression.
Men fordommene er ikke kun forbeholdt mennesker. Kunstig intelligens kan have præcis samme udfordring. Det er nemlig en prædiktiv (forudsigende, red.) algoritme, der er oplært til at reproducere (efterligne, red.) de beslutninger, der forekommer i de data, som den er trænet på.
Hvis for eksempel mænd bliver underdiagnosticeret med depression, mens kvinder ikke gør, så vil den kunstige intelligens udøve den samme partiskhed, når den diagnosticerer depressionen. Og hvis læger holder tilbage med at give psykologtimer til mænd, vil algoritmen gøre det samme.
Algoritmer skal kunne diagnosticere uden at være partisk
Derfor skal det nye forskningsprojekt “Bias and fairness in medicine” udvikle algoritmer for retfærdig kunstig intelligens, som skal kunne diagnosticere og prædiktere behandling i sundhedsvæsenet uden at være partisk.
Projektet har netop fået støtte fra Danmarks Frie Forskningsfond og er ledet af Aasa Feragen-Hauberg, der er professor ved Institut for Matematik og Computer Science på Danmarks Tekniske Universitet.
Undersøgelsen kommer til at foregå i tæt samarbejde med etiker og lektor Sune Hannibal Holm fra Københavns Universitet, adjunkt Melanie Ganz på Rigshospitalet samt ETH, som er et teknisk universitet i Zürich i Schweiz.
»Når vi laver en veltrænet algoritme, vil den ikke have den støj, som et menneske har. En algoritme har ikke en dårlig dag, som en læge kan have. Og med en retfærdig algoritme, som vi vil lave, kan vi opnå lige god diagnostik eller behandling for alle grupper og fjerne nogle af forudindtagethederne,« siger Aasa Feragen-Hauberg.
Vil skabe nye definitioner af retfærdig kunstig intelligens
Første skridt i forskningsprojektet bliver at lave et registerstudie, hvor forskerne ser på depressionsdata hos danske patienter.
Her vil de teste deres hypotese om, at der er skævheder i dataet – for eksempel i, hvor tit danskerne bliver diagnosticeret, og hvilken type behandling de får. Dette bliver baseret på køn, alder, geografi og indkomst.
Derefter vil de i samarbejde med en etiker fra KU undersøge, hvad det overhovedet vil sige, at en algoritme skal være fair i sundhedsvæsenet og skabe nye definitioner af retfærdig kunstig intelligens.
For det at være “retfærdig” i sundhedssektoren er med stor sandsynlighed anderledes end andre steder.
»Det ville være et stort problem, hvis man for eksempel ikke måtte give mænd den bedst mulige behandling for hjertesygdomme, fordi vi er dårligere til at diagnosticere kvinder for det samme. Det skal medtænkes i den etiske analyse af en fair sundhedsalgoritme,« siger Aasa Feragen-Hauberg.
Afslutningsvis vil de bruge resultaterne fra registerstudiet og de nye koncepter om retfærdighed til at udvikle algoritmer for mere retfærdig kunstig intelligens i sundhedsvæsenet.
Håbet er, at de nye algoritmer for kunstig intelligens kan skabe et bedre og mere retfærdigt sundhedsvæsen. Projektet kommer til at løbe over tre år.
Øverst: Genrefoto. (Foto: Danmarks Frie Forskningsfond). PM/rk.
This article is published by Zand.News. Copyright © Zand Media, Denmark (EU), tel. +45 7174 1448.