Folket bør få være med og styre KI-skuta

Kunstig intelligens (KI) kan gi oss smarte hjelpemidler, men også avanserte våpen og overvåkingssystemer. Innbyggerne må få si sin mening om forskningen, understreker en betenkning

En dame børster en kosedyr-sel
obotselen Paro har blitt brukt i pleie av blant annet personer med Alzheimers sykdom. (Foto: Rubra/Flickr.com)
Forside av bladet forskningsetikk nr 4 2019
Forskningsetikk nr 4, 2019 Magasinet Forskningsetikk er et uavhengig fagblad om forskningsetikk som utgis av De nasjonale forskningsetiske komiteene (FEK).

Kunstig intelligens er ikke et nytt fagområde. Men mer data- og regnekraft, store datasett og økt tilgang til data gir helt nye muligheter på området. Det er et felt i rasende utvikling. Da er det lett å miste litt oversikten, påpekte Øyvind Mikkelsen da en forskningsetisk betenkning om kunstig intelligens ble lansert i Oslo i november.

Mikkelsen er leder i Den nasjonale forskningsetiske komité for naturvitenskap og teknologi (NENT) som står bak betenkningen (se faktaboks). Han understreket at samtidig som mulighetene er mange, er de potensielle risikoene store.

– Når vi beveger oss i ukjent terreng, er det viktig å ta forholdsregler og se på mulige konsekvenser av den type forskning. Vi ønsker å ha en teknologi som er bærekraftig og til nytte for allmennheten, samtidig som den ikke har svakheter og gjør oss sårbare.

Våpen og spamfilter

KI-systemer etterligner, erstatter og utvider menneskelig intelligent handling og menneskelig beslutningstaking og vurdering.

Allerede i dag påvirker KI de fleste områder i samfunnet. I hverdagen bruker vi teknologien når vi for eksempel dikterer tekstmeldinger til mobilen eller filtrerer bort useriøs e-post. KI kan også bidra til å løse store samfunnsutfordringer innen blant annet helse, energi og sikkerhet.

Men hva slags grenser skal vi sette for forskingen på teknologien og bruken av den? Ønsker vi oss autonome våpen som selv kan ta en beslutning om å drepe? Vil vi overlate dømming i rettssaker til et KI-system? Og ansiktsgjenkjenning er lettvint når vi skal logge oss inn på nettbanken vår, men den samme teknologien kan også brukes til overvåking. Er det verdt risikoen?

Må ivareta menneskeverdet

Den forskningsetiske betenkningen understreker at fagmiljøene må gjøre en kritisk vurdering av visjonene bak KI-forskningen. Forskeren har også et selvstendig ansvar for at forskningen direkte eller indirekte vil kunne komme samfunnet til gode og for å minimere risiko.

– Forskere må sikre at kunstig intelligens-systemer blir bygd opp på en slik måte at de ivaretar menneskeverd, selvbestemmelse og demokratiske rettigheter, sa Jim Tørresen da den forskningsetiske betenkningen ble lansert.

Olle Häggström som er professor ved Chalmers tekniska högskola i Gøteborg, var invitert for å kommentere betenkningen under lanseringen. Han har de siste årene engasjert seg spesielt i sikkerhet ved kunstig intelligens og andre muliggjørende teknologier og er også medlem
i Expertgruppen för etik i det svenske Vetenskapsrådet.

– Jeg ser det som at forskeren, akkurat som alle andre mennesker, har plikt til å ta ansvar for sine handlinger, fastslo han.

Häggström påpekte samtidig at det er en viss motstand i forskersamfunnet til en slik tankegang.

– Mange er med i båten, men ikke alle, sa han og hevdet at vi har vært for vågale i å sette vår lit til den enkelte forsker.

– Andre i samfunnet må ta tak i dette, og kanskje trengs det reguleringer, for det er ikke sikkert den enkelte forsker kommer til å gjøre det riktige helt av seg selv.

En balansert debatt

Forskerne og forskningsmiljøene opererer ikke i et vakuum. Betenkningen påpeker også at folk flest har noe de skal ha sagt når det gjelder KI-forskning.

«Myndigheter og forskningsinstitusjoner bør legge til rette for at innbyggerne kan bli bredt involvert i hva som skal være forskningens formål, innretningen på forskningssatsinger og bruken av forskningen», heter det.

– Denne vurderingen bygger på føre var-prinsippet. I denne sammenhengen handler det om at forskere bør bidra til å beskrive og kommunisere risiko ved utvikling og bruk av KI på en balansert måte, sier Jim Tørresen.

Hvem som skal involveres, avhenger av hvilke anvendelsesområder det gjelder, ifølge Tørresen.

– Mange forskere engasjerte seg i oppropet mot autonome våpen – en teknologi som ville kunne ramme oss alle. Det er et eksempel på at forskere bidrar til samfunnsdebatten, som igjen kan påvirke myndigheter og deres ansvar for lovregulering.

– Kan fort bli galt

Häggström sluttet seg til oppfordringen om bred involvering.

– Jeg ser det som en absolutt rettighet for alle medborgere å få være med i diskusjonen om KI, kommenterte han.

Einar Duenger Bøhn er filosof og jobber ved Senter for forskning på kunstig intelligens (CAIR) ved Universitetet i Agder. Han mener det er viktig å snakke om hvilke eksterne aktører som skal få være med og diskutere KI-forskningen og på hvilken måte.

– Hvis folket skal få være med og avgjøre hva slags forskning som skal gjennomføres, kan det fort bli galt, sa han under lanseringen.

Til Forskningsetikk utdyper han at han mener det kan være både nyttig og viktig å involvere innbyggerne i utvikling av for eksempel tjenester eller produkter rettet mot folk flest. De kan også få ha en mening om bruken av forskningsresultater, men han synes generelt sett ikke de skal få mene noe om hva det bør forskes på.

– Det kan true den akademiske friheten, mener han.

Duenger Bøhn synes det er langt viktigere at representanter fra andre fagområder trekkes inn i KI-utviklingen.

– Samfunnsvitere og humanister kan bidra med viktige perspektiver. De må få spille inn og ta eierskap til teknologiutviklingen.

Følger med på utviklingen

Helene Ingierd som er sekretariatsleder i NENT, forteller at de ni punktene i betenkningen er ment å tjene som et utgangspunkt for refleksjon, veiledning og diskusjon i fagmiljøene. Punktene er også utarbeidet for aktører som finansierer eller tar i bruk KI-forskning.

– NENT kommer til å fortsette å ha dialog med fagmiljøene om de forskningsetiske utfordringene med KI, også når det gjelder brukerinvolvering. Siden dette er et forskningsfelt i så rask utvikling og med mye usikkerhet, vil NENT revidere betenkningen etter hvert, og da kommer vi også til å med oss erfaringer fra de som har tatt den i bruk, sier Ingierd.