Frelsende eller fatalt?

Kunstig intelligens gir store muligheter på mange områder, men er også en teknologi med stort skadepotensial. Nå jobber både regjeringen og forskningsetiske komiteer med å få oversikt over feltet.

to roboter
Robotene Nao og Turtlebot brukes i et forskninsprosjekt rettet mot eldre som bor alene. Men til diskusjonen om kunstig intelligens hører også mulig misbruk av teknologi og personvernutfordringer.
forside bladet forskningsetikk nr 3 2018
Forskningsetikk nr. 3, 2018 Magasinet Forskningsetikk er et uavhengig fagblad som utgis av De nasjonale forskningsetiske komiteene (FEK).

På den ene siden, begeistrede forskere, næringsliv og politikere som tror kunstig intelligens kan redde alt fra journalistikken til jordkloden og som presenterer et framtidig samfunn fritt for sykdom, fattigdom og nød.

«I løpet av de neste ti årene vil kunstig intelligens bidra til så mange forbedringer i livskvaliteten vår», skrev Mark Zuckerberg i et Twitter-innlegg i 2017. Han viste til at kunstig intelligens allerede bidrar til diagnostisering av sykdom og trakk fram selvkjørende biler som et nytt gode.

Næringsminister Torbjørn Røe Isaksen har også uttrykt begeistring for teknologien. «Det gir ufattelig store muligheter», sa han på IKT Norges årskonferanse i 2018 ifølge E24.no. «Om vi tilrettelegger for digitaliseringen av den maritime klyngen, så kan vi leve av sjøfart i tusen år til».

Autonome våpen og arbeidsledighet

På den andre siden, populærkultur som maler et dystopisk bilde av framtida, og bekymrede forskere som advarer om autonome våpensystemer, økende arbeidsledighet og robotisert eldreomsorg.

«Vi er som små barn som leker med en bombe», uttalte filosofen Nick Bostrom ved Universitetet i Oxford i en artikkel i The Guardian. Den nå avdøde fysikkprofessoren Stephen Hawking advarte om at kunstig intelligens (KI) kan være det verste som har skjedd i vår sivilisasjons historie, med mindre samfunnet finner en måte å kontrollere utviklingen på.

Ber aktører om innspill

– Det er bred enighet om at KI kan ha betydelig nytteverdi og bidra til å løse store samfunnsutfordringer. Samtidig har mange, ikke minst i forskningsmiljøene, uttrykt bekymring for utviklingen, mulige negative konsekvenser og mulig misbruk av teknologien, sier Helene Ingierd.

Hun er sekretariatsleder i Den nasjonale forskningsetiske komité for naturvitenskap og teknologi (NENT). Komiteen har satt ned en gruppe som skal arbeide med forskningsetiske spørsmål knyttet til kunstig intelligens.

I et brev til aktører som jobber med KI, ber NENT om innspill. Ingierd forteller at formålet er å få til en dialog om hvilke muligheter forskningen har, hvilke etiske spørsmål det er viktig å ha bevissthet rundt, hva forskere kan ta ansvar for og hva andre må ta ansvar for.

Professor Jim Tørresen deltar i arbeidsgruppen i NENT. Han forsker på robotikk og intelligente systemer ved Universitetet i Oslo og mener forskere i stadig større grad er opptatt av de etiske sidene ved kunstig intelligens.Professor Jim Tørresen, Universitetet i Oslo

– De fleste konferanser og vitenskapelige artikler fokuserer fortsatt hovedsakelig på algoritmer og de teknologiske sidene ved kunstig intelligens. Men det er betydelig aktivitet knyttet til de etiske perspektivene også.

Brukes av folk flest

La oss spole litt tilbake. Hva er egentlig kunstig intelligens? Definisjonene er mange. Ifølge rapporten Kunstig intelligens og personvern fra Datatilsynet handler det om datasystemer som kan lære av egne erfaringer og løse komplekse fysiske og kognitive problemstillinger i ulike situasjoner. Mange av disse oppgavene har vært forbeholdt mennesker.

Ingierd mener KI-forskning reiser en rekke forskningsetiske spørsmål som forskere og andre må forholde seg til, og som det er gode grunner til å reflektere over. Hun forklarer at gode konsekvenser, rettferdighet, åpenhet og respekt for den enkelte – inkludert personvern – er sentrale forskningsetiske prinsipper som særlig aktualiseres med KI.

I dag bruker de fleste av oss teknologien daglig når vi for eksempel dikterer tekstmeldinger på telefonen, søker etter informasjon på nettet eller filtrerer bort useriøs e-post. De færreste av oss er klar over at maskinlæringsalgoritmer også gir råd og tar beslutninger på områder som har stor betydning for oss.

For eksempel kan behandlingen av en jobbsøknad eller en søknad om lån hovedsakelig være basert på vurderinger gjort av et dataprogram med kunstig intelligens.

Googles gorillaglipp

Men hvorfor fikk ikke Hans Olsen lån? Og var egentlig Jensen bedre kvalifisert enn Pettersen til direktørjobben? Den som beslutningene gjelder, vil ofte ha behov for en forklaring. Ifølge EUs nye personvernforordning GDPR har vi også rett til en forklaring.

I praksis er dette ofte en utfordring, enten fordi innsyn i algoritmen begrenses bevisst, eller fordi algoritmen er komplisert og dermed vanskelig å forklare. Mangel på en forklaring gjør det både vanskelig å klage på en beslutning og å påta seg ansvar for en beslutning, understreker Teknologirådets rapport «Kunstig intelligens – muligheter, utfordringer og en plan for Norge».

Fordommer eller manglende bevissthet blant utviklerne kan også føre til en fordomsfull og lite objektiv kunstig intelligens. Et velkjent eksempel er bildetjenesten Google Photos som i en periode klassifiserte bilder av mørkhudede mennesker som gorillaer. Forklaringen var sannsynligvis at programvaren ikke var trent opp på et bredt nok utvalg av bilder, men var «matet» med flest bilder av etnisk hvite ansikter.

"Selv de beste algoritmene mangler evnen til å bruke sunn fornuft eller abstrakte begreper for å finpusse sin tolkning av verden slik mennesker gjør», heter det i en artikkel i Wired.com.

Utfordrende superintelligens

Slike utfordringer er likevel relativt små sett opp mot utfordringene vi muligens står overfor i framtida. Foreløpig utvikles kunstig intelligens innenfor avgrensede områder. Ett KI-system kan kjøre bil, et annet kan spille strategispill, et tredje diagnostiserer kreft. Det ultimate målet for mange forskere er å utvikle maskiner med såkalt superintelligens.

En superintelligens vil kunne gjøre flere ting, bli mer intelligent enn ethvert menneske og kunne finne opp nesten hva som helst.

– I NENTs forskningsetiske retningslinjer fremheves det at forskere har et ansvar for å vurdere risikoen som kan følge av egne forskningsfunn, og å minimere slik risiko. De skal også formidle usikkerhet som kan ha betydning for bruken av forskningsfunnene, påpeker Ingierd.

– Det som kjennetegner kunstig intelligens og andre muliggjørende teknologier, er imidlertid nettopp stor usikkerhet ved vurderingene av risiko. Når det gjelder utviklingen av superintelligens spesielt, ligger det i selve konseptet at det på sikt vil være nesten umulig å forstå, og dermed kontrollere, de mulige konsekvensene av teknologien, fortsetter hun.
Hun viser til Nick Bostrom ved Oxford som har understreket at det er nå vi kan handle, at vi har en slags etikkdeadline og det senere kan være for sent å bygge kontroll og etikk inn i systemene.

– Nettopp dette perspektivet gjør det nødvendig å diskutere nå hvilke verdier vi ønsker å bygge inn i systemene, hvem som bestemmer disse verdiene, og hvordan vi bevarer oversikt og kontroll over handlingsmønstrene, understreker Ingierd.

Hvem har det siste ordet?

Tørresen og kollegene ved UiO forsker på nye typer roboter gjennom automatisert utvikling av både form og styring, og bruk av eksisterende roboter innen kirurgi og eldreomsorg.

Forskeren mener den største risikoen er knyttet til datasystemer som feiler, og at uvedkommende får tilgang og tar kontroll eller misbruker informasjon. I tillegg må vi i stadig større grad forholde oss til fysiske roboter og andre teknologier som beveger seg i vår nærhet, fra robotstøvsugere til selvkjørende biler.

Ifølge Tørresen er det spesielt to faktorer som kan bidra til at teknologien oppfører seg slik vi ønsker:
• De som utvikler intelligente systemer, må ha fokus på etiske problemstillinger.
• Systemene må på egen hånd ha evnen til å gjøre etiske vurderinger for situasjoner som ikke er kjent når systemene blir utviklet.

– En annen viktig avveining er i hvilken grad et system skal få lov til å ta avgjørelser, sier han.

I noen tilfeller kan det være riktig, som for selvkjørende biler, mens i andre sammenhenger vil det være fornuftig at mennesker er involvert i beslutninger som tas, ifølge Tørresen.

Når det gjelder de etiske sidene ved kunstig intelligens, mener han et av de viktigste bidragene fra forskere og utviklere vil være å lage bra systemer. Gjennom grundig testing og innebygde sikkerhetsmekanismer for adgangskontroll kan systemene som utvikles bli robuste og beskyttet mot misbruk.

– Samtidig blir det i stor grad opp til politikere og myndigheter å lage lover og reguleringer for å begrense uønskede endringer i samfunnet, enten det er som følge av selvkjørende biler, eller roboter til bruk innen eldreomsorg.

Regjeringen kartlegger feltet

I april 2018 la EU-kommisjonen fram sin satsing på kunstig intelligens. Kommisjonen ønsker en kraftig økning i investeringer til forskning og utvikling på området. Samtidig har kommisjonen et mål om å utvikle etiske retningslinjer for KI i løpet av 2018.

I sin politiske plattform, Jeløya-plattformen, skriver også regjeringen at den vil utvikle retningslinjer og etiske prinsipper for bruk av kunstig intelligens. Paul Chaffey (H), statssekretær i Kommunal- og moderniseringsdepartementet (KMD), kan imidlertid ikke opplyse om når eller i hvilken form.

– Det er ingen tvil om at det er noen problemstillinger her som det er viktig å ha tenkt gjennom. Men det er ennå for tidlig å si hva slags uttrykk dette får, sier han.

KMD har et særlig ansvar for å koordinere digitalisering i offentlig sektor. Departementet har også ansvar for å holde overblikk over digitalisering i samfunnet generelt. Ifølge Chaffey er første fase å kartlegge bruken av maskinlæring i nye prosjekter, tjenester og arbeidsprosesser.

Når det gjelder en mulig regulering av feltet, sier Chaffey at vi allerede har mange lover og regler som tar høyde for relevante problemstillinger.

– Det finnes også normer og retningslinjer for hvordan man gjennomfører og bruker forskning.

Sannsynligvis har vi allerede mye som kan brukes på kunstig intelligens-området, så det er mulig vi har det meste på plass fra før, sier han.

Ingierd forteller at NENT på bakgrunn av innspillene de får, planlegger å avgi en forskningsetisk betenkning om kunstig intelligens innen komiteens virkeområde. Chaffey mener arbeidet i NENT er veldig positivt.

– Det er nettopp fra disse fagmiljøene vi trenger gode oversikter over hva som skjer, og gode råd om hvorvidt det kreves spesielle handlinger, fastslår han.