Innspill til ny digitaliseringsstrategi for universitets- og høyskolesektoren

De nasjonale forskningsetiske komiteene (FEK) viser til invitasjonen fra Unit til å delta i en åpen innspillsrunde til ny digitaliseringsstrategi. FEK er et nasjonalt rådgivende organ for forskningsetiske spørsmål og gransking av uredelighet på alle fagområder. Dette innspillet er utformet av sekretariatet i FEK. (Sendt 11.05.2020)

Last ned uttalelsen som pdf.

Digitalisering endrer forskningspraksiser på grunnleggende vis, blant annet ved å øke tilgangen til data og ved utviklingen av nye vitenskapelige metoder. Digitalisering skaper nye muligheter for forskningen og legger til rette for økt samarbeid mellom forskningsinstitusjoner og andre offentlige og private aktører, men gir også opphav til økt uforutsigbarhet, blant annet knyttet til videre bruk av forskning og teknologiutvikling. Følgelig reises også etiske spørsmål. Overordnet sett mener FEK det er vesentlig at de etiske spørsmålene som følger med digitalisering løftes frem i den nye strategien. FEK knytter sine innspill i denne runden til tiltak som bør vurderes på strategisk plan, relatert til forskningsinnsats på områder som stordata og kunstig intelligens, inkludert bruk av kunstig intelligens.

Institusjonenes ansvar for forskningsetikk

Med Lov om organisering av forskningsetisk arbeid (forskningsetikkloven) har forskningsinstitusjonene fått et lovpålagt ansvar for å sikre at forskningen ved institusjonen skjer i henhold til anerkjente forskningsetiske normer, herunder å gi nødvendig opplæring av kandidater og ansatte i anerkjente forskningsetiske normer. De nasjonale forskningsetiske retningslinjene utgjør en kodifisering av slike normer innenfor ulike fagfelt og på ulike områder. Særlig relevante i denne sammenhengen er Forskningsetiske retningslinjer for samfunnsvitenskap, humaniora, juss og teologi, Forskningsetiske retningslinjer for naturvitenskap og teknologiForskningsetisk veileder for forskning på menneskelige levninger og Forskningsetisk betenkning om kunstig intelligens. FEK arbeider også med en rapport om stordata, som kommer i 2020. Rapporten peker på de mest sentrale forskningsetiske utfordringene som oppstår ved generering og bruk av stordata i forskning, og gir anbefalinger for etisk god og ansvarlig stordataforskning. Med digitalisering kommer mange forskningsetiske normer under særlig press. Dette styrker behovet for forskningsetisk bevissthet og kompetanse. FEK anbefaler at institusjonenes ansvar for forskningsetikk gjenspeiles i den nye strategien. I det følgende konkretiserer vi hvordan forskningsetikken utfordres med stordata, kunstig intelligens og deling av data med noen eksempler.

Stordata, kunstig intelligens, deling av data

Stordata, i kombinasjon med kunstig intelligens, reiser en rekke forskningsetiske spørsmål. Her vil vi trekke frem følgende sentrale problemstillinger og spørsmål:

(1) Håndteringen av store mengder data virker inn på forskningspraksiser. Slike endringer har implikasjoner for normer som regulerer god vitenskapelig praksis, kvalitetssikring og respekt for andres arbeid. Store datasett kan gi grunnlag for mer treffsikre analyser. Men selv i store datasett kan mindre skjevheter eller feil få utslag på resultatet. Stordata 3 anvendes dessuten gjerne til mange ulike formål, og konsekvensene av at data har lav kvalitet og inneholder feil kan dermed bli mer omfattende. Hvordan kan forskere kontrollere og sikre kvalitet på dataene når de må håndtere svært store datamengder, som dessuten kan bære preg av at de er samlet inn til andre formål?

(2) Koblinger mellom data fra ulike kilder kan skape utfordringer knyttet til respekt for personer og grupper, som muligheten for reelt informert samtykke og muligheten for reell anonymisering. Stordataforskning gir blant annet nye muligheter til å avdekke langt mer detaljert informasjon om enkeltindivider enn tidligere, og kan slik gripe inn i menneskers liv på nye måter. Et eksempel er hvordan tidligere anonymiserte informanter, kan identifiseres i etterkant. Hvordan kan forskere sikre at respekt for personer og grupper ivaretas?

(3) Bruk av stordata i kombinasjon med kunstig intelligens endrer også forventninger til forskningens rolle i samfunnet. Dette handler om både forskningens nytteverdi og mulig risiko for enkeltindivider, grupper, miljø og samfunn. Stordata, i kombinasjon med maskinlæring, kan blant annet brukes til å analysere, forutsi og påvirke fremtidige preferanser og adferdsmønstre. Denne teknikken kalles profilering. Slik kan stordata være med på å gi oss bedre og nyttigere tjenester. Men slike teknikker kan også brukes til å påvirke valg på en måte som er mer problematisk, for eksempel gjennom å påvirke folk, gjennom «dulting», til å kjøpe spesifikke produkter, eller gjøre skjemaer og byråkratiske prosesser så vanskelig å gjennomføre for brukere at de ikke får tilgang på godene de har rett på. Uavhengig av om slik påvirkning får positive eller negative følger for oss, kan «dulting» på sikt true vår selvbestemmelse og mulighet til å forme vår egen identitet. Hvordan sikre at forskningen blir brukt på måter som ikke svekker menneskeverd?

Deling av data er viktig for å legge til rette for kvalitetssikring i forskning og for at forskningsresultater skal kunne komme samfunnet til gode. Samtidig kan deling av data komme i konflikt med andre sentrale forskningsetiske normer, som angår respekt for den enkelte. Fri tilgang kan også komme i konflikt med forskernes ansvar for å minimere risiko ved bruk av forskning, for eksempel kan dette gjelde forskningsresultater som kan misbrukes og derved utgjøre en fare for enkeltmennesker eller samfunn. Åpenhet som tilgjengeliggjøring av data kan videre legge til rette for mulig misbruk av forskningen av meningsmotstandere på betente 4 forskningsområder som er særlig sårbare for interessekonflikter. I slike situasjoner oppstår et behov for å gjøre gode avveiinger mellom ulike normer. Tommelfingerregelen som er utarbeidet for tilgjengeliggjøring av data, «så åpne som mulige, så lukkede som nødvendig», tar nettopp utgangspunkt i hvordan ulike forskningsetiske normer kan stå mot hverandre.

Håndteringen av etiske spørsmål knyttet til stordata og kunstig intelligens stiller krav til forskningsetisk refleksjon hos forskere. FEK ser også et behov for å styrke bevissthet om normkonflikter som kan oppstå ved deling av data, og hvordan ulike aspekter ved åpenhet kan ivaretas på best mulig måte når andre hensyn er tungtveiende. Digitaliseringsstrategien bør helt eksplisitt anerkjenne dette, og fastholde forskningsinstitusjonenes ansvar for opplæring i forskningsetiske normer, jf. forskningsetikkloven.

Forskningsinnsats på områder som kunstig intelligens og stordata innebærer gjerne samarbeid mellom forskningsinstitusjoner og offentlige og private aktører. Slikt samarbeid kan gi nye muligheter for kunnskap, men reiser også utfordringer. FEK har hatt mange henvendelser de siste årene som viser hvordan slikt samarbeid åpner opp for interessekonflikter, og kan legge press på normer om forskningens uavhengighet og åpenhet. FEK har også erfart at det i mange tilfeller kan oppstå usikkerhet om samarbeid kan karakteriseres som forskning eller ei, og om forskningsetikken gjelder. Strategien bør også anerkjenne betydningen av at andre aktører som utfører forskning med forskningsinstitusjonene på områder som stordata og kunstig intelligens har gode rutiner og tilstrekkelig kompetanse om både personvern og forskningsetikk, for å ivareta tillit til forskning. De forskningsetiske retningslinjene er et viktig verktøy i så måte, og FEK er et rådgivende organ som kan brukes når det oppstår spørsmål om forskningsetikk.

FEK stiller seg ellers til disposisjon for Kunnskapsdepartementet i det videre arbeidet med strategien.