Hopp til hovedinnhold

Ny rapport: Store data gir store utfordringer

– Det er viktig å være i forkant når det gjelder stordataforskningen, sier professor Trine B. Haugen ved OsloMet. En ny rapport kommer med en rekke forskningsetiske anbefalinger på området.

Trine B. Haugen
– Jeg tenker det er en viss overentusiasme – og kanskje naivitet – blant politikere, ledere og folk generelt om stordata og kunstig intelligens, sier Trine B. Haugen. Foto: Sonja Balci / OsloMet
Omslag forskningsetikk nr. 2 2020
2020:2 Magasinet Forskningsetikk Magasinet Forskningsetikk er et uavhengig fagblad om forskningsetikk som utgis av De nasjonale forskningsetiske komiteene (FEK). ISSN digital utgave: 2387-3094.

Det er ikke så lett å gi en presis avgrensing av hva stordata er, men én definisjon er at det er datamengder som er så store eller komplekse at man ikke kan analysere dem med vanlige metoder. Posisjonsdata fra mobiltelefoner, bilder og film analysert med kunstig intelligens og data fra gensekvensering er noen aktuelle eksempler.

Stordata kan gi ny kunnskap og bidra til å løse samfunnsutfordringer, men rommer samtidig potensielle fallgruver og forskningsetiske utfordringer. Dette er temaet i en rapport om stordataforskning, som De nasjonale forskningsetiske komiteene (FEK) lanserer 15. oktober.

– Jeg tenker det er en viss overentusiasme – og kanskje naivitet – blant politikere, ledere og folk generelt om stordata og kunstig intelligens, både når det gjelder nytteverdi og risiko, sier Haugen.

Hun er professor i biomedisin og har deltatt i arbeidsgruppa som har utarbeidet den nye rapporten. Haugen mener det er viktig å lage systemer som gjør det mulig for forskerne å være produktive, og at det ikke er for mange flaskehalser. Samtidig kan det kan være god grunn til å stoppe opp og reflektere over de forskningsetiske utfordringene.

I stadig utvikling

Helene Ingierd er direktør i FEK og har ledet arbeidet med den nye rapporten. Hun mener at stordata endrer både samfunnet og forskningen.

– Stordata er ikke noe nytt fenomen, men et fenomen som er i stadig utvikling. Det foregår en kontinuerlig og økende generering av store datamengder. Samtidig gjør ny teknologi det mulig å samle inn, lagre og analysere data raskere og mer kostnadseffektivt enn tidligere, sier Ingierd.

Ingierd framhever at rapporten favner bredt. Den er rettet mot forskere på tvers av alle fagområder og omfatter hele spekteret av forskningsetiske normer som blir involvert ved stordataforskning.

– Vi ønsker å heve bevisstheten og legge til rette for gode forskningsetiske vurderinger, sier hun.

Viktige prinsipper under press

Informert samtykke om deltagelse er et av temaene som behandles i den nye rapporten. Forskeren har et ansvar for å fortelle forskningsdeltagerne hva dataene de bidrar med, skal brukes til, og hva deltagelse i prosjektet kan innebære for den enkelte.

Dette kravet kan imidlertid være vanskelig å oppfylle fullt ut i stordataforskning, påpeker Haugen ved OsloMet. Stordata gir muligheter for gjenbruk av tidligere innsamlede data til nye formål. Og data som samles inn nå, kan få en framtidig nytte som er vanskelig å definere i dag. Hun spør:

– Hva er det forskningsdeltagerne gir samtykke til? Det synes jeg er noe av det mest interessante. Hvor godt er samtykket, og hvor lenge kan det gjelde, og hvordan holder man oversikt over hva det er samtykket til, på lang sikt?

I tillegg deles dataene gjerne med andre forskere, noe som i praksis kan gjøre det umulig for forskningsdeltagere å trekke sine opplysninger om de skulle ønske det. En av rapportens anbefalinger er at forskere bør informere forskningsdeltagere på en realistisk måte om når et samtykke kan trekkes tilbake, og når dette ikke lenger er mulig.

Anonymisering av persondata kan også komme under press etter hvert som de teknologiske mulighetene utvikler seg. Datasett med anonymiserte personopplysninger kan bli koblet mot andre datasett og utforsket på måter som gjør
at individer kan reidentifiseres. Dette er ifølge rapporten noe forskeren bør ta høyde for når samtykke innhentes.

Tillit er avgjørende

Helseundersøkelsen i Trøndelag (HUNT) var tidlig ute med stordata her til lands. Oddgeir Lingaas Holmen er genetisk epidemiolog og leder for HUNT datasenter.

– Store data har alltid eksistert. Da Gregor Mendel studerte 12 000 erteplanter og noterte resultatene i protokoller, var det stordata for hans tid. Da HUNT ble startet i 1984, la man inn data på en datamaskin med disketter. Da var data fra 50 000 nordtrøndere mye, sier Lingaas Holmen.

Senere har datamengden økt voldsomt. Først kom opprettelsen av biobanker med blodprøver, og deretter for om lag ti år siden digitalisering av gendata fra disse prøvene. Lingaas Holmen understreker at etikk og tillit spiller en svært viktig rolle for HUNT.

– Tillitsverdig forvaltning av data er selve grunnlaget. Det er deltakerne som eier disse dataene, og vi har dem bare til låns, understreker han.

Som hovedregel skal de store dataene i HUNT ikke utleveres, og forskerne skal komme til HUNT for å få tilgang til dem.

– For HUNT har det vært viktig å sikre best mulig kontroll over dataene, på servere trygt lokalisert i Trøndelag, sier Lingaas Holmen.

Vil ha dialog

Den nye rapporten tar også opp tilgang på stordata fra kommersielle aktører, tverrfaglig samarbeid, forskernes ansvar for å sikre kvalitet og en rekke andre sider ved stordata.

I arbeidet med rapporten er det utviklet konkrete anbefalinger, men mange av dem er på et overordnet nivå. Ingierd mener at det er viktig at forskningsmiljøene fører de ulike diskusjonene videre, og er med på å utvikle mer spesifikke standarder.

– FEK ønsker en videre dialog om hvordan problemstillingene og anbefalingene vi har formulert her, kan tas med videre, sier hun.