Den 21. mars inviterte Datatilsynet til lanseringswebinar og panelsamtale i anledning sluttrapport for forskningsprosjektet PrevBOT. Dette har vært et forskningsprosjekt som har holdt på siden i fjor sommer, bestående av flere aktører, med Politihøgskolen i spissen. Høgskolens rolle har vært å lede prosjektet og de ulike aktørene. Politiets IT-enhet (PIT), Centre for Artificial Intelligence Research (CAIR) ved Universitetet i Agder (UiA) og Kripos har vært blant de øvrige involverte aktørene.

PrevBot skal potensielt kunne patruljere internett med formål å avsløre og forhindre forsøk på seksuell utnyttelse av mindreårige. Det har blitt sett på muligheten for å, ved hjelp av kunstig intelligens, identifisere såkalte grooming-samtalerfor slik å peke ut arenaer på nett det er verdt å følge ekstra godt med på. Slik vil politiet kunne forhindre seksuelle overgrep i fremtiden. Med en kraftig økning i online grooming og heldigitale overgrep, vil PrevBot kunne bli et effektivt våpen.

Under lanseringen ble det klart at prosjektet fortsatt er i en tidlig fase, og veien videre avhenger nå av de mange fremtidige valgene som må fattes. Gjennom prosjektet har de ulike aktørene i første omgang utforsket de faktiske mulighetene for å lage et fremtidig verktøy – PrevBOT. 

På konseptstadiet 

Forskningsprosjektet er fortsatt på konseptstadiet – den er en del av den regulatoriske sandkassen til Datatilsynet. I prosjektet har Politihøgskolen derfor i første rekke sett på om det i det hele tatt er mulig å utvikle PrevBOT innenfor gjeldende rett og innenfor de etiske retningslinjer som gjelder. 

Hva angår det etiske aspektet ønsker aktørene at PrevBOT ikke bare skal være et lovlig verktøy, men at det også skal leve opp til kravene for ansvarlig KI. Sandkasseprosjektet har gjort en første steg-analyse. Alt i alt konkluderer sandkasseprosjektet med at kriteriene i første steg-analysen er oppfylt, og at det er etisk riktig å sette i gang forsking på PrevBOT. 

Teknisk tas det sikte på å utvikle en transparent språkmodell som kan klassifisere tilstedeværelsen av grooming i en samtale. Derfor ønsker Politihøgskolen å bygge PrevBOT på en såkalt Tsetlin-maskin. Bruk av denne metoden gjør det lettere å få svar på hvorfor verktøyet konkluderer som det gjør. Kunstig intelligens er ikke alltid like transparent, og det konkluderes med at aktørene på generelt grunnlag har, slik det ble sagt under lanseringswebinaret, «håp om at [forskningen] kan bidra til mer bærekraftige KI-verktøy med god forklarbarhet om noen år.» 

Rettslig sett er det tatt opp alminnelige, men prinsipielle, problemstillinger knyttet til politiets bruk av personopplysninger i utviklingen av kunstig intelligens. Vurderingen har fokusert på hvorvidt PrevBOT-prosjektet kan behandle personopplysninger i sin forskning, og hva som må gjøres for at denne behandlingen skal være i samsvar med lovverket. Svaret på dette spørsmålet er relativt, og avhenger av hvordan verktøyet anvendes i praksis.

Veien videre 

Av sluttrapporten fremgår det at man ved bruk av en hypotetisk, fremtidig PrevBOT ikke vil komme unna å behandle sensitive personopplysninger. Avhengig av hvordan verktøyet implementeres, kan det dessuten oppleves som en betydelig inngripen i personvernet til både offeret som for overgriperen, samt tilfeldige individer, dersom chatter blir analysert av PrevBOT mens de er på nettet. 

Å være tidlig ute med en plan for «vurderinger av lovligheten ved et slikt verktøy i bruk» vil derfor være smart, konkluderer Datatilsynet. Datatilsynet anbefaler prosjektet å identifisere tidlig uetisk og uønsket bruk av PrevBOT, og i utviklingsfasen jobbe for å stenge dører for nettopp slik bruk. 

PrevBOT kan ifølge sluttrapporten ende opp med å ikke bare bli ett verktøy, men danne grunnlaget for flere forskjellige tiltak som til sammen gir effektivt vern mot nettbasert grooming.