FOTO: AP/NTB Scanpix

Britisk politiker: Vi må stoppe spredningen av tankevirusene på nettet

– Det er ikke et stort tap for ytringsfriheten om rasister ikke kommer unna med ting de kom unna med før, sier den britiske politikeren Damian Collins. Han er en av hovedpersonene bak Storbritannias offensiv mot falske nyheter, desinformasjon og trakassering på nett.

LONDON (Agenda Magasin): Damian Collins er en ganske ukjent politiker som kan sette merkbare spor etter seg, verden over. Fra 2017 til 2019 ledet han en 18 måneder lang undersøkelse av desinformasjon og falske nyheter. Rapporten var med på å utløse det som tegner til å bli det mest omfattende forsøket på å lovregulere sosiale medier og andre selskaper som sprer brukerskapt innhold på nettet.

Loven mot skadelig innhold på nettet – Online Harms Bill – lager regler for hvordan nettselskaper skal håndtere alt fra terrorismeinnhold til trakassering. Loven og debatten rundt den er forklart i denne hovedartikkelen i vår serie Med lov skal hets bekjempes?

Collins er en av kildene i artikkelen. Under følger hele intervjuet med ham, for de som vil fordype seg mer i hvorfor denne loven er laget, hvordan den skal virke og hvordan Collins ser for seg den kan være en modell for andre land.

Damian Collins har vært parlamentsmedlem for De konservative i Storbritannia siden 2010. Fram til forrige valg var han leder for kultur-, medie- og sportskomiteen i parlamentet. Der ledet han granskningen, og også en internasjonal storkomité med medlemmer fra parlamenter i åtte land (bildet øverst, Collins til venstre).

 

– Hvordan ble du overbevist om at sosiale medier trenger mer lovregulering enn i dag?

– Det handler om å se på problemene, og så spørre hvilket ansvar disse selskapene har for hvordan folk bruker tjenestene deres. Da vi begynte å se på det, så vi spesielt på desinformasjon og innblanding i valg. En av tingene vi tidlig så, var at det var vanskelig å få selskapene til å ta ansvar for hva som skjer på plattformene deres, og veldig vanskelig å få dem til å være åpne om omfanget av hva som foregikk.

Etter valget i USA i 2016 husker jeg at jeg spurte ledere i Facebook om det var noen beviser for at Russland gjorde det samme i Storbritannia som i USA – å prøve å påvirke valg gjennom plattformen – og de svarte at «hvis du har beviser, så skal vi se etter, men det er ikke vår jobb å finne bevis for deg».

Det jeg mener vi kan gjøre, er å gi dem et visst ansvar for brukere og innhold som er både ulovlig og skadelig.

Da ble jeg overbevist om at vi ikke kan overlate dette til selskapene selv. Vi kan ikke la dem være sitt eget politi, og selv rapportere hva som skjer og hvor bra de får det til. Vi er nødt til å ha et tilsyn som kan holde øye med disse selskapene og etterforske hva som skjer.

Hvis du tar en hendelse som terrorangrepet i Christchurch i New Zealand: Kunne direktestrømmen av angrepet blitt stengt tidligere? Hva var nøkkelkontoene og -gruppene som ble brukt for å spre videoen i en tidlig fase? Facebook vil si at de fleste som spredte, var folk som spredte det som en nyhetssak. Men hvor mange delte dette med folk som hadde en ugrei interesse i dette? Dette trenger vi å vite, og vi må stille selskapene til ansvar for hvordan de håndterer det, i tillegg til de dagligdagse tingene de driver med.

Det er hele tiden en debatt om disse selskapene skal sees på som medier, og om vi skal gi dem det samme juridiske ansvaret som medier har. Det mener jeg vi ikke bør gjøre. Det vil være slutten på sosiale medier hvis de juridisk skulle vurdere alt som postes. Men det jeg mener vi kan gjøre, er å gi dem et visst ansvar for brukere og innhold som er både ulovlig og skadelig.

 

Damian Collins. FOTO: Wikimedia

 

– Dette er nytt territorium når det gjelder lovgivning: De er ikke medier, og de skal ikke være helt fri for ansvar. Hva er disse selskapene da?

– Det er her Online Harms White Paper kommer inn i bildet. Da jeg var leder for mediekomiteen i parlamentet (DCMS Committee, red anm), så vi på dette og det vi kom fram til, var at selskapene må ha en duty of care – en aktsomhetsplikt, det er det lovforslaget er basert på. De har en plikt overfor kundene sine.

En av grunnene til at vi vil innføre dette prinsippet, er at selv om det er brukere som lager innholdet, så kurateres det, rangeres og velges ut av selskapene, derfor har de et ansvar for hvordan disse verktøyene brukes. Lovforslaget skisserer hvordan dette ansvaret skal se ut.

Du trenger noe som er tydeligere og definert, men også gir selskapene et ansvar selv.

Ta for eksempel ulovlig innhold, som misbruk av barn og innhold som oppfordrer folk til å begå voldelige, kriminelle handlinger. Der forventer vi at selskapene skal gjøre sitt beste for å finne dette innholdet og fjerne det, de skal gjøre det vanskelig å laste opp innholdet igjen når det er fjernet, og de skal gjøre noe med kontoer som stadig bryter reglene ved å poste innhold. Og vi forventer gjennomsiktighet i hva selskapene gjør, hvor mye de fjerner, og om det er tilfeller der de ikke gjør det de skal. Da kan de holdes ansvarlig av et tilsyn. Så dette er ikke en selvdømmeordning, det vil være et uavhengig tilsyn med makt.

 

– Dere løfter dette fram som en modell for andre land som vil lovregulere sosiale medier. Hva er det som er nytt og spesielt med denne loven sammenliknet med tidligere reguleringsforsøk?

– Det loven ikke gjør, er å definere alt som kan tenkes å være overskridelser, den prøver isteden å definere ansvaret for sosiale medier-selskaper. De har sine egne retningslinjer, og Mark Zuckerberg sier nå at det reguleringer bør gjøre, er å tvinge selskapene til å rapportere om hvorvidt de følger egne retningslinjer eller ikke.

Men det skaper masse problemer, som tyskerne har sett med sin lov.  Du får masse data som er ganske meningsløse. Tallene ser kanskje bra ut angående hvor mye de fjerner, men hva er universet tallene kommer fra? Det er ikke alltid klart. Så den type selvrapportering er ikke alltid så nyttig. Du trenger noe som er tydeligere og definert, men også gir selskapene et ansvar selv.

Selskapene sier gjerne: Om dere forteller oss hva som er ulovlig, så skal vi fjerne det. Men med aktsomhetsplikten sier vi: Det kan komme ting som vi ikke har forutsett, vi kan ikke lage lover for all slags innhold. Men vi får et tilsyn til å etablere prinsipper om hva ulovlig og skadelig innhold er, og så ber vi selskapene om å bruke sin beste dømmekraft og vurdere om innholdet bryter med disse retningslinjene. Tilsynet kan så gripe inn og si at de ikke synes selskapene har vurdert riktig, og at de forventer at selskapene gjør dette bedre i framtida.

Det er bankenes ansvar å finne svindel og rapportere det inn, det er ikke tilsynets oppgave å oppdage det.

Dette prinsippet er nytt for teknologiselskaper, men er ikke så uvanlig for andre sektorer. Jeg bruker gjerne banksektoren som eksempel, når det gjelder svindel: Det er bankenes ansvar å finne svindel og rapportere det inn, det er ikke tilsynets oppgave å oppdage det og si ifra til bankene. Banker som ikke klarer å oppdage svindel og hvitvasking, kan miste lisensen som følge av det.

Hvis du lanserer et nytt produkt i banksektoren, vil ikke Finanstilsynet gi deg godkjenning av at produktet er trygt, de vil fortelle deg hva forpliktelsene dine er. Så er det selskapets ansvar å lansere produktet. Så det vi prøver å skape her, gjennom aktsomhetsplikten, er denne typen ansvarsfølelse: Det finnes retningslinjer for hva som er ulovlig, men det er også innhold som ikke nødvendigvis er ulovlig, men likevel skadelig. Vi forventer at selskapene skal være ansvarlige.

 

– Men er det ikke her det blir vanskelig: Det er lett å definere hva som er svindel. Det kan være vanskeligere å trekke en klar grense mellom for eksempel hatprat og politisk debatt? Hvordan skal selskapene håndtere dette?

– Det er noen kategorier som er åpenbart ulovlige, der det er lett å definere. Noen ganger sier selskapene at de er bekymret for at for mye innhold fjernes. Men hvis det betyr at i grenseland rasistiske ytringer eller i grenseland pro-nazistiske ytringer fjernes som kanskje kunne vært beholdt på siden, så…

 

– Så er du ikke så bekymret for det?

– …så er jeg ikke så bekymret for det. Det er ikke et stort tap for ytringsfriheten om rasister ikke kommer unna med ting de kom unna med før. Når det gjelder politiske ytringer, så kan du ikke begynne å gå inn i politiske debatter. To politikere kan bruke ulike fakta som kan være korrekte, men komme med helt ulike påstander, om økonomiens tilstand eller helsevesenet for eksempel.

Det du kan gjøre, er… hvis folk diskuterer ting som er åpenbart usanne, uten å basere det på fakta, da handler det ikke om å vurdere argumentene: Hvis du sprer en historie som er basert på en løgn, og spredningen er skadelig fordi den for eksempel brukes til å påvirke hvordan folk stemmer i et valg, eller for å overtale noen til ikke å ta en vaksine… i slike tilfeller, hvor det er skadelig for samfunnet, vil vi forvente at selskapene griper inn.

Det er spredningen, forsterkningen, vi bør se på.

Her er argumentet mitt at måten du balanserer dette opp mot ytringsfriheten, er ved at det ikke først og fremst handler om hvorvidt noen lyver eller ikke, det handler om hvordan de gjør det. Bruker de sosiale medier til bevisst og med onde hensikter å spre en påstand som er falsk? Det er spredningen, forsterkningen, vi bør se på. Om folk bruker grupper på Facebook eller kanaler på Youtube, som kan nå millioner av mennesker, og de bruker dem til bevisst å spre innhold som er løgnaktig, da må vi se at dette er skadelig og forvente at selskapene tar ansvar for det.

 

– Fortsatt: Det er nok av ytringsfrihetsgrupper som er bekymret for at dette vil ha en nedkjølende effekt hvor selskapene fjerner for mye innhold. Er du ikke bekymret for det?

– Som jeg sa tidligere: Hvis det betyr at rasisme i grenseland eller ren rasisme nedkjøles, så synes jeg ikke det er et stort tap for samfunnet. Du kan være ganske klar på hvor grensene går for innhold. Hvis noen sprer løgner, for eksempel om at visse raser er underlegne, og gjør det for å spre hat og falsk informasjon, så er det noe som er skadelig for samfunnet. Det vi ikke vil ha, er en verden der ytringsfriheten og din mulighet til å spre dine ideer til andre mennesker fortrenges til fordel for tvilsomme grupper og meninger som dominerer algoritmene. Det vil være farlig for samfunnet og demokratiet.

Det du gjør, er å stoppe spredningen av viruset.

Og dette skjer ikke med noen andre typer medier: Et av problemene her, er at de kontrollmekanismene som finnes for andre medier, ikke finnes for sosiale medier. Avisredaktører holdes ansvarlig for innholdet sitt, kringkastere har lisenser fra tilsyn. Du vet hvem du skal klage til hvis du blir dårlig behandlet. Men for sosiale medier vet vi ikke hvem som avgjør. De eneste vi kan kontakte, er selskapene selv.

 

– Et annet motargument er at det vil alltid finnes andre nettsteder folk kan gå til om de får innhold slettet et sted. Meningene blir ikke borte selv om innholdet blir slettet.

– Jeg mener at det du gjør, er å stoppe spredningen av viruset, og det kan være veldig nyttig. Det vil alltid være det mørke nettet, det vil alltid være små lommer der konspirasjonsteoretikerne kan spre ideene sine. Men det vi ser for øyeblikket, enten det er for å tjene penger eller av politiske årsaker, er at det er veldig lett å spre falske nyheter og desinformasjon som har ondartede hensikter.

Algoritmene er skapt for å holde på oppmerksomheten vår, de bruker ikke noe redaksjonelt skjønn, de leder oss mot det som er mest populært. Så hvis konspirasjonsteorier fra vaksinemotstandere er mer populært enn sannferdig, medisinsk informasjon, så vil de lede brukerne mot løgnene. Hvis vi kan gjøre det vanskeligere å gjøre slike ting på de store plattformene folk bruker til daglig, så vil det være et stort framskritt.

Det burde også være en plikt til å samarbeide mellom store og små selskaper, slik at Facebook for eksempel kan si at de ser skadelig innhold bli spredt, og at det kommer fra noen på Reddit. Da burde Facebook som et ansvarlig selskap si ifra til tilsynet, og si at de har meldt fra til Reddit, så tilsynet kan ettergå det. Det som ofte skjer, er at slikt innhold oppstår på mindre plattformer, og så sprer seg. Her kan selskapene ta et ansvar i å hindre at det spres, selv om det ikke begynte hos dem.

 

– Jeg snakket tidligere med Lorna Woods ved University of Essex, som har stått bak ideen om en aktsomhetsplikt. Hun håper et slikt lovprinsipp også skal påvirke måten disse selskapene opererer på mer grunnleggende. Tror du loven kan gjøre det?

– Jeg tror tilsynet kan gripe inn i slikt. Den kan spørre om algoritmen har en innebygd skjevhet som fremmer skadelig innhold, og om det er ansvarlig. Hvis for eksempel konspirasjonsteorier om koronaviruset er mest populære, som det er rapporter om nå…

 

– Hvordan får du da selskapene til å endre på at det er mest populært?

– Det Facebook vil si, er at de vil nedprioritere slikt innhold, slik at det fortsatt vil være der, men vil være vanskeligere å finne. På ett plan er det greit, men ikke alle søker etter det de ser. De kan være medlem av gruppe der de får slikt innhold – vi har sett flere eksempler på grupper som ser uskyldige ut, men som omdannes til desinformasjonsagenter. Så plattformer som Facebook bør ikke bare nedprioritere slikt innhold, men undersøke hvilke grupper som er aktive i å dele slikt innhold og så gå etter dem.

 

– Men kan denne lovgivningen tvinge selskapene til å gjøre dette, for eksempel stenge ned grupper?

– Så spesifikke ting kan ikke parlamentet lovfeste. Men når det gjelder kringkasting, har tilsynet (Ofcom) fått et mandat fra parlamentet, og har omdannet det til et levende regelverk som de bruker overfor kringkasterne. Det samme kan gjøres her. Når det gjelder innhold som defineres som skadelig i lovverket, kan selskapene få et ansvar for ikke bare å slette det, men også ta grep overfor aktører som er aktive i å spre slikt innhold.

 

– Det betyr at dette tilsynet, Ofcom her i Storbritannia, vil få en veldig viktig rolle. Vil de være i stand til å få disse gigantiske, internasjonale selskapene til å endre sin praksis?

– Den tyske loven, som ikke er perfekt, viser at selskapene føyer seg etter lovene i landene der de er aktive. Så det gjør ikke noe at ulike land har ulike regler, selskapene må føye seg likevel. Vi ser at Frankrike, Tyskland og Storbritannia gjør dette på ulike måter. EU-kommisjonen jobber også med politikk på dette, for å gjøre selskapene ansvarlige. Vi ser nå at innsatsen økes mange steder.

 

– Du har selv vært aktiv i dette arbeidet da du ledet mediekomiteen i parlamentet, og satte sammen en storkomité med medlemmer fra parlamenter i åtte ulike land for å undersøke reguleringer av disse store teknologiselskapene. Hva lærte du om hvordan ulike land tilnærmer seg dette?

– Det er en felles tilnærming om at vi må få selskapene til å gjøre noe for å løse disse problemene, og at selskapene har nølt med å gjøre noe, og at det derfor trengs et samlet press. Det mest nyttige var å låne fra hverandres forståelse, vi hadde for eksempel et tilfelle der Facebook fikk spørsmål i en høring i Singapore som stammet fra en høring som ble holdt i min komité her i Storbritannia.

Undertrykkende regimer trenger ikke vår hjelp for å undertrykke ytringsfriheten i landene sine.

Ulike land har ulike tilnærminger. I Frankrike kan en dommer bestemme hva som er falske nyheter, og kreve at det fjernes. I Singapore har regjeringsmedlemmer den makten. Tyskland har sin lov. Men det som er felles, er forståelsen av at det bør være et lovverk som kan brukes mot selskapene, og at de har en plikt til å svare.

I USA er tilnærmingen annerledes på grunn av grunnloven, der handler det mer om krav om gjennomsiktighet. Men igjen, felles er forståelsen av at vi ikke kan overlate alt dette til selskapene selv, det må settes noen regler av parlamentene.

 

– Det man også ser internasjonalt, er at autoritære land kopierer disse lovene. Pakistan er for eksempel i ferd med å vedta en lov som på papiret ser ut som den du har vært med på å utforme, eller den tyske, men som brukes for å kvele opposisjonen. Er det en bekymring?

– Ja, så klart. Men undertrykkende regimer trenger ikke vår hjelp for å undertrykke ytringsfriheten i landene sine. Så at vi ikke skal gjøre noe med desinformasjon, hatprat og misbruk av barn fordi hvis vi gjør det, så vil undertrykkende regimer kopiere det for å undertrykke åpen debatt, det gir ikke mening. Vi må vedta politikk som gjør våre innbyggere trygge. Og, som du sa tidligere, aktivister vil alltid finne en måte å få fram budskapet sitt på, de må ikke bruke Facebook. Så ja, det er en fare, men dette skjer uansett i ulike land. Så betyr ikke at vi ikke skal gjøre noe her.

 

– Til slutt, vil denne britiske loven bli noe av?

– Ja. Regjeringens plan er at det skal komme et fullt svar på høringsrunden i løpet av noen måneder, så skal det komme et lovforslag. Regjeringen har vært tydelig på at dette skal bli noe av. Det kan bli noen endringer fra det opprinnelige forslaget, men det kommer til å bli noe. Nøkkelen vil være at det kommer et uavhengig tilsyn med reell makt, ikke bare makt til å kreve rapporter fra selskapene.

 

– Så, hvis du ser, la oss si, ti år inn i framtida. Vil vi se et annet internett i Storbritannia enn i dag?

– Ja, helt klart. Vi vil se at de store sosiale medier-plattformene vil være regulert mer som offentlig infrastruktur. Det vil være en konsekvens av store dominansen de har i markedet, at det må settes noen regler for hva brukerne skal kunne forvente fra dem.

Jeg tror også at forskjellen mellom internett og kringkasting vil bli mindre. Ideen om at vi skal se annerledes på en liten tv-kanal med hundre tusen seere – at den skal ha lisens og strenge regler for hva den kan kringkaste, mens en youtube-kanal med én million abonnenter kan gjøre hva den vil – i en verden der Youtube om ti år kan være den største tv-kanalen – den er nummer tre i Storbritannia nå blant voksne – og den brukes på akkurat samme måte som en vanlig tv-kanal av brukerne – jeg tror ikke at den forskjellen vil være der om ti år, i måten å tenke regulering på.

Derfor tror jeg debatten om skadelig innhold og forsterkning, om selskapenes ansvar, om å gjøre det vanskeligere å spre dette innholdet, vil føre til endringer.