Selskap som Facebook og Youtube må presses til å gjøre tjenestene sine tryggere for brukerne, mener Lorna Woods. Professoren er hjernen bak Storbritannias nyskapende forsøk på å lovregulere sosiale medier.
COLCHESTER (Agenda Magasin): Jeg er på vei til Colchester, en times togtur øst for London for å møte professor Lorna Woods. Men vi kan ikke møtes på universitetet, sier hun – det er stengt. Ikke på grunn av virus, men fordi det er streik.
Dette var 26. februar 2020, to uker før koronaviruset traff europeisk offentlighet med et smell, og kontinentet stengte i løpet av få dager. Streiken er nå satt på vent, i likhet med nesten all annen politikk. Men temaet jeg reiste til England for å snakke med henne og andre eksperter, er ikke blitt mindre relevant: Hva skal myndighetene gjøre med all desinformasjonen, konspirasjonsteoriene og trakasseringen som florerer på nettet?
Lorna Woods er jusprofessor ved University of Exeter. Hun har mange års erfaring med mediepolitikk og -rett, som privatpraktiserende advokat og akademiker. For rundt tre år siden tok hun sammen med tidligere embetsmann Will Perrin initiativ til en helt ny måte å tenke rundt lovregulering av nettet.
Resultatet er blitt det britiske Online Harms-lovverket, som vi har presentert i en egen reportasje. Her følger hele samtalen med Lorna Woods. Den varte i over én time, så teksten er lang. Men vil du sette deg mer inn i tenkningen bak dette lovverket, som kan bli en modell for myndigheter verden over, kan det være verdt å lese også dette intervjuet.
Du er på sett og vis personen bak, eller en av de sentrale personene bak, den britiske loven som nå setter en standard for hvordan nettet skal reguleres. Hvordan begynte dette?
Vel, jeg begynte å snakke om dette med Will Perrin i Carnegie-stiftelsen etter et arbeid vi hadde gjort sammen med et parlamentsmedlem, Anna Turley. Det handlet om et lovforslag som svarte på trakasseringen spesielt kvinnelige politikere ble utsatt for. Loven sa at Twitter og andre plattformer burde gjøre mer for å hjelpe brukere.
Så kom det en offentlig utredning høsten 2017. Og den sa «ååå, dette er forferdelig, vi har alle disse problemene og vi kan ikke gjøre noe med det». På den tiden kom det sterke signaler fra flere komiteer om at det var problemer med trakassering, plaging, upassende innhold på nettet.
Hvilken annen industri ville vært klar over at det er negative konsekvenser ved det de utvikler, men undersøker det ikke en gang, de bare kjører på?
Så vi (Will Perrin og Woods, red anm) tenkte: Det kan da ikke være så vanskelig? Teknologibransjen er en industri som alle andre industrier. Hvis virksomheten deres har negative konsekvenser for andre, hvorfor kan de ikke gjøre noe med det?
Min tenkning rundt dette ble inspirert av et intervju jeg leste med Sean Parker, en av Facebooks grunnleggere. Han snakket om hvordan de utviklet liker-knappen, og sa mer eller mindre at «vi innser det er noen problemer med denne ideen, men la oss overse dem og kjøre på». Og jeg tenkte: Hvilken annen industri ville vært klar over at det er negative konsekvenser ved det de utvikler, men undersøker det ikke en gang, de bare kjører på?
Det var den typen atmosfære, der flere og flere grupper kom med spørsmål, og det kom ut stadig mer informasjon om tilnærmingen plattformene hadde rundt brukersikkerhet. Det var der vi begynte.
Når du sier vi, det var din og Will Perrins tankevirksomhet som førte til det som nå er Online Harms-reguleringen?
Ja. Da vi begynte med dette, tenkte vi at folk enten ville overse oss eller se på oss som de to gale tvillingene. For på den tiden begynte folk å bli klar over at det var problemer, men ikke at det fantes løsninger. Det var en dominerende fortelling om at du ikke kan regulere nettet, enten fordi det er for stort, fordi det er for komplisert eller fordi det holder til i USA og ytringsfrihet og – du vet. Så det vi prøvde å gjøre, var å skalere ned kompleksiteten og størrelsen på problemet, og gå bort fra ren innholdsregulering. For det er vanskelig, på grunn av mengden av innhold og de kulturelle forskjellene fra sted til sted.
Men jobben med Anna Turley om det første lovforslaget – Malicious Communications Bill – fikk oss til å tenke på verktøy og plattformdesign. Vi tenkte at, ja, det er spørsmål rundt hvordan systemdesign påvirker opplevelsen vår. Så burde ikke plattformene se på dette? Spesielt på spørsmålet om i hvilken grad de driver oss brukere i en spesiell retning, hvordan algoritmene anbefaler innhold som, hvis du ser det fra et offentlig sfære-perspektiv og ut ifra en forestilling om opplyste borgere, ikke akkurat anbefaler de riktige tingene. De prioriterer klikkagn og annonser uten å tenke på hvordan dette misbrukes.
Du vil aldri komme helt bort fra krav om å fjerne ting. Men vi er nødt til å se på systemene rundt.
Så vi tenkte: Hvordan kan vi se på dette på nytt, kan vi legge inn noen sikkerhetsmekanismer? Vi så på dette gjennom en «by design»-tilnærming. Du har hatt «privacy by design», nå ville vi ha «safety by design». Så vi ville fokusere på hvordan de strukturerer tjenestene sine. Det handler om det tekniske, men også om hvor mye ressurser de legger i klagemekanismer, og transparensen i hvordan disse prosessene fungerer.
Jeg leste for noen år siden at klager fra visse grupper ble behandlet mindre alvorlig enn andre hos Facebook, at etniske minoriteter ikke nådde opp på samme måte som hos hvite menn. Jeg vet ikke om dette stemmer, men det viser uansett at det trengs transparens rundt hvem som klager på hva og hva skjer for å kunne se på de systemiske problemene.
Dette handler om systemene. Du vil aldri komme helt bort fra krav om å fjerne ting. Men vi er nødt til å se på systemene rundt. Så vi ønsket å gå oppstrøms fra ren innholdsregulering.
Så, dette har nå endt i det som heter Online Harms-reguleringen fra den britiske regjeringen. Det er noen forskjeller mellom denne og hva dere foreslo opprinnelig. Men lovforslaget er fortsatt en ny måte å tenke rundt regulering på. Hva er det spesielle her?
At denne reguleringen fokuserer på systemet, ikke nødvendigvis på å identifisere innhold fra sak til sak. Det gjør det skalerbart, og det kan brukes på tvers av landegrenser. Du går vekk fra lokale forskjeller i hva folk aksepterer, systemet er systemet er uansett.
Reguleringen gir mer fleksibilitet. Det blir ikke en styring ovenfra som pålegger selskapene å gjøre nettet helt likt. Dette er en sentral ting med modellen vi valgte, duty of care – aktsomhetsplikten: Den er et rammeverk, den gir en retning. Den sier «vær så snill å redusere skader på plattformen», men den spesifiserer ikke hvordan selskapene skal gjøre det. Det er ikke detaljstyring. Det betyr at en stor aktør som Facebook kan holde sine tekniske løsninger for seg selv, og komme med løsninger.
Hvis du ser at en planke stikker opp fra gulvet, så spør du ikke – vil personen som snubler over den brekke beinet, eller vil han bare forstue det? Du gjør noe med planken.
Vi stoler ikke på dem, for vi har et tilsyn, men de kan selv velge måten de går fram for å komme til det riktige stedet. Og en viktig rolle for tilsynet blir å gi råd og vise muligheter slik at mindre plattformer ikke må finne opp ting selv. Det åpner for ulike måter å løse dette på.
Dette er også basert på risikovurderinger. Som selskap må du se på den typen tjenester du tilbyr og hva slags brukere du har, og så legge inn sikkerhetsmekanismer. Så hvis du retter deg mot barn, må du skru til mye mer enn hvis du tilbyr det som skal være en åpen plattform der fri debatt er målet.
Dette gjør at vi kan gå bort fra ideen om at nettet må være det samme for alle.
Men lovforslaget er ganske konkret når det gjelder ulike typer skadelig innhold og akkurat hva selskapene skal gjøre med de ulike typene?
Der er det en forskjell mellom hva vi foreslo og hva regjeringen har gjort. Jeg tror du må ha en idé om hva som er problemet, men jeg tror ikke man trenger å definere så skarpt. Det er ikke som en enkelt rettssak der du skal si at akkurat denne handlingen førte til denne skaden for denne personen.
Jeg har brukt et eksempel: Hvis du ser at en planke stikker opp fra gulvet, så spør du ikke – vil personen som snubler over den brekke beinet, eller vil han bare forstue det? Du gjør noe med planken. Det er dette det handler om: Å identifisere hva som skaper risiko for en viss type utfall, uten å spesifisere akkurat hva utfallet blir.
Slik lovforslaget står nå, så framstår det likevel som mer et detaljert lovverk som spesifiserer alt som er skadelig og hva som skal fjernes fra nettet?
Jeg tror ikke det er regjeringens intensjon. De har ikke sagt det rett ut, men jeg tror de tenker at denne aktsomhetsplikten ikke er perfekt: Den vil ikke fjerne alt som er ille på nettet, men målet er å unngå å forsterke dette innholdet unødig. Det vil alltid være rom for spesifikke lover mot enkeltproblemer, for eksempel innhold rundt misbruk av barn. Aktsomhetsplikten sier ikke at man skal ta akkurat dette innholdet ned. Men her er lovforslaget mer spesifikt enn vi hadde sett det for oss.
Ja, det var mitt poeng. Da jeg leste lovforslaget, tenkte jeg at det er veldig konkret rundt hvilke typer skadelig innhold det er rettet mot, og hva selskapene skal gjøre for de ulike typene innhold.
Ja, og jeg tror at det de prøver å gjøre, er å vise proporsjonalitet. Will Perrin og jeg lagde vår egen lov som eksempel, der er vi mer generelle. Vi la inn noe om barneporno og terrorisme, der er det mer spesifikke krav på grunn av EU-lovene, og der trengs det mer spesifikke prosedyrer. Men bortsett fra det, så handlet vårt forslag mer om informasjonsflyt.
Uansett forslag, så er mange bekymret for ytringsfriheten her. Er du bekymret for at denne loven kan true ytringsfriheten ved å føre til at for mye innhold fjernes fra nettet?
Åpenbart, men det avhenger av hva vi snakker om. Du må være nøye på hvordan du setter opp systemet, så du ikke uforvarende styrer tilsynet i en spesiell retning. Ofcom, som skal gjøre tilsynet i Storbritannia, er nødt til å balansere mot menneskerettigheter. Og når du ser på spesifikke inngrep, så vil dette systemet være mindre inngripende enn en lov som baserer seg på krav om å fjerne innhold eller blokkere sider. Det vil være noen tilfeller der innhold må fjernes eller sider blokkeres, men det vil være ekstreme tilfeller.
Der snakker den hvite mannen.
Men hvor jeg nok skiller jeg meg fra en del andre, er ved at jeg mener rettspraksisen viser at disse selskapene ikke har ytringsfrihet i seg selv. De er private aktører, ikke offentlige. Dermed kan de sette en minstestandard for ytringsfriheten, og den kan være noe helt annet om de driver nettsted for barn enn om de driver et nettsted for andre. Kjenner du til Mastodon?
Nei.
Det er et desentralisert sosialt medium. De har en programvare du kan laste ned for å sette opp ditt eget sosiale medium. Det interessante er at hver vert setter sin egen standard for hva som er akseptabel oppførsel, og disse standardene varierer veldig. Og det er bra. Hvis du vil diskutere ting helt åpent, så okei. Her i Storbritannia aksepterer vi for eksempel bots (dataprogrammerte profiler, red anm), og vi har en åpen tilnærming til ytringsfriheten. Men i en gruppe for veganere for eksempel, er det mye sterkere kontroll over hva det er lov å si enn i andre grupper.
Like fullt: Da jeg snakket med for eksempel den tyske juristen og medieforskeren Wolfgang Schultz til denne serien, sa han at han mener det er veldig problematisk å skulle behandle sosiale medier som vanlige medier. Hvis du gir dem det samme ansvaret, så mister du en ufiltrert informasjonsstrøm der alle ideer kan komme fram, og da mister du noe viktig sett ut ifra et ytringsfrihetsperspektiv.
Der snakker den hvite mannen (latter). Okei, det var kanskje urettferdig å si.
Han hadde et annet argument også: At omfanget av trakasseringen blir større fordi det forsterkes gjennom medieomtalen i vanlige medier. Uansett, dette er en bekymring hos mange, ikke bare ham – at det er farlig å skulle gjøre sosiale medier like regulerte som tradisjonelle medier.
Det er to ting her. Den ene er faren for ytringsfriheten. Jeremy Waldron, som har skrevet boka The harm in hate speech, har to argumenter: Det er lett for den som ikke mottar hatefulle ytringer å si, sånn litt koselig, at «å, jeg liker ikke det du sier, men jeg forsvarer retten din til å si det». For du vet ikke hvordan det føles.
Han sier også at når ytringsfrihetsforsvarerne skal kvantifisere trusler ofte identifiserer en veldig høy risiko for ytringsfriheten og en veldig lav risiko for alle andre hensyn. Og denne vurderingen blir aldri undersøkt.
Tenker du at når du åpner munnen uten å tenke, så er du mest deg selv og kommer med de ytringene du er mest stolt over?
På ett vis har ytringsfrihetsforsvarerne rett: Det er en risiko ved å innføre innholdsregulering, det kan åpenbart misbrukes. Men det er også en risiko ved ikke å gjøre noe. Vi kan diskutere undersøkelsene som kommer rundt dette. Men spesielt når det gjelder det offentlige rommet, så er det en reell risiko forbundet med å delta i debatter, spesielt hvis du er kvinne eller fra en minoritet. Det er i seg selv er en trussel mot ytringsfriheten og demokratiet.
Så jeg anerkjenner at du må være forsiktig, men det er en silencing effect hvis vi ikke passer på.
Og jeg vet ikke om ufiltrert og uredigert nødvendigvis… tenker du at når du åpner munnen uten å tenke, så er du mest deg selv og kommer med de ytringene du er mest stolt over? Eller foretrekker du å dvele ved øyeblikkene da du virkelig tenkte deg om, undersøkte det du skulle uttale deg om, og sa noe veloverveid? Jeg bare spør.
Jeg ser poenget.
Så det handler om å finne en posisjon i midten her. Dette handler også om et interessant spørsmål om hvordan nettet brukes. Det brukes både av profesjonelle grupper og av nybegynnere og av all slags folk. Det pleide å være et klart skille mellom profesjonelle ytringer og private ytringer. Regler som er passende for den ene gruppen, er ikke nødvendigvis riktige for den andre.
En journalist har for eksempel en rekke forventninger rundt etikk og profesjonalitet. Selv om du sier at andre skal holde fingrene unna innholdet ditt, så forventer du at en journalist sjekker kilder og så videre. Det forventer du ikke på puben fredag kveld. Det er noe der.
Det er noe der. Og det som vel har skjedd, er at den siste kategorien din – de private, ufiltrerte meldingene, langt på vei har erstattet de redigerte ytringene. Da er spørsmålet: Er lovverk og reguleringer det riktige virkemidlet for å få folk til å tenke seg om før de skriver?
Det er noen av tingene du kan bygge inn i en plattform. Min forståelse er at den hellige gralen for disse sosiale mediene er friksjonsløs kommunikasjon: Sørg for at det går fort, at det alltid er noe som skjer. Men det åpner ikke nødvendigvis for at vi bruker hjernene våre når vi bruker disse mediene. Så hvis du hadde litt langsommere prosesser, det trenger ikke være mye, så ville folk kanskje tenkt seg litt mer om før de retwitrer noe.
Instagram har lansert et filter, for eksempel, der det kommer en advarsel hvis du bruker et ord som kan oppfattes støtende, hvor de spør deg – er du sikker på at du vil formulere deg slik? Jeg vet ikke om dette virker, poenget er at slike tiltak bør undersøkes og vurderes for å se om de har effekt.
Dette handler om å diskutere hva som er sosialt akseptabelt. For øyeblikket ser det ut til at vi lever i en verden der mangelen på oppfølging av retningslinjene sender et signal om at «ja, dette er måten du skal oppføre deg på».
Men det er et enda større spørsmål under her: Kan du styre hva som er sosialt akseptabelt på nettet gjennom lovgivning?
Jeg tror lover fungerer som et signal. Men jeg tror endringene må komme mer gjennom arkitekturen og nudges, dyttene brukerne får, og at slike endringer vil være en konsekvens av lovverket. Så jeg er usikker på den direkte effekten. Men du må se på konteksten.
Når jeg snakker om dette så rydder jeg på et vis ny mark mens jeg snakker. Vi vil aldri få en perfekt verden. Dette er bare et forslag for hvordan ting kan bli litt bedre, og kanskje gi brukerne litt mer kontroll, så de får omgivelser på nettet de er komfortable med.
La oss gå litt mer i dybden på denne aktsomhetsplikten. Det er en interessant måte tenke lovgivning på. Men vil en slik plikt virkelig endre måten disse selskapene designer tjenestene sine på?
Jeg antar det avhenger av hvor mye de bryr seg om å følge loven.
Det er klart.
Okei, det er er en risiko her rundt hvilken kunnskap tilsynet vil ha, og makten tilsynet får. Mye vil avhenge av det. Du kan ha en aktsomhetsplikt der selskapene inntar en defensiv holdning og sier at de bare vil gjøre det tilsynet eksplisitt ber dem om. Eller de kan innta en mer reflekterende holdning der de ser på måten de har designet systemene sine, inkludert forretningsmodellen. Og det er det siste som lurer i bakgrunnen av lovgivningen her. Det handler alltid om implementeringen.
Joda. Men for å gjøre det konkret: Det er masse bekymring rundt spredning av terrorisme på nettet. Mark Zuckerberg sier stadig at kunstig intelligens fjerner 99 prosent av dette materialet. Så, hvis du har en lov med aktsomhetsplikt, kan han svare at han følger plikten og gjør det han skal. Men likevel kan du som bruker se nye terrorangrep bli strømmet live, eller bli støttet av andre brukere på plattformen. Hvordan skal da et slik måte å regulere på føre til endring?
Man kan svare på flere måter her. Én er, og her gjetter jeg bare, er at man kan se for seg at selskapene vil reagere når de blir varslet om konkrete poster, for da slipper de å gjøre grunnleggende endringer i systemet. En slik respons mener jeg er dømt til å mislykkes.
Det handler om å gå fra enkelttilfeller av innhold til det systematiske i designen av disse tjenestene.
Det du da kan si som tilsyn, er: Da du bygget dette verktøyet til plattformen din, livestrømming, hvilke sikkerhetsmekanismer bygget du inn da? Da TV-selskaper begynte med direkteoverføring, la de ofte inn en liten forsinkelse for kriser. Så en kan spørre om slikt.
Det handler om å gå fra enkelttilfeller av innhold til det systematiske i designen av disse tjenestene.
Da må det være mye makt i dette tilsynet?
Ja. Men det skal ikke bare være Ofcom (tilsynet i Storbritannia), det vil også være politiet eller sikkerhetstjenesten som håndterer dette. Derfor sier vi i vårt lovforslag at vi må tenke ut en mekanisme der spesialister på ulike politikkområder kan nå gjennom med sine krav. Det er umulig at ett tilsyn skal være ekspert på alle politikkområder som berøres på nettet.
Will Perrin snakker om matriseorganisasjon, at offentlige instanser snakker sammen på tvers. Så når det gjelder ting som livestrømming av terroristangrep, så må plattformene ha et system på plass som håndterer kriser.
Og plattformene kan svare at «ja da, vi har et slikt system». Jeg har snakket med Facebook-representanter om dette, og de argumenterer med at har systemer for å varsle om kriser. De sier for eksempel at de stanser x antall selvmordsforsøk hvert år når de oppdager dem i livestrømmen og varsler nødetater. Hvis de la inn en forsinkelse, ville de ikke kunnet gjøre det. Fordelene er større enn ulempene, er vel konklusjonen deres da.
Hvis de kan rettferdiggjøre det, så … fint.
Er det ikke en fare for at det blir en asymmetri i kompetanse her, som forskere gjerne kaller det – at tilsynet ikke vil være i stand til å argumentere mot selskapenes teknologiske overtak og presse gjennom reelle endringer?
Jeg mener det er et stort behov for tilgang til mer informasjon om hva disse plattformene gjør. I vårt forslag har vi foreslått en teknologisk rådgivningsinstans for tilsynet. For noe av ideen her er at det skal være selskapets ansvar å rettferdiggjøre at systemene deres virker, ikke tilsynets oppgave å bevise at de eventuelt ikke gjør det.
Jeg synes egentlig synd på Facebook. Fordi de har så mange brukere, dette er også Youtubes problem, så er de stedet der de fæle tingene dukker opp rent prosentmessig.
Helt klart. Men så lenge den grunnleggende forretningsmodellen deres er å holde folk på plattformen så lenge som mulig, for å samle inn mest mulig data om dem, da vil det sitte langt inne å gjøre grunnleggende systemendringer som går utover denne forretningsmodellen. Så jeg lurer fortsatt på hvordan en aktsomhetsplikt skal kunne presse fram slike endringer som du snakker om.
Hvis flere land gjør det samme, kan det skje. Det britiske markedet er ganske stort økonomisk, men en liten andel av hele verdensmarkedet. Uansett hvilket lovgivningsregime man velger, vil det ikke virke hvis ikke det er et større multilateralt press. Så der har dere et forslag til den norske ytringsfrihetskommisjonen.
Jeg må fortsette å pirke i logikken her: Du har skrevet at en modell for dette er ideen om «privacy by design», som vel er et prinsipp i personvernlovene i Europa nå, GDPR. Men funker det egentlig? Altså, vi trykker «ja» på disse boksene som spretter opp overalt, og så fortsetter vi å la oss overvåke og la dataene våre bli samlet inn.
Jeg mener datasikkerhet er et politikkområde der det var et stort hull i oppfølgingen av loven i lang tid, og der vi dermed endte opp med disse antakelsene om hva som er akseptabelt.
Det finnes kanskje et bruksområde der en streak er en god ting, selv om jeg sliter med å skjønne hva det skulle være.
En ting jeg mener er virkelig viktig, er å gi datadesignere en skikkelig opplæring ikke bare i lovverket, men også etikk. For det er de som tar disse avgjørelsene. Det er tingene de ikke tenker på, som er de viktige her. Men også opplæring for de som bygger disse systemene. Det er masse folk som ikke har onde hensikter, men som forsterker problemet ved ikke å tenke på bieffektene av det de bygger.
Men de vil likevel begynne å jobbe et sted etterpå der arbeidsoppgaven deres er å samle inn mest mulig data.
Ja da.
Og hvis de kan oppfylle et lovverk om «privacy by design» ved å lage noen bokser vi klikker på, hvor langt har vi kommet da?
Det er noen selskaper som begynner å se på andre forretningsmodeller. Noen ser på mikrobetaling for eksempel. Kanskje ser vi en endring snart, men det vil åpenbart avhenge av at brukerne tar i bruk disse nye tjenestene.
Men hvorfor kan vi ikke da like godt forby disse systemmekanismene, som streaks eller autolading av nye poster eller endeløs scrolling eller alt det du lister opp som skadelige designelementer?
Jeg antar jeg ikke vet nok om konsekvensene til å ville være komfortabel med å ville forby spesifikke ting. Men jeg vil si: Har dere tenkt skikkelig gjennom disse tingene dere lager, dere som er i en posisjon der dere bør tenke gjennom det? Disse selskapene betatester alltid med brukerne, de vet trolig mye mer om dette enn det de opplyser om offentlig. Så hva fant dere ut da dere testet, hvilke sikkerhetsvurderinger gjorde dere?
Det finnes kanskje et bruksområde der en streak (premiering av å bruke tjenesten oftest mulig, red anm) er en god ting, selv om jeg sliter med å skjønne hva det skulle være.
13-åringen er et bruksområde, i hvert fall. Selv er jeg helt for forbud når det gjelder streaks. La oss ta enda et eksempel: Du nevner selv i en av artiklene dine studier som viser hvordan man sjelden er mer enn fem steg unna ekstremisme på Youtube, for å si det forenklet: Anbefalingsalgoritmene leder deg mot stadig mer ekstremt innhold for å holde på oppmerksomheten din. Hvordan skal dette lovverket skulle endre måten dette er bygget på?
Her må man se på hva denne algoritmen verdsetter, om klikkeengasjement er et troverdig mål, eller om du kan se på andre mekanismer. Om du for eksempel skulle hatt en form for kategorisering som brukerne selv kan få bestemme hva de skal se, eller om de skal kunne klikke av for at de vil få anbefalt innhold fra troverdige kilder, eller få prioritert innhold fra profesjonelle leverandører med et etisk rammeverk framfor private poster. Også kan det være ulik vekting for ulike grupper.
Men det vil fortsatt være selskapet som bestemmer disse tingene til slutt?
Ja. Men selskapets plikt vil være å si at ja, vi ser at vi har dette problemet, vi mener det ble forsterket av dette og dette, og vi har gjort disse og disse tiltakene for å gjøre noe med det.
Jeg vil gå tilbake til Wolfgang Schultz igjen, og bruke ham som stedfortreder for mine motforestillinger: En av tingene han sa, er at vi ved å lage alle disse reguleringene prøver å løse sosiale problemer gjennom kommunikasjonskontroll. At det finnes ganske mange mennesker som er frustrerte over samfunnet og trenger en måte å få sagt fra på. Vi fjerner ikke denne frustrasjonen ved å fjerne innholdet.
Jeg tror det er et element av sannhet i det. Men da må jeg komme tilbake til poenget mitt om at vi må på dette i en større kontekst: Vi kan ikke bruke ett reguleringssystem for å løse alle problemer i samfunnet, i den forstand er jeg enig med ham.
Så ja, du må se på den mer generelle politikken også. Jeg vet ikke hvor mange sinna folk det var før, men det virker som det er flere av dem nå.
Jeg har også intervjuet Nadine Strossen, som har skrevet en bok om hvordan hat bør bekjempes med ytringer, ikke gjennom lovgivning (intervjuet er ikke publisert ennå, red anm). Hun argumenterer hardt for at slike lover alltid vil ende opp med å ha uheldige konsekvenser, og at det alltid vil finnes nye steder folk kan gå til på nettet dersom de blir stengt ute et sted.
Mitt utgangspunkt er at det er noen ting som er direkte ulovlig å si, å fjerne dem vil bare være å følge opp straffeloven. Men det handler også delvis om å reetablere de forskjellene vi har i verden offline. Vi må ikke alltid høre på alles samtaler, så lenge vi har tilgang når vi trenger det.
Noe av dette handler ikke om hva som sies, men hvem det sies til, og hvem som ser det. Så dette handler også om informasjonsflyt, mer enn det handler om selve innholdet.
La oss gå tilbake til det vi egentlig snakket om til slutt: Den britiske Online Harms-loven. Den er ikke vedtatt ennå, tror du den blir noe av?
Det har vært en spennende tid i politikken i det siste.
Ja, jeg er imponert over at den britiske regjeringen har gjort noe annet enn Brexit de siste par årene.
Ja, jeg har fått fornyet respekt for byråkratene den siste tiden. Nå har vi det mer stabilt i politikken, vi har en regjering med et klart flertalll. Så jeg tror dette blir noe av. Et regjeringsmedlem har sagt det skal komme et fullt høringssvar i løpet av våren, og et lovforslag til høsten. Og det er stor interesse for dette i parlamentet.
Har forslaget støtte fra opposisjonen også?
Ja, sist jeg sjekket, var dette også offisiell politikk for Labour. Og Lord McNally i Overhuset, som har jobbet for å framskynde dette lovverket, er liberaldemokrat.
Dette intervjuet ble som nevnt gjort én uke før koronakrisen. Om det kommer et høringssvar i løpet av våren, er helt i det blå. Men mediene er fulle av saker om desinformasjon og konspirasjonsteorier rundt koronaviruset. Debatten om regulering av sosiale medier er ikke borte, selv om all annen politikk er satt på vent.
Kommentarer