Kunstig intelligens har raskt gått fra luftig drøm til konkrete verktøy i hverdagen. Kanskje altfor raskt. Det innebærer stor risiko å gi verdens største selskaper frie tøyler i kappløpet om hvem som skal tjene mest penger på AI.
Hva er den beste måten å utvikle kunstig intelligens på? Det spørsmålet har lenge vært teoretisk, men er nå raskt i ferd med å bli høyst konkret. Vi kan se i sanntid hvordan to helt ulike mekanismer utspiller seg foran øynene våre.
Den ene er kappløpet mellom globale teknologigiganter som startet med lanseringen av det Microsoft-finansierte ChatGPT, og som nå har blitt møtt med lovnader om lanseringer av lignende systemer fra Google og kinesiske Baidu. I dette tilfellet er markedet den mekanismen som driver selskapene til å raskt utvikle teknologi og fatte beslutninger som de kanskje burde – og helst gjerne ville – ventet med.
AI utvikles raskt, og statenes demokratiske institusjoner sliter med å henge med.
Den andre er EUs pågående prosess for å regulere kunstig intelligens, framfor alt gjennom den omfattende lovgivingspakken AI Act og tilhørende standarder som skal regulere AI i henhold til fire risikonivåer: uakseptabel, høy risiko, begrenset og minimal eller ingen risiko. Her er mekanismen politisk, og uttrykkes gjennom lovgiving og andre former for regulering.
I et større perspektiv har markedet hittil vært den klart dominerende mekanismen (riktignok ofte med statlige investeringer og støtte til forskning og selskaper). AI utvikles raskt, og statenes demokratiske institusjoner sliter med å henge med. Dessuten har det vist seg å være svært vanskelig å regulere AI, både juridisk og teknologisk.
Det er også et spørsmål om hvor stor innflytelse enkelte land kan ha, og derfor er det en forhåpning om at en EU-regulering som kommer raskt på plass skal kunne få en normerende effekt på verdensmarkedet. Men det er høyst usikkert om dette er tilfelle.
Eksempelet med ChatGPT illustrerer noen av vanskelighetene – og risikoen.
Systemet er tilgjengelig fra hele verden, og kommer sannsynligvis til å spres raskt når Microsoft implementerer det i sine mange produkter, og dessuten lar andre selskaper gjøre det samme. Lignende spredningseffekter følger sannsynligvis av Googles og Baidus systemer.
Det synes altså å være svært vanskelig til og med for systemets skapere å regulere anvendelse og funksjonsmåte.
I det siste tilfellet kommer det dessuten til ytterligere en utfordring, nemlig den kinesiske regjeringens tydelige ambisjon om å anvende AI-teknologi for undertrykkelse og overvåkning. At de skulle tilpasse seg EU-regler er verken trolig eller nødvendig; hjemmemarkedet i landet er stort nok til at kinesisk AI skal kunne utvikles raskt og i henhold til helt andre regler.
Og risikoen er stor. I Baidus tilfelle er den mest åpenbare at teknologien kan anvendes av den kinesiske staten. Når det gjelder ChatGPT er riskoen at markedskreftene bidrar til å for tidlig og for raskt spre en teknologi som selskapene selv forstår svært lite av og forteller veldig lite om.
Dessuten er teknologien i stadig forandring. ChatGPT kunne ved lanseringen uttrykke seg på menneskelig nivå i skrift, men knapt regne på grunnskolenivå. Denne evnen har blitt betydelig forbedret. I begynnelsen kunne ChatGPT kommunisere (overraskende bra på svensk, men i skrivende stund forteller systemet at det ikke lenger innehar den evnen. Muligens kan den nå, når du leser dette, atter igjen uttrykke seg på svensk.
Etter lanseringen har det også kommet mengder av eksempler på hvordan brukere har lykkes i å «lure» ChatGPT til å gi svar som det først sier at det ikke er i stand til, for eksempel gi en oppskrift på å lage narkotika eller sprengstoff, eller å uttrykke seg rasistisk.
Hvorfor viser ChatGPT denne uforutsette og motsetningsfulle «atferden»? Det vet ingen, og selskapet bak teknologien, OpenAI, er langt mindre åpen med informasjon enn navnet deres antyder. Hvis en spør systemet, svarer det kryptisk at «som en AI-modell opplært av OpenAI er jeg i stadig utvikling og forbedring».
Kanskje bør vi i en periode helt stanse enkelte typer systemer, til vi har forstått dem bedre.
Det synes altså å være svært vanskelig til og med for systemets skapere å regulere anvendelse og funksjonsmåte. Og dermed er det potensielt risikabelt å slippe det løs på markedet. Det samme gjelder formodentlig andre like – eller mer – komplekse systemer med potensielt mer alvorlige konsekvenser som vi ikke kan forutse.
Enkelte forskere har pekt på risikoen med en ukontrollert og altfor rask AI-utvikling. Den amerikanske økonomen og nobelpriskandidaten Daron Acemoglu har advart om at en altfor rask utvikling uten en rekke oppveiende velferds- og arbeidsmarkedsreformer kan forverre ulikheter, uthule demokratiet og føre til økt polarisering.
Den svenske matematikeren og framtidsforskeren Olle Häggström har i lang tid skrevet om de såkalte eksistensielle risikoene med kunstig intelligens, som berører alt fra autonome våpensystemer til overvåkning og en framtid der maskinene kort og godt overtar verden. Han synes heller ikke å være spesielt glad over lanseringen av ChatGPT, selv om han mest synes å se på det som et advarende eksempel på hvor vanskelig det kommer til å bli å kontrollere enda kapable systemer.
Andre debattanter mener at regulering av AI kan hemme teknologisk utvikling og at EU kan havne på etterskudd når USA og Kina kan ta større steg gjennom å være mindre nøye med lovgiving, industristandarder og etiske retningslinjer.
Eksempelet med ChatGPT illustrerer noen av vanskelighetene – og risikoen.
Personlig tror jeg at vi behøver en kombinasjon av marked og regulering, men i dagens situasjon synes det åpenbart at vi i lang tid har hatt for mye av det første og for lite av det andre. Markedsmekanismene motvirker ikke såkalte negative eksterne virkninger i tilstrekkelig grad, de greier ikke å fordele likt de verdiene som teknologien skaper, de hensyntar ikke andre verdier enn de rent økonomiske og de bidrar altfor sjelden til teknologiske løsninger som kommer samfunnet til gode i vid forstand.
Kanskje bør vi i en periode helt stanse enkelte typer systemer, til vi har forstått dem bedre. Det vil trolig kreve både omfattende innsats på kommunikasjonsfronten og demokratisk forankring, for at folk ikke skal betrakte EU som en byråkratisk koloss som gjør det vanskeligere for dem å bruke internett (det var nettopp dette som skjedde med GDPR, en lov som i stor grad er latterliggjort, men som i virkeligheten har veldig mange positive sider).
Det kan virke håpløst, men vi bør ikke undervurdere EUs innflytelse; et marked som består av 500 millioner mennesker med relativt sett skikkelige lønninger er ikke ubetydelig. EUs initiativ har vært en medvirkende årsak til at det rundt om i verden – til og med i USA – nå finnes en rekke eksempler på prosesser for å regulere AI på ulike måter.
Hvis vi skal få mer og bedre AI, trenger vi mer og bedre regulering.
Teksten ble først publisert på dagensarena.se. Oversatt fra svensk.
Kommentarer