De siste 20 årene har store teknologiselskaper isolert oss og splittet samfunnene våre gjennom sosiale medier. Nå fremmer de samme selskapene en radikal ny visjon: å erstatte menneskelig kontakt med «KI-venner».
ZÜRICH: Meta-sjef Mark Zuckerberg og OpenAIs Sam Altman har iherdig fremmet ideen om at alle – inkludert barn – bør danne relasjoner med «KI-venner». (På engelsk: «AI friends» eller «AI companions»). Samtidig fremmer multinasjonale teknologiselskaper ideen om «KI-agenter» som skal hjelpe oss i privat- og yrkeslivet og som skal hjelpe oss med å håndtere rutineoppgaver og veilede oss i beslutningsprosesser.
Men realiteten er at KI-systemer ikke er – og aldri vil bli – venner eller agenter. De er – og vil alltid forbli – maskiner. Det bør vi være ærlige om, og vi bør slå tilbake mot villedende markedsføring som antyder noe annet.
De er ikke i stand til å virkelig forstå, og de er verken objektive, rettferdige eller nøytrale.
Det aller mest villedende begrepet er «kunstig intelligens». Disse systemene er ikke genuint intelligente, og det vi i dag kaller «KI», er rett og slett et sett med tekniske verktøy som er utviklet for å etterligne visse kognitive funksjoner. De er ikke i stand til å virkelig forstå, og de er verken objektive, rettferdige eller nøytrale.
De blir heller ikke smartere. KI-systemer er avhengige av data for å fungere, og i økende grad inkluderer dette data generert av verktøy som ChatGPT. Resultatet er en tilbakekoblingssløyfe som resirkulerer «output» uten å skape dypere forståelse.
Mer grunnleggende handler intelligens ikke bare om å løse oppgaver, men også om hvordan man tilnærmer seg disse oppgavene og hvordan de utføres. Til tross for sine tekniske kapasiteter, er KI-modeller fortsatt begrenset til spesifikke arbeidsområder, for eksempel behandling av store datasett, logiske slutninger og beregninger.
Maskinen «bryr seg ikke». Den følger bare instruksjoner.
Når det gjelder sosial intelligens, kan maskiner kun simulere følelser, interaksjoner og relasjoner. En medisinsk robot kan for eksempel programmeres til å gråte når en pasient gråter, men ingen vil hevde at den føler ekte sorg. Den samme roboten kan like gjerne programmeres til å daske til pasienten, og den vil utføre denne kommandoen med samme presisjon – og med samme mangel på autentisitet og selvbevissthet. Maskinen «bryr seg ikke». Den følger bare instruksjoner. Og uansett hvor avanserte slike systemer blir, kommer ikke dette til å endre seg.
Enkelt sagt mangler maskiner evnen til å ta etiske beslutninger, og de kan heller ikke holdes ansvarlige for sine handlinger. Deres atferd styres av mønstre og regler skapt av mennesker, mens menneskets moral er forankret i autonomi – evnen til å gjenkjenne etiske normer og oppføre seg deretter. KI-systemer er derimot designet for funksjonalitet og optimalisering. De kan tilpasse seg gjennom selvlæring, men reglene de genererer, har ingen iboende etisk betydning.
Mennesker kan samhandle med dem, men kommunikasjonen er utelukkende enveis.
Tenk på selvkjørende biler. For å komme seg fra punkt A til punkt B så raskt som mulig, kan et selvkjørende kjøretøy utvikle regler for å optimalisere reisetiden. Hvis det å kjøre over fotgjengere bidrar til å nå dette målet, vil bilen kanskje gjøre det, med mindre den får beskjed om å la være, fordi den ikke kan forstå de moralske implikasjonene av å skade mennesker.
Dette skyldes delvis at maskiner ikke er i stand til å forstå prinsippet om generaliserbarhet – ideen om at en handling bare er etisk hvis den kan begrunnes ut fra en universell regel. Moralsk dømmekraft avhenger av evnen til å gi en plausibel begrunnelse som andre med rimelighet kan akseptere. Det er dette vi ofte omtaler som «gode grunner». I motsetning til maskiner er mennesker i stand til å foreta generaliserbare moralske resonnementer og kan derfor bedømme om handlingene deres er riktige eller gale.
Begrepet «databaserte systemer» (DS) er derfor mer passende enn «kunstig intelligens», ettersom det gjenspeiler hva kunstig intelligens faktisk kan gjøre: generere, samle inn, behandle og evaluere data for å gjøre observasjoner og prediksjoner. Det tydeliggjør også styrkene og begrensningene ved dagens fremvoksende teknologi.
Nå fremmer de samme selskapene en radikal ny visjon: å erstatte menneskelig kontakt med «KI-venner».
I bunn og grunn er dette systemer som bruker svært sofistikerte matematiske prosesser til å analysere store datamengder – ikke noe mer. Mennesker kan samhandle med dem, men kommunikasjonen er utelukkende enveis. DS har ingen bevissthet om hva de «gjør» eller hva som skjer rundt dem.
Dette betyr ikke at DS ikke kan være til nytte for menneskeheten eller planeten. Tvert imot, vi kan og bør stole på dem på områder der deres evner overgår våre egne. Men vi må også aktivt håndtere og redusere risikoen – de etiske farene – knyttet til bruken av dem. Å utvikle menneskerettighetsbaserte DS og opprette et internasjonalt overvåkningsorgan for databaserte systemer (IDA) i regi av FN vil være viktige første skritt i den retningen.
I løpet av de siste 20 årene, har store teknologiselskaper isolert oss og splittet samfunnene våre gjennom sosiale medier – som mer presist kan beskrives som «antisosiale medier» med tanke på hvor avhengighetsskapende og skadelige de er. Nå fremmer de samme selskapene en radikal ny visjon: å erstatte menneskelig kontakt med «KI-venner».
Risikoen knyttet til databaserte systemer (DS) er ikke teoretisk.
Samtidig fortsetter disse selskapene å ignorere det såkalte «black box-problemet»: den manglende sporbarheten, forutsigbarheten og åpenheten i de algoritmiske prosessene som ligger bak automatiserte evalueringer, prediksjoner og beslutninger. Denne mangelen på transparens, kombinert med den høye sannsynligheten for partiske og diskriminerende algoritmer, fører uunngåelig til partiske og diskriminerende resultater.
Risikoen knyttet til databaserte systemer (DS) er ikke teoretisk. Disse systemene påvirker allerede våre private og profesjonelle liv på stadig mer skadelige måter og manipulerer oss økonomisk og politisk samtidig som teknologigründere og -bedriftsledere oppfordrer oss til å la DS-verktøyene styre beslutningene våre. For å beskytte vår egen frihet og verdighet, samt friheten og verdigheten til fremtidige generasjoner, må vi ikke tillate at maskiner utgir seg for å være det de ikke er: oss.
Oversatt av Marius Gustavson
Copyright: Project Syndicate, 2025.
Kommentarer