Det er en grunnleggende forskjell mellom AI-agenter som handler på vegne av mennesker, og mennesker som handler på vegne av seg selv.
BOSTON: AI-agenter er i ferd med å gjøre sitt inntog, enten vi er klare for det eller ikke. Selv om det er stor usikkerhet knyttet til når AI-modeller vil være i stand til å samhandle autonomt med digitale plattformer, andre AI-verktøy eller til og med mennesker, er det liten tvil om at denne utviklingen vil være transformerende – på godt og vondt.
Fornuften er og bør være følelsenes slave.
Men til tross for alle kommentarene om – og opphaussingen av – «agentisk» AI, er det fortsatt mange store spørsmål knyttet til denne utviklingen som ikke er besvart. Det største av disse spørsmålene er hvilken type AI-agent teknologibransjen ønsker å utvikle.
Ulike modeller vil ha vidt forskjellige konsekvenser. Med en «AI som rådgiver»-tilnærming, vil AI-agenter kunne tilby individuelt tilpassede anbefalinger til menneskelige beslutningstakere, slik at mennesker alltid sitter i førersetet.
Men med en «autonom» AI-modell vil AI-agenter ta styringen på vegne av mennesker. Det er en forskjell som vil ha store og vidtrekkende konsekvenser.
Kan de ikke forbedre beslutningsprosessene ytterligere, spare oss for tid og forhindre feil?
Mennesker tar hundrevis av beslutninger hver dag. Noen av disse beslutningene har store konsekvenser for karrieren, levebrødet og livskvaliteten til de menneskene det gjelder. Mange av disse beslutningene er basert på ufullkommen eller ufullstendig informasjon, og mange avgjørelser er i stor grad basert på følelser, intuisjon, instinkter og innskytelser.
David Hume uttrykte det, som kjent, på denne måten:
«Fornuften er og bør være følelsenes slave».
Mennesker tar kanskje de fleste beslutninger uten systematisk resonnering eller uten å ta hensyn til de fulle implikasjonene ved avgjørelsene som tas. Men som Hume erkjente med «bør»-delen av utsagnet sitt, er ikke dette bare negativt. Det er det som gjør oss til mennesker. Følelser er gjerne uttrykk for ulike formål, og de kan også spille en nøkkelrolle i hvordan vi håndterer en kompleks verden.
Med AI-rådgivere som gir skreddersydd, pålitelig, kontekstrelevant og nyttig informasjon, kan mange viktige beslutninger forbedres, men de menneskelige motivene vil fortsatt være dominerende. Men hva er det som er så ille med autonom AI som tar beslutninger på våre vegne? Kan de ikke forbedre beslutningsprosessene ytterligere, spare oss for tid og forhindre feil?
Det er flere problemer med dette perspektivet. For det første: Det at mennesker er i stand til å ta beslutninger og utføre handlinger basert på disse beslutningene, er avgjørende for menneskelig læring og utvikling. Det å ta beslutninger i seg selv og vurdere hvilke konsekvenser disse beslutningene vil få – selv om innspillene og rådene kommer fra ikke-menneskelige aktører – bekrefter vår egen følelse av handlekraft og formål.
Jo høyere prisen er, desto mer vil selgeren tjene på det i forhold til kjøperen.
Mye av det vi mennesker gjør, handler ikke om å være kalkulerende eller om å samle inn data for å bestemme oss for en best mulig måte å handle på, men snarere om en slags oppdagelsesprosess – noe vi vil oppleve stadig sjeldnere hvis alle beslutninger delegeres til en AI-agent.
Og hvis teknologibransjen først og fremst satser på autonome AI-agenter, vil sannsynligheten for automatisering av flere jobber som utføres av mennesker, øke betraktelig. Men hvis AI hovedsakelig blir et middel til å akselerere automatiseringen, vil ethvert håp om at mange vil ta del i velstandsutviklingen bli knust.
Kanskje viktigst av alt: Det er en grunnleggende forskjell mellom AI-agenter som handler på vegne av mennesker, og mennesker som handler på vegne av seg selv. Mange situasjoner der mennesker samhandler, har både elementer av samarbeid og konflikt. Tenk på en bedrift som forsyner en annen bedrift med en vare eller tjeneste. Hvis denne innsatsfaktoren er tilstrekkelig verdifull for kjøperen, vil en handel mellom de to bedriftene være gjensidig fordelaktig (og vanligvis også til fordel for samfunnet).
Men for at en transaksjon skal finne sted, må prisen på innsatsfaktoren fastsettes gjennom det som nødvendigvis vil være en konfliktfylt prosess. Jo høyere prisen er, desto mer vil selgeren tjene på det i forhold til kjøperen.
Når det skjer, «vinner» begge sjåførene – og begge går til grunne.
Utfallet av slike forhandlinger bestemmes ofte av en kombinasjon av normer (f.eks. oppfatningen av hva som er rettferdig), institusjoner (f.eks. kontrakter som påfører partene kostnader hvis de brytes) og markedskrefter (f.eks. om selgeren har mulighet til å selge til noen andre). Men tenk deg at kjøperen har rykte på seg for å være fullstendig kompromissløs – at kjøperen nekter å akseptere noe annet enn lavest mulig pris.
Hvis det ikke finnes andre kjøpere, kan selgeren bli tvunget til å akseptere den lave prisen den kompromissløse kjøperen er villig til å betale.
Heldigvis er slike kompromissløse holdninger sjeldne i våre daglige transaksjoner, delvis fordi det ikke lønner seg å ha et dårlig rykte og – enda viktigere – fordi de fleste mennesker verken har mot nok til eller ønske om å opptre på en så aggressiv måte. Men tenk deg nå at kjøperen tar i bruk en autonom AI-agent som ikke bryr seg om menneskelig takt og tone og som har ikke-menneskelige nerver av stål.
AI-agenten kan læres opp slik at den alltid vil innta en kompromissløs holdning, og motparten vil ikke ha noe håp om å overtale den til et mer gjensidig fordelaktig utfall. I et alternativt scenario, der AI blir brukt i en rådgivende rolle, kan modellen fortsatt anbefale en kompromissløs holdning, men det er mennesket som til syvende og sist bestemmer fremgangsmåten.
En AI som er opplært til å vinne i «game of chicken», vil aldri svinge unna.
På kort sikt kan bruken av autonome AI-agenter føre til en mer ulik verden, der bare noen bedrifter eller enkeltpersoner har tilgang til svært kapable og uforsonlige AI-modeller. Men selv om alle etter hvert skaffet seg de samme verktøyene, vil det ikke bli noe bedre. Hele samfunnet vil bli utsatt for en slags «utmattelseskrig», i spillteoretisk forstand, der AI-agenter presser enhver konfliktsituasjon til det ytterste.
Slike konfrontasjoner er i seg selv risikable. Som i et spillteoretisk scenario, et såkalt «game of chicken» der to biler akselererer mot hverandre for å se hvem som først vil svinge unna, er det alltid mulig at ingen av partene gir etter. Når det skjer, «vinner» begge sjåførene – og begge går til grunne.
En AI som er opplært til å vinne i «game of chicken», vil aldri svinge unna. Selv om kunstig intelligens kan være en god rådgiver for oss mennesker – ved å gi oss nyttig, pålitelig og relevant informasjon i sanntid – vil en verden med autonome AI-agenter sannsynligvis føre til mange nye problemer, samtidig som mange av de fordelene teknologien kunne ha gitt, blir underminert.
Oversatt av Marius Gustavson
Copyright: Project Syndicate, 2025.
www.project-syndicate.org
Kommentarer