Chatbotene vil komme godt overens med alle slags ideologier, fra «woke»-folk til «MAGA»-nasjonalister
(Ljubljana): Det er ikke noe nytt at «chatbots» kan holde en samtale på menneskelig språk, forstå hva en bruker grunnleggende vil ha og gi svar basert på forhåndsbestemte regler og data. Men kapasiteten til slike chatteroboter har økt kraftig de siste månedene, noe som har skapt uro og panikk i mange miljøer.
Mye har blitt sagt om hvordan chatboter vil bety slutten på de tradisjonelle oppgavene og innleveringene på skole og universitet. Men et problem som man bør se nærmere på, er hvordan chatboter bør svare når menneskelige samtalepartnere kommer med aggressive, kjønnsdiskriminerende eller rasistiske kommentarer for å få boten til å svare med sine egne slibrige fantasier. Bør kunstig intelligens programmeres til å svare på samme måte som spørsmålet som blir stilt?
Hvis vi først bestemmer oss for at en form for regulering er på sin plass, må vi bestemme oss for hvor langt vi bør gå med sensuren. Vil politiske synspunkter som enkelte grupper anser som «støtende» forbys? Hva om man uttrykker solidaritet med palestinere på Vestbredden? Eller hva om man hevder at Israel er en apartheidstat? (Dette var et begrep som USAs tidligere president Jimmy Carter brukte i tittelen på en bok.) Vil disse ytringene bli blokkert fordi de anses som «antisemittiske»?
Forholdet mellom språk og tanker er svært komplisert.
Og ikke nok med det. Som kunstner og forfatter James Bridle advarer om: Den nye kunstige intelligensen er «basert på masseappropriasjon av eksisterende kultur». Og troen på at den «faktisk er kunnskapsrik eller meningsfull er virkelig farlig».
Vi bør derfor også være på vakt mot bilder skapt av kunstig intelligens (med dagens nye teknologi). Som Bridle påpeker: Når kunstig intelligens forsøker «å forstå og reprodusere hele menneskehetens visuelle kultur», virker det som om den «har gjenskapt det vi også er mest redd for. Dette er muligens kun et tegn på at disse systemene virkelig er veldig gode til å etterape menneskelig bevissthet, helt ned til den skrekken som skjuler seg i dypet av vår eksistens: frykten vår for skitt, død og fordervelse.»
Men hvor god er egentlig ny kunstig intelligens til å tilnærme seg menneskelig bevissthet? Tenk på baren som nylig annonserte et drikketilbud på følgende måte: «Kjøp en øl for prisen av to og motta øl nummer to helt gratis!» For mennesker er dette åpenbart en vits. Det klassiske «kjøp en, få en»-tilbudet er omformulert slik at de to delene av utsagnet opphever hverandre. Det er et uttrykk for kynisme som vil bli oppfattet og satt pris på som en komisk form for ærlighet — og det for å øke salget. Vil en chatbot få med seg noe av dette?
Problemet er ikke at chatboter er dumme; det er at de ikke er «dumme» nok.
Ordet «fuck» fører til et lignende problem. Selv om det viser til noe som folk flest liker å gjøre (samleie), blir det også ofte gitt en negativ betydning («We’re fucked!» «Go fuck yourself!»). Språk og virkelighet kan være vanskelig å håndtere. Er kunstig intelligens rede til å skille mellom slike forskjeller?
I sitt essay fra 1805, «On the gradual formation of thoughts in the process of speech» (som først ble publisert posthumt i 1878), snur den tyske poeten Heinrich von Kleist opp ned på den gjengse oppfatningen om at man ikke bør åpne munnen og si noe med mindre man har en klar idé om hva man skal si: «Hvis derfor en tanke blir uttrykt på en uklar måte, følger det slett ikke av dette at denne tanken var tenkt ut på en forvirret måte. Tvert imot: Det er fullt mulig at ideene som blir uttrykt på en svært forvirrende måte, er de som ble tenkt ut på en klarest måte.»
Forholdet mellom språk og tanker er svært komplisert. I et utdrag fra en av Stalins taler, som han holdt tidlig på 1930-tallet, legger han fram forslag til radikale tiltak for å «oppdage og bekjempe uten nåde de som motsetter seg kollektivisering selv bare i sine tanker … Ja, jeg mener dette, vi bør bekjempe selv menneskers tanker». Man kan trygt anta at denne uttalelsen ikke var tenkt ut på forhånd. Etter å ha blitt grepet av situasjonen, ble Stalin umiddelbart klar over hva han nettopp hadde sagt. Men i stedet for å gå tilbake på det han hadde sagt, bestemte han seg for å holde fast ved sin overdrevne uttalelse.
Faren er at virkelige mennesker som kommuniserer med chatbots etter hvert vil snakke som chatbots
Som Jacques Lacan senere uttrykte det: Dette var et tilfelle der sannheten kom til syne ved at noen overraskende formulerte seg klart. Louis Althusser identifiserte et tilsvarende fenomen i samspillet mellom «prise» og «surprise». Noen som plutselig begriper en idé («prise») vil bli overrasket («surprise») over hva hun har fått til. Men kan en chatbot gjøre dette?
Problemet er ikke at chatboter er dumme; det er at de ikke er «dumme» nok. Det er ikke at de er naive (og dermed går glipp av ironi og refleksivitet); det er at de ikke er naive nok (og ikke får med seg klarsyn forkledd som naivitet).
Den virkelige faren er derfor ikke at mennesker vil forveksle en chatbot med en virkelig person. Faren er at virkelige mennesker som kommuniserer med chatbots etter hvert vil snakke som chatbots — og dermed gå glipp av alle nyansene og all ironien. Man vil dermed tvangsmessig kun si nøyaktig det man tror man ønsker å si.
I mine yngre dager hadde jeg en venn som oppsøkte en psykoanalytiker for å få behandling etter en traumatisk opplevelse. Denne vennens forestilling om hva slike behandlere forventer av sine pasienter var en klisjé, så han brukte den første timen på å gi fra seg falske «frie assosiasjoner» om hvordan han hatet faren sin og ønsket at faren var død.
Psykoanalytikerens reaksjon var genial: Han inntok en naiv «før-freudiansk» holdning og klandret vennen min for ikke å respektere sin far. («Hvordan kan du snakke slik om personen som gjorde deg til den du er?») Denne falske naiviteten sendte en klar beskjed: Jeg kjøper ikke dine falske «assosiasjoner». Ville en chatbot ha vært i stand til å plukke opp denne underteksten?
Mest sannsynlig ikke. Dette ligner på Rowan Williams’ fortolkning av fyrst Mysjkin i Dostojevskijs Idioten. Ifølge standard fortolkning er den helgenaktige «idioten» Mysjkin utvilsomt et godt menneske som blir drevet til isolasjon og galskap av harde brutaliteter og følelser i den virkelige verden. Men i Williams’ radikale omfortolkning, representerer Mysjkin et stormsenter: Han er muligens god og from, men han er den som utløser kaoset og døden han er vitne til, som følge av hans rolle i det komplekse nettverket av relasjoner rundt ham.
Det er ikke bare at Mysjkin er en naiv tulling. Det er at hans form for dumhet gjør at han ikke er klar over hvilken katastrofal virkning han har på andre. Han er en flat person som bokstavelig talt snakker som en chatbot. Hans «godhet» består i at han, i likhet med en chatbot, reagerer på utfordringer uten ironi. Han kommer med banale bemerkninger ribbet for enhver form for refleksivitet. Han tar alt i bokstavelig mening. Og han baserer seg på en mental autofullfør-funksjon framfor en autentisk idé-formasjon.
Av den grunn vil de nye chatbotene komme godt overens med alle slags ideologier, fra dagens «woke»-folk til «MAGA»-nasjonalister som foretrekker å gå rundt i søvne.
Oversatt av Marius Gustavson
Slavoj Žižek er professor i filosofi ved European Graduate School og er internasjonal direktør ved Birkbeck Institute for the Humanities på University of London. Han har skrevet flere bøker. Den siste er Heaven in Disorder (OR Books, 2021).
Copyright: Project Syndicate, 2023.
www.project-syndicate.org
Kommentarer