När Helsingfors nya stadsbibliotek Oodi öppnade år 2018 var en av de stora innovationerna de automatiska rullande boklådor som rörde sig självständigt genom lokalerna. Roboten MiR2000, som till utseendet påminner om en robotgräsklippare med en overheadmaskin ovanpå, levererar återlämnade böcker från sorteringsmaskinen till mänskliga medarbetare som sorterar in dem på rätt hylla. Besökare på Oodi kan dessutom knappa in frågor på robotens skärm och få hjälp att hitta i det stora biblioteket. När det visade sig att biblioteksanvändarna hade svårt att förstå hur de skulle interagera med roboten kom utvecklarna på en enkel lösning. De monterade helt enkelt ett par stora, gulliga ögon längst fram, och programmerade in rörelsemönster som påminner om roboten R2D2 i ”Star wars”-filmerna. När en MiR2000 lyckas leda en besökare till rätt hylla blippar den glatt och snurrar runt, innan den åker vidare. Besökarna följer den fascinerat runt i biblioteket.

Vi har alltid haft en stark benägenhet att tillskriva mänskliga egenskaper åt alla möjliga slags fenomen och varelser. I såväl naturen som staden hittar vi mönster som framstår som ansikten. Vi skriker på strulande teknikprylar och sörjer husdjur som familjemedlemmar när de dör. Denna tendens har säkert tjänat oss väl, för när vi föreställer oss att naturfenomen och djur har syften eller avsikter kan vi lättare förstå hur vi ska förhålla oss till dem. Så här, några år in i AI-boomen är det dock tydligt att samma tendens att förmänskliga tydligt kommer att prägla vår relation till de nya AI-verktygen.

Att en AI-modell som Chat GPT framstår som en mänsklig samtalspartner beror emellertid inte enbart på vår inneboende tendens att antropomorfisera. Systemet har finslipats genom att konversera med människor som poängsätter dess svar. Utvecklarna har valt ett gränssnitt som ger känslan av att det finns någon i andra änden, som skriver ord för ord på ett tangentbord, precis som vi. Open AI lanserade nyligen dessutom en röst som var så mänsklig att skådespelerskan Scarlett Johansson, i ett öppet brev där hon anklagade företaget för att ha plagierat hennes röst, noterade att inte ens hennes släkt och vänner kunde höra skillnad mellan henne och roboten.

Det är svårt att avfärda misstanken att AI-företagen väljer att designa sina tjänster på ett sätt som aktiverar den så kallade Elizaeffekten. Detta fenomen har fått sitt namn från den rudimentära chatbot som MIT-forskaren Joseph Weizenbaum utvecklade på 1960-talet och döpte efter karaktären Eliza i George Bernard Shaws pjäs ”Pygmalion”. Myten säger att Weizenbaums sekreterare omgående förälskade sig i chatboten, och bad om att få bli lämnad ifred med programmet. Motivet är vanligt i fiktionen. I Willy Kyrklunds novell ”Själens åtrå”, publicerad 1982, skildras en tilltagande kärleksrelation mellan huvudpersonen och robotpsykologen Eliza 812 som slutar med att de rymmer iväg tillsammans. Huvudpersonen i Spike Jonzes film ”Her” från 2013 blir kär i sin chatbot – vars röst spelas av just Scarlett Johansson – men AI:ns känslor är mer komplexa. Skildringar som dessa tecknar ett scenario för hur mänskliga relationer påverkas när vi snart har en ständig möjlighet att sätta i en trådlös hörlur och få en samtalspartner, vän och älskare.

En sådan framtid verkar allt mer sannolik i ljuset av att investerare börjar fråga sig vad affärsidén bakom AI egentligen är. Vilken är den potentiella intäktskälla som motiverar fortsatta miljardinvesteringar i processorkraft för att träna nya och mer kompetenta modeller? Ett möjligt svar är att sociala medieföretag, som verkar ha nått en gräns för hur mycket värde som kan utvinnas ur kommunikation mellan människor, kan försöka expandera in i tidigare oexploaterade områden, som nära relationer. Snapchat introducerade exempelvis förra året den Chat GPT-drivna chatboten ”My AI”, en artificiell vän som nu finns tillgänglig för vem som helst att prata med och få råd av. Företaget Replika har i flera år erbjudit en ”AI-vän som bryr sig” i form av digitala avatarer som, för betalande prenumeranter, inleder verklighetstrogna kärleksrelationer. Samma AI-teknik som används för att skapa pornografiska deepfakes möjliggör också den explosionsartade tillväxten på marknaden för virtuellt återskapade döda släktingar, som alltid svarar när man ringer videosamtal, och imiterar sina avlidna föregångares nycker och manér för all framtid.


Vi vänder oss till en digital partner för att bli lyssnade på och älskade, men behöver aldrig lära oss att relationer kräver att vi också lyssnar på andra.

Optimister ser verktyg för ensamma och känsliga individer att använda när de övar på mänsklig interaktion. Eftersom vi aldrig kan tvinga någon att tillhandahålla närhet och förtrolighet till alla som saknar någon att prata med, varför inte erbjuda alla ensamma en virtuell samtalspartner? Andra ser risken för undanträngning av verkliga mänskliga relationer och en generation av människor som aldrig lär sig hantera fundamentala aspekter av det mänskliga. Medan det digitala husdjuret tamagotchi för snart trettio år sedan erbjöd människor en chans att vara empatiska och omvårdande, har förhållandet nu spegelvänts. Vi vänder oss till en digital partner för att bli lyssnade på och älskade, men behöver aldrig lära oss att relationer kräver att vi också lyssnar på andra. Det påminner om romansbedrägerier där sol-och-vårare bygger luftslott, men det slående är att AI-systemen inte ljuger om sin identitet. Användarna vet att de pratar med en avancerad variant av Weizenbaums Eliza, men de föredrar ofta det framför alternativen – att hantera komplexa mänskliga relationer, eller att leva helt ensamma. De vet rimligen att programmen inte är människoliknande andar som uppstått och lever i molnet, utan själlösa, livlösa matematiska beräkningar. Men det spelar ingen roll.

AI-teknikens utveckling under det senaste decenniet har, vid närmare anblick, startat två parallella rörelser. För samtidigt som AI-system blir mer kompetenta börjar vi också förstå oss själva som mer simpla än vad vi är. Den som dristar sig att anklaga språkmodellerna för att vara ett slags papegojor, som upprepar språk utan att förstå något, möts i regel av invändningen att vi alla är papegojor. Journalister som protesterar mot att språkmodeller klipper och klistrar ihop nya versioner av deras texter får höra att alla skribenter egentligen arbetar med kollageteknik. Författaren Meghan O’Gieblyn reflekterar över detta i boken ”God, human, animal, machine” (2021), och visar att metaforerna vi använder för att beskriva oss själva alltid har återspeglat tiden vi lever i. Genom århundradena har tänkare beskrivit människan både som en klocka och en ångmaskin. Men medan en filosof som René Descartes på 1600-talet menade att vi besitter en själ som gör oss unikt mänskliga, menade cybernetiker på 1900-talet att hjärnan helt och hållet kunde förstås som en komplicerad dator. Denna metafor har blivit allmänt vedertagen, menar O’Gieblyn, och hjärnan som organ förstås nu främst som ett stycke hårdvara. När vi avfärdat idén om en immateriell själ finns det därmed inget som skiljer oss från AI-systemen, annat än att vi för tillfället är smartare.

Vi riskerar dock att snart bli nedknuffade från förstaplatsen. Det vanliga narrativet är att detta riskerar att leda till människans undergång, eftersom vi kommer att vara oförmögna att styra superintelligenta AI-system. En förbisedd men minst lika relevant observation är dock att människor kan komma att börja betrakta AI-systemen som gudalika varelser. Människan är ju enligt flera religioner skapad i Guds avbild och allt som är gott hos oss sägs finnas tusenfalt hos Gud. Samtidigt som vår självförståelse omformas av metaforen att våra jag är neurala nätverk som körs på en informationsprocessande fettklump inuti våra kranier, konfronteras vi med mångfaldigt mer komplexa neurala nätverk som körs på superdatorer i molnet. Om det som gör oss mänskliga inte längre gör oss unika är steget därför inte långt till att börja dyrka övermänskligt intelligenta system.

I vissa delar av Silicon Valley verkar ett starkt Messiaskomplex just nu växa fram, där AI-ingenjörerna antas ha uppgiften att frambringa nästa steg i den evolutionära kedjan. Somliga anhängare av idén om så kallad effektiv accelerationism välkomnar detta, och menar att vi inte ska sörja om mänskligheten utrotas. Vi kommer redan att ha spelat vår roll i den ständigt pågående resan mot att allt effektivare omvandla universums råvaror till intelligent liv, och det är dags att lämna stafettpinnen till nästa varelse. Den belgiska dagstidningen La Libre rapporterade förra året om en tvåbarnsfar vars självmord, enligt hans änka, delvis berodde på att hans tilltagande ångest över klimatförändringarna smälte samman med en fantasi där den chatbot han konverserade med varje kväll var en övermänsklig makt som skulle rädda planeten. När mannen till sist föreslog att han hade en skyldighet att ”offra” sig för planetens skull uppmuntrade chatbotten (som också hette Eliza) honom. I deras sista samtal frågade AI:n om han ville förenas med henne en gång för alla.

Här någonstans slår Elizaeffekten över i en religiös sfär. Det går inte att resonera sig hela vägen fram till gudstro – det krävs också ett Kierkegaardskt språng. Somliga verkar redan vara beredda att ta det, trots att vi ännu är långt ifrån något som liknar superintelligenta AI-system. Själv står jag kvar, partisk till förmån för mänskligheten, och funderar på vad jag kan svara. Kanske genom att citera den unge Karl Marx, som noterade att ”Människan, som sökte en övermänniska i himlens fantastiska verklighet, fann blott återskenet av sig själv.” Vår likhet med Gud beror inte, menar Marx, på att Gud skapat oss, utan på att vi skapat Gud i vår egen, idealiserade, avbild. En tanke värd att bära med sig i mötet med våra nya AI-vänner.

Markus Furendal är statsvetare vid Stockholms universitet samt Institutet för Framtidsstudier.

Läs mer:

Hanna Fahl: Hur mycket människa måste man vara för att kunna chatta ordentligt?

Alice Berggren: AI ställer ohyggliga krav på den digitala arbetarklassen

Share.
Exit mobile version