Detta är en kommenterande text. Skribenten svarar för analys och ställningstaganden i texten.
I George Orwells dystopiklassiker 1984 har den totalitära staten framtvingat en egen variant av engelskan som kallas för nyspråk. Genom att förenkla språkets struktur och begränsa dess vokabulär försöker man begränsa individens möjlighet till kritiskt tänkande och fri vilja; går det inte att sätta ord på orättvisorna kan inget motstånd blomstra.
För visst finns det en kraft i språket, och när olika uttryckssätt och tankemönster möts uppstår det som kallas för kognitiv mångfald. Något som ofta lyfts som en framgångsfaktor när vi ska jobba i grupp och lösa problem eller komma på nya banbrytande idéer.
Men vad händer med denna diversitet när allt fler vänder sig till samma källa för att få hjälp att uttrycka sig? Vissa hävdar att vårt språk – och i förlängningen våra tankar – på grund av AI-boomen står inför en artificiell omstöpning som kan få stora konsekvenser.
De stora AI-modellerna som Claude, Chat GPT och Gemini är upplärda på enorma datamängder, de har insupit stora delar av mänsklighetens samlade kunskapsbank. Tankar som tänkts i våra analoga små hjärnor, förts ned på pränt och sedan uppgått i ett hive mind av sammanlänkade kiselkretsar i ständigt svällande datacenter.
Så vad händer när vi själva länkar upp oss mot denna (dessutom stundvis hallucinerande) kunskapsbank via chatbottarna?
Resultatet kan bli en likriktning med illavarslande påföljder, varnar tre AI-forskare i en opinionsartikel i den vetenskapliga tidskriften Trends in cognitive science.
De storskaliga språkmodellerna har en tendens att harmonisera hur vi uttrycker oss. Texter som redigerats eller genererats med AI bär ofta något slags svårpreciserad vattenstämpel, den med ett tränat öga kan nästan känna de artificiella fingeravtrycken. Det talas om en omstöpning av språket som exempelvis uppmärksammats i essän Why does AI write like… that som publicerade The New York Times i vintras.
Den här slätstrykningen av språket går, enligt forskarnas resonemang, bortom det rent estetiska. Det kan sätta helt nya normer för vad som är ett trovärdigt språk.
– Oron gäller inte bara att stora språkmodeller påverkar hur människor skriver eller pratar, utan att de subtilt omdefinierar vad som räknas som ett trovärdigt sätt att tala, ett korrekt synsätt eller ett sunt resonemang, säger doktoranden Zhivar Sourati, medförfattare till artikeln, i ett uttalande.
Forskarna skriver att diversitet ofta driver innovation. Men när chatbottarna raderar våra individuella infallsvinklar, tankesätt och språkliga grepp till förmån för ett slags homogeniserad AI-lingo försvinner mångfalden. I grunden är de storskaliga språkmodellerna ett slags statistiskmodeller som helst genererar det (baserat på dess träningsdata) mest sannolika svaret – vilket inte nödvändigtvis är det mest nytänkande.
Artikeln beskriver det som en paradoxal situation; å ena sidan får vi kraftfulla verktyg som kan stötta oss i vår tankeverksamhet, å andra sidan kan de ta död på den kreativitet som uppstår när olika tankemönster möts. Vetenskapligt kommer det att ta tid att utröna vad som är fallet.
Ett exempel som kan peka på likriktning är en artikel som publicerades i den vetenskapliga tidskriften Nature tidigare i år. Efter att ha analysera 41 miljoner vetenskapliga artiklar kunde man där visa att forskare som anammat AI gjorde större individuella framsteg, men att de bidrog mindre till det kollektiva forskningssamfundet. Det verkar finnas en tendens att dessa AI-drivna framgångar sker inom ett relativt snävt fält.
– Om vi alla klättrar uppför samma berg, då finns det många fält som aldrig utforskas, säger universitetslektorn Fengli Xu, en av artikelns medförfattare, i en intervju med Science.
Läs mer:
Linus Larsson: AI-bolaget sade nej till ”mördarrobotar” – blev Trumps hatobjekt
Patrik Lundberg: Vem skrev egentligen den här texten?
”Under en halvtimme löste AI:n det jag försökt under hela min karriär”














