Detta är en kommenterande text. Skribenten svarar för analys och ställningstaganden i texten.
När bomberna började falla över Venezuelas huvudstad natten mot den 3 januari var det, åtminstone till viss del, planerat med hjälp av artificiell intelligens. Detaljerna är hemliga, men enligt Wall Street Journals källor har USA:s militär använt Claude, en AI-modell som liknar Chat GPT, för att analysera underrättelseinformation, hitta militära mål och för simulationer av strider.
Det hade kunnat bli en fjäder i hatten för Anthropic, företaget bakom Claude, som redan i fjol skrev avtal om leveranser av AI-modeller till Pentagon, värt upp till 200 miljoner dollar. Fler guldkantade kontrakt kunde vänta det företag vars teknik bidrog till spektakulära operationer som den då USA tillfångatog Venezuelas president Nicolás Maduro.
Anthropic skulle också behöva medvinden. Det är visserligen en av de snabbväxande AI-bjässarna, värderat till svindlande 380 miljarder dollar, men har ändå stått lite i skuggan av Open AI och dess Chat GPT.
Men Anthropic valde motsatt väg och fick en mäktig fiende. I ett möte med USA:s försvarsminister Pete Hegseth i slutet av februari beskrev Anthropics vd Dario Amodei riskerna han såg med AI-kontrollerade militära vapensystem, och meddelade att Anthropics regler gäller: AI-modellerna får inte användas för massövervakning av amerikaner eller för att kontrollera autonoma vapensystem, alltså sådana där AI-systemet tar beslut om våldshandlingar – ”mördarrobotar” med ett annat ord.
Därför skulle Anthropic inte ge Pentagon carte blanche att använda Claude i krig.
Pete Hegseth blev rasande. En godhetssignalerande Silicon Valley-sprätt hade satt sin egen fina moral framför den amerikanska militärens möjligheter. Oacceptabelt, dundrade han: ”Amerikas krigsmakt kommer aldrig att hållas gisslan av Big Techs ideologiska nycker.”
Donald Trump var inte mindre arg: ”Vänstergalningarna på Anthropic har begått ett katastrofalt misstag genom att försöka tvinga krigsdepartementet med hårda metoder och få dem att lyda deras användarvillkor i stället för vår konstitution”, skrev han på Truth social.
Sedan deklarerade de att Anthropic nu var svartlistat och skulle ses som en säkerhetsrisk för det amerikanska försvarsdepartementet. Det var ett uppseendeväckande beslut. Aldrig förr hade ett amerikanskt bolag fått en sådan svartlistning – det är något man brukar använda mot utländska leverantörer med skumma, spiondoftande kopplingar till främmande makt.
Men Anthropic stod på sig. Tidigare i veckan stämde företaget försvarsdepartementet för beslutet, som kallades ”utan motstycke och olagligt”.
I sin stämningsansökan beskriver Anthropic svartlistningen som grovt skadlig för företaget. Samtidigt gett det en viss hjältestatus i kretsar som är kritiska till Trumpadministrationens krigföring och oroar sig för AI-styrda vapen. AI som tar kontroll över vapensystem och löper amok är ett klassiskt science fiction-scenario, men också en seriös fråga inom reglering av artificiell intelligens.
En aktör som startades med hög svansföring i etiska frågor är Open AI. Det grundades som ett ideellt forskningslabb för säker, ansvarsfull AI-utveckling. Tanken var att bli en motvikt mot kommersiella och politiska krafter som skulle kunna använda tekniken på ett vårdslöst och farligt sätt.
Sedan dess har Open AI tagit in miljarder från Microsoft, förändrat strukturen i vinstdrivande riktning och blivit den kanske mäktigaste spelaren i de senaste årens AI-race.
Och när Anthropic föll i onåd med Trumpadministrationen var det Open AI som tog chansen. Ett nytt avtal med försvarsdepartementet – som Open AI enligt Trumps vilja väljer att kalla krigsdepartementet – gör Chat GPT-utvecklaren till Pentagons leverantör av AI-modeller.
Enligt Open AI innehåller avtalet förbud liknande de Anthropic krävde, men vd Sam Altman ska också ha sagt inför sina anställda att Open AI inte kommer att kunna påverka hur deras teknik används.
Varför Open AI, men inte Anthropic, skulle ha fått igenom sina krav är i dag en obesvarad fråga.
Klart är att Sam Altmans beslut att sätta sig i Pentagons knä inte är okontroversiellt. Caitlin Kalinowski, robotchef på Open AI, avgick i protest. Kampanjen QuitGPT drogs igång för att få användare att lämna Chat GPT. Hur mycket effekt den har gett är svårt att säga, men en period blev Claude mer nedladdad än Chat GPT, enligt appbutikernas topplistor.
Om Trumps och Hegseths vrede mot Anthropic inte lägger sig så ska dess AI-teknik vara bannlyst från amerikanska försvarssystem. Men att rensa ut och ersätta den lär ta tid. Därför tycks man ha fortsatt använda Claude. Enligt Wall street journal redan timmarna efter svartlistningen, då för att planera attacken mot Iran.
Två stora, militära operationer under Donald Trumps andra mandatperiod har alltså varit understödda av AI-teknik. Det visar hur djupt Pentagon har integrerat sig med artificiell intelligens, men också vilken balansgång det är för AI-bolag som både vill skylta med en sin etik och skicka stora fakturor till militären.
Läs fler texter av Linus Larsson















