Detta är en huvudledare skriven av medarbetare på Dagens Nyheters ledarredaktion. DN:s politiska hållning är oberoende liberal.
Tänk dig att det sprids ett videoklipp där en partiledare säger att den vill ”förgöra” Sverige. Ett annat där samma person verkar försvara gängkriminella. Ditt förtroende skulle troligen sättas på spel. Men tänk om det du såg inte var äkta – utan ett smutskastningsförsök?
Det var precis som vad hände inför EU-valet 2024, då så kallade ”deepfakes” av S-ledaren Magdalena Andersson delades på sociala medier. Materialet var skapat och delat av Sverigedemokraternas kommunikationsavdelning, som TV4 avslöjade.
Partiet försvarade sig med att det var satir, och kvaliteten var inte högre än att ett vaksamt öga kunde se att det var falskt. Men händelsen är en förvarning om vad som komma skall.
2024 menade OpenAI, företaget bakom Chat GPT och videogeneratorn Sora, att de stoppat påverkansoperationer mot Rwanda, USA, Indien, Ghana och Europeiska unionen. I tyska valet 2025 upptäcktes att Ryssland använde OpenAI för att sprida budskap som var positiva till extremhögerpartiet AFD.
Det här gäller både för slöskrollande privatpersoner och seriösa journalister.
Och videoklipp genererade av AI-verktyg har nu passerat en tröskel där det ofta är svårt att märka att det man ser inte är verkligt. Det här gäller både för slöskrollande privatpersoner och seriösa journalister: I slutet av 2025 råkade SVT:s ”Agenda” använda ett AI-klipp som om det föreställde verklighetens USA.
Många AI-filmer visar mindre farliga saker som fabricerade, söta djur eller snygga kvinnor som försöker sälja värdelösa produkter. Men material som exempelvis sprider falska budskap från politiker, krigsscener från Ukraina eller gängkonflikter i svenska förorter är att vänta i allt högre grad.
En demokrati behöver en offentlig debatt som utgår från politisk konsensus om verklighetens beskaffenhet för att fungera. Den basplattan stresstestas nu.
EU försöker sedan förra året kräva att AI-material ska märkas, men det kommer inte stoppa påverkansförsök från främmande makter som Iran och Ryssland. Ett annat tillvägagångssätt är att ställa hårdare krav på sociala medier. När Washington Post i höstas laddade upp videoklipp från Sora märkte bara en av åtta sociala medieplattformar att det var AI-material. Men varje dag laddas miljontals klipp upp på valfri plattform, och att stoppa falska klipp ett och ett är som att hugga huvuden av en hydra.
En perfekt reglering kommer vara svår att få till nu när anden är ur flaskan – men vi måste ta hotet på allvar.
Kanske lämnas vi till slut med förhoppningen om att användare kommer migrera bort från algoritmstyrda medier som fylls av en aldrig sinande mängd datorskapade videoklipp och påverkansmaterial, och gå över till något mer pålitligt.
Läs mer:
DN:s ledarredaktion: Klart Sverige ska samarbeta med Macron om kärnvapen – men uteslut inte egna
Annika Ström Melin: Bomberna i Teheran får Europas ledare att framstå ängsligare än på länge
















