Sedan invasionen av Ukraina har blockeringen av ryska RT och Sputnik blivit en symbol för Europas försvar mot desinformation. Men i skuggan av de ryska trollfabrikerna växer en annan, mer tekniskt sofistikerad industri fram. Färska rapporter från 2025 visar hur israeliska påverkansoperationer använder AI för att destabilisera Iran – en verksamhet som hittills har undsluppit samma drakoniska sanktioner som sina ryska motsvarigheter.
I oktober 2025 publicerade det ansedda forskningsinstitutet Citizen Lab vid University of Toronto en rapport som borde ha orsakat ett diplomatiskt jordskalv. Rapporten, med titeln PRISONBREAK, detaljerar hur en koordinerad AI-operation med kopplingar till den israeliska staten systematiskt har försökt elda på upplopp i Iran.
Genom att använda generativa modeller skapades ”syntetiska vittnesmål”: videor på fabricerade polisövergrepp och AI-genererade massprotester som aldrig ägt rum. Syftet var att trigga verkliga reaktioner i ett land där sanningen redan är svårfångad på grund av regimens internetcensur.
Informations-mercenaries från Tel Aviv
Till skillnad från de ofta klumpiga ryska påverkanskampanjerna, är den israeliska modellen djupt integrerad i landets blomstrande tech-sektor. Företag som STOIC och den hemlighetsfulla gruppen Team Jorge har av både Meta och OpenAI identifierats som arkitekter bakom storskalig desinformation.
Dessa är inte ensamma vargar. En granskning av New York Times bekräftade nyligen att det israeliska Departementet för diasporafrågor kanaliserat miljontals dollar till dessa företag för att påverka politiker i USA och Kanada. Metoden? ”Söndra och härska” genom AI-botar som utger sig för att vara svarta rättighetsaktivister eller oroade judiska studenter, i syfte att tysta kritik mot Israels krigföring i Gaza och Libanon.
Dubbelspelet: RT vs. STOIC
Frågan som artikeln måste ställa är obekväm: Varför är rysk desinformation en anledning till total blockering i EU, medan israelisk desinformation kategoriseras som ”strategisk kommunikation”?
När RT (Russia Today) spärrades i Sverige och resten av EU var motiveringen att de utgjorde ett hot mot den allmänna ordningen och säkerheten. Men när israeliska operationer använder ChatGPT för att massproducera islamofobiska narrativ eller fabricera bevis för att påverka beslut i den amerikanska kongressen, möts det sällan av mer än en teknisk rapport från en plattformsägare.
Kritiker menar att vi har skapat en hierarki av lögner. En lögn från en motståndare är krigföring; en lögn från en allierad är en ”påverkansoperation”.
AI som dehumaniseringsverktyg
I den pågående konflikten i Mellanöstern har Israel tagit AI ett steg längre än bara desinformation. System som Lavender och Where’s Daddy? – AI-program som väljer ut bombmål i Gaza med minimal mänsklig översyn – visar på en teknologisk arrogans där algoritmer ges rätten att avgöra liv och död.
När samma logik appliceras på informationsflödet i Iran, ser vi en farlig utveckling:
- Algoritmisk hets: AI används för att hitta de mest polariserande ämnena i det iranska samhället och förstärka dem genom tusentals falska interaktioner.
- Identitetsstöld: AI-genererade ansikten och personligheter stjäl legitimiteten från verkliga iranska dissidenter.
- Liar’s Dividend: Genom att översvämma nätet med AI-falsarier gör man det möjligt för diktaturer som Iran att avfärda all genuin kritik som ”israelisk AI”.
Detta är ett hot mot demokratins infrastruktur
Att använda AI för att ”krydda” en revolution eller tysta politiska motståndare i väst är ett angrepp på själva fundamentet för det fria samtalet. Om vi accepterar Israels användning av dessa verktyg bara för att deras geopolitiska mål råkar sammanfalla med våra, har vi redan förlorat kampen mot desinformation.
Sanningen har inget bäst-före-datum, men i händerna på de israeliska AI-fabrikerna har den blivit en förbrukningsvara som offras på det geopolitiska altaret.
