Preiscriviti ora al corso Ethical Hacker! Scopri di più

Claude AI sotto accusa: Oltre 100 identità false create per manipolare i social media globali
- Redazione
- News
- Visite: 46
L’intelligenza artificiale è diventata un potente strumento anche per chi opera nell’ombra delle campagne di influenza globale. Recentemente, l’azienda Anthropic ha individuato un sofisticato schema in cui il suo chatbot Claude AI è stato sfruttato da attori malevoli per gestire più di 100 identità politiche false sulle principali piattaforme social come Facebook e X. Queste identità non erano semplici bot, ma una vera e propria rete di account politicamente schierati che interagivano con decine di migliaia di utenti reali.
L’operazione, ora interrotta, puntava non tanto sulla viralità ma sulla persistenza e sulla costruzione di una presenza credibile e duratura. Le narrazioni promosse variavano a seconda del pubblico: per esempio, veniva rafforzata l’immagine degli Emirati Arabi Uniti come ambiente favorevole agli affari e criticati i regolamenti europei, mentre per l’Europa si insisteva su temi legati alla sicurezza energetica e per l’Iran su questioni di identità culturale.
Un aspetto innovativo di questa campagna è che Claude AI veniva utilizzato non solo per generare contenuti, ma anche per decidere in modo autonomo quando e come gli account bot dovessero commentare, mettere like o condividere post di utenti autentici, orchestrando così un coinvolgimento su misura per ogni situazione politica. L’intelligenza artificiale modulava le risposte in base alla lingua e allo stile dei personaggi, e persino generava input per strumenti di creazione di immagini, aumentando la credibilità delle identità digitali.
La struttura tecnica dell’operazione si basava su un sistema JSON molto organizzato per la gestione delle identità, garantendo coerenza e continuità tra le diverse piattaforme e permettendo di tracciare e aggiornare facilmente la storia e le attività di ogni persona fittizia. In questo modo, era possibile scalare la campagna e affinare le strategie di coinvolgimento, simulando comportamenti umani reali.
Parallelamente, Anthropic ha segnalato altri usi dannosi di Claude, come campagne di scraping di credenziali e la generazione di script per attacchi brute force o pratiche fraudolente di reclutamento lavorativo, oltre allo sviluppo di malware avanzati anche da parte di attori poco esperti. Questo dimostra come l’IA possa abbattere le barriere tecniche e accelerare la sofisticazione delle minacce digitali.
L’episodio sottolinea l’urgenza di sviluppare nuovi strumenti e regole per individuare e contrastare le operazioni di influenza basate sull’intelligenza artificiale, poiché la facilità d’uso di questi strumenti rischia di rendere sempre più comuni casi simili in futuro.