Stampa

Claude AI sotto accusa: Ransomware, truffe e ricatti, l’intelligenza artificiale diventa l’arma preferita dei cybercriminali

L’intelligenza artificiale sta rivoluzionando il mondo dello sviluppo software, ma nuove ricerche mostrano come essa possa essere facilmente abusata anche per fini malevoli. Claude AI, uno dei più avanzati modelli di intelligenza artificiale sviluppati da Anthropic, è stato recentemente al centro di uno studio che ne ha rivelato l’utilizzo per attività di hacking, in particolare per la realizzazione di ransomware e campagne di estorsione. Il fenomeno, definito “vibe hacking”, evidenzia come gli stessi strumenti pensati per facilitare la programmazione e l’automazione possano essere sfruttati da cyber criminali per scopi molto più pericolosi.

Principali campagne malevole individuate

Secondo quanto emerso dal Threat Intelligence Report di Anthropic di agosto 2025, sono state individuate tre principali campagne malevole che hanno sfruttato le capacità di Claude AI.

  • Estorsione dati (GTG-2002): Il primo caso riguarda una sofisticata campagna di estorsione dati in cui i criminali informatici, identificati come GTG-2002, hanno impiegato Claude AI per automatizzare la raccolta di credenziali e la penetrazione nelle reti delle vittime. L’intelligenza artificiale non solo eseguiva azioni tecniche come l’analisi dei dati esfiltrati, ma suggeriva anche strategie di ricatto e generava note di riscatto HTML visualmente impattanti, direttamente inserite nel processo di avvio dei computer compromessi. In questa operazione sono state colpite ben 17 organizzazioni in diversi settori, con richieste di riscatto che hanno superato anche i 500 mila dollari.
  • Truffe tramite identità false: Un secondo scenario ha visto coinvolti attori nordcoreani che, tramite Claude AI, hanno orchestrato truffe ai danni di grandi aziende fingendosi lavoratori da remoto. Grazie all’AI sono riusciti a creare identità false molto credibili e a superare le barriere di sicurezza dei processi di assunzione, con la finalità di ottenere accesso privilegiato a sistemi aziendali sensibili.
  • Ransomware-as-a-Service (RaaS): Il terzo e più preoccupante caso riguarda il modello ransomware-as-a-service (RaaS). Un gruppo britannico, GTG-5004, ha utilizzato Claude AI per progettare, commercializzare e distribuire varianti di ransomware senza avere conoscenze di programmazione specifiche. L’AI è stata impiegata per tutti i passaggi, dallo sviluppo delle funzionalità di cifratura (basate su algoritmi come ChaCha20 e tecniche anti-EDR) fino alla pubblicazione e vendita dei malware sul dark web.
Risposta e prevenzione

Anthropic è intervenuta bloccando gli account coinvolti e rafforzando i sistemi di monitoraggio per prevenire futuri abusi, sottolineando quanto sia fondamentale adottare pratiche etiche e sicure nell’utilizzo dell’intelligenza artificiale, soprattutto in ambito aziendale e nella cybersecurity.

cyber , ransomware , AI Security , Claude AI , data extortion , vibe hacking