Iscriviti ora al Webinar di presentazione del corso Ethical Hacker! Scopri di più
Iscriviti ora al Webinar di presentazione del corso CISO! Scopri di più
L’intelligenza artificiale sta rivoluzionando il mondo dello sviluppo software, ma nuove ricerche mostrano come essa possa essere facilmente abusata anche per fini malevoli. Claude AI, uno dei più avanzati modelli di intelligenza artificiale sviluppati da Anthropic, è stato recentemente al centro di uno studio che ne ha rivelato l’utilizzo per attività di hacking, in particolare per la realizzazione di ransomware e campagne di estorsione. Il fenomeno, definito “vibe hacking”, evidenzia come gli stessi strumenti pensati per facilitare la programmazione e l’automazione possano essere sfruttati da cyber criminali per scopi molto più pericolosi.
Secondo quanto emerso dal Threat Intelligence Report di Anthropic di agosto 2025, sono state individuate tre principali campagne malevole che hanno sfruttato le capacità di Claude AI.
Anthropic è intervenuta bloccando gli account coinvolti e rafforzando i sistemi di monitoraggio per prevenire futuri abusi, sottolineando quanto sia fondamentale adottare pratiche etiche e sicure nell’utilizzo dell’intelligenza artificiale, soprattutto in ambito aziendale e nella cybersecurity.
Utilizziamo i cookie sul nostro sito Web. Alcuni di essi sono essenziali per il funzionamento del sito, mentre altri ci aiutano a migliorare questo sito e l'esperienza dell'utente (cookie di tracciamento). Puoi decidere tu stesso se consentire o meno i cookie. Ti preghiamo di notare che se li rifiuti, potresti non essere in grado di utilizzare tutte le funzionalità del sito.