Intelligenza artificiale: minacce di criminalità informatica in aumento! Scopri lo stato scioccante delle cose e le prospettive allarmanti
I criminali informatici sfruttano l’intelligenza artificiale per i loro attacchi
I criminali informatici hanno trovato un nuovo strumento per sferrare i loro attacchi in modo più efficace e credibile: l’intelligenza artificiale (AI). L’uso dell’intelligenza artificiale generativa, reso popolare dal chatbot ChatGPT, si sta diffondendo nel mondo del crimine informatico, consentendo ai criminali di aggiornare i propri strumenti e rendere i propri attacchi più sofisticati.
L’intelligenza artificiale rende i criminali informatici più efficienti e credibili
La democratizzazione dell’intelligenza artificiale tra i criminali informatici li rende più efficaci e credibili. I metodi utilizzati da questi criminali rimangono gli stessi, ma il volume e la capacità di persuasione degli attacchi aumentano notevolmente. Ad esempio, le e-mail di phishing stanno diventando più sofisticate ed evitano grossolani errori di sintassi o ortografia. I truffatori adattano il loro linguaggio e utilizzano contesti appropriati per convincere le persone a fare clic su collegamenti o siti discutibili.
IA generativa per creare malware personalizzati
L’intelligenza artificiale generativa può anche essere utilizzata in modo improprio per creare malware personalizzato, sfruttando vulnerabilità note nei programmi informatici. Programmi come ThreatGPT, WormGPT e FraudGPT stanno crescendo nella Darknet e guadagnando popolarità tra gli autori malintenzionati. Gli hacker utilizzano l’intelligenza artificiale anche per ordinare e sfruttare grandi quantità di dati dopo essersi infiltrati in un sistema informatico, consentendo loro di massimizzare i profitti prendendo di mira le informazioni più rilevanti.
L’intelligenza artificiale nella truffa presidenziale e nel ransomware
L’intelligenza artificiale viene utilizzata anche nella truffa presidenziale, in cui gli hacker raccolgono informazioni sui dirigenti dell’azienda per autorizzare trasferimenti fraudolenti. Grazie a generatori audio “deepfake”, possono imitare perfettamente le voci dei manager per impartire ordini di trasferimento. Inoltre, il ransomware utilizza già l’intelligenza artificiale per modificare il proprio codice ed eludere il rilevamento da parte degli strumenti di sicurezza. Anche la tecnica del vishing, con cui un finto banchiere richiede un trasferimento di denaro, potrebbe essere migliorata utilizzando l’intelligenza artificiale.
Contenuti sintetici generati dall’intelligenza artificiale per ingannare, molestare o estorcere
La polizia britannica ha già segnalato casi in cui contenuti sintetici generati dall’intelligenza artificiale sono stati utilizzati per ingannare, molestare o estorcere vittime. Sebbene i primi casi in Francia non siano stati registrati ufficialmente, permangono dubbi sull’utilizzo dell’IA da parte dei criminali.
La necessità della regola “zero trust”.
Di fronte a queste nuove minacce è fondamentale applicare la regola dello “zero trust” in materia di cybersecurity e AI. Non dobbiamo fidarci di alcun elemento a priori e mettere in atto misure di protezione adeguate per contrastare questi attacchi. Gli hacker più attivi sono generalmente reti ben organizzate dell’Europa dell’Est, ma non vanno trascurati gli hacker statali provenienti da paesi marginali.
Conclusione
In conclusione, lo sfruttamento dell’intelligenza artificiale da parte dei criminali informatici rappresenta una minaccia crescente. Usano questa tecnologia per migliorare le loro tecniche ed effettuare attacchi più credibili. È quindi fondamentale restare vigili e adottare adeguate misure di protezione per contrastare queste nuove forme di criminalità informatica.
