Nonostante se ne parlasse da parecchio e diversi moniti fossero giunti da fonti autorevoli già nel corso del 2023, soltanto nelle ultime ore, per la prima volta, OpenAI ha confermato che la sua Intelligenza artificiale può essere sfruttata illegalmente per facilitare il crimine informatico.
CHATGPT CREA MALWARE?
Per la precisione, OpenAI ha ammesso di aver identificato e bloccato alcuni gruppi criminali che stavano cercando di introdurre ChatGpt al mondo del crimine Web, per la precisione ad attività illecite quali lo sviluppo di malware, la stesura di campagne di disinformazione, l’elusione dei sistemi di sicurezza informatica fino a porre in essere attacchi di spear-phishing.
GRUPPI CINESI E IRANIANI PROVANO AD ARRUOLARE L’AI
Nel suo ultimo rapporto, OpenAI ha rivelato che ChatGpt è stato utilizzato da tre diversi gruppi di criminali, riconducibili alla Cina e all’Iran. Il gruppo cinese “SweetSpecter” ha inviato email di spear-phishing mirate al personale dell’ex startup di Sam Altman al fine di nascondere dei file malevoli all’interno di alcune finte richieste di supporto mediante l’installazione del malware SugarGh0st.
Un altro caso riguarda il gruppo iraniano “CyberAv3ngers”, affiliato ai Guardiani della Rivoluzione Islamica, che ha utilizzato ChatGPT per ottenere credenziali predefinite per PLC, sviluppare script personalizzati e offuscare il codice.
Un altro gruppo iraniano, “Storm-0817”, ha usato l’Ia della software house americana per creare uno scraper (un software che raccoglie dati in massa) per Instagram e tradurre alcuni post di LinkedIn. ChatGpt è anche stato usato per creare malware per Android in grado di rubare dati come contatti, cronologia delle chiamate, file e posizione dell’utente.
CHATGPT REALIZZA MALWARE DA OLTRE UN ANNO?
Ad aprile, Proofpoint aveva segnalato i primi casi di un uso delle Intelligenze artificiali (non solo ChatGpt) per realizzare un malware: il gruppo TA547 si era avvalso dell’aiuto di alcuni algoritmi smart per creare script da usare come parte di un attacco mirato contro gli utenti francesi.
Nel gennaio 2023 Check Point Research aveva avvisato del rischio che ChatGpt fosse già usato per la realizzazione di malware anche di natura complessa.
Check Point aveva anche scoperto tentativi meno sofisticati come tool crittografici in grado di generare chiavi, criptare i file, confrontare gli hash e alcuni script pensati per il dark web in grado di usare API di terze parti per ottenere quotazioni aggiornate di certe crypto. Già allora gli hacker erano perciò riusciti ad aggirare con una certa facilità le precauzioni previste da OpenAI.