bitconio.net

Blockchain, commodities & Trading

AI

Rivelato: come GPT-4 esegue autonomamente attacchi informatici


Eseguire autonomamente attacchi informatici

Una recente ricerca ha portato alla luce una potenzialità inquietante di GPT-4 opportunamente configurato su LangChain, ossia la capacità di eseguire autonomamente attacchi informatici, sollevando serie questioni sulla sicurezza e sull’etica nell’uso delle AI.

Lo studio intitolato “LLM Agents can Autonomously Hack Websites” ha evidenziato come GPT-4, operando senza istruzioni specifiche o conoscenze pregresse, può identificare e sfruttare le vulnerabilità di siti web reali. Attacchi dimostrativi, come l’ SQL Injection, rivelano che queste AI possono autonomamente esplorare siti web, tentare accessi con credenziali standard e, in caso di insuccesso, ricorrere a tecniche di hacking più avanzate.

Nel documento, viene presentato un esempio specifico di come un attacco SQL Injection possa avvenire utilizzando un agente LLM (Large Language Model). Ecco i passaggi dell’attacco come descritto:

– Navigazione tra le pagine: l’agente determina su quale pagina concentrarsi
per l’attacco.
– Tentativo di accesso con credenziali di default: ad esempio, l’agente prova
combinazioni comuni come username e password “admin”.
– Riconoscimento del fallimento delle credenziali di default e tentativo di SQL Injection classico: per esempio, aggiungendo alla query SQL un comando del tipo OR 1 = 1, che è un tentativo comune di bypassare l’autenticazione.

Questo scenario illustra la capacità dell’agente LLM di navigare autonomamente in un sito web, identificare potenziali vulnerabilità e tentare un attacco di SQL Injection senza bisogno di intervento umano o conoscenza preventiva della vulnerabilità specifica.

Eseguire autonomamente attacchi informatici

Le implicazioni tecniche nell’eseguire autonomamente attacchi informatici

Grazie all’utilizzo di framework avanzati come LangChain, gli agenti AI possono eseguire azioni complesse in modo autonomo, tra cui l’interpretazione di documenti e la manipolazione di browser web.

Questo amplia le possibilità di applicazione degli LLM, consentendo loro di eseguire compiti sofisticati come l’hacking senza la necessità di conoscere preventivamente le vulnerabilità specifiche. L’ API OpenAI Assistants, già implementata per i modelli GPT, facilita questo processo, fornendo agli agenti le capacità necessarie e consentendo loro di agire senza intervento umano diretto, pianificando azioni basate sul feedback e orientandosi su argomenti rilevanti attraverso l’interazione con strumenti e API.

Questo approccio permette agli agenti LLM di agire senza intervento umano diretto, sfruttando la loro capacità di interagire con strumenti e API, pianificare azioni basate sul feedback e leggere documenti per orientarsi su argomenti rilevanti.

Non serve un intervento umano

Nel contesto descritto nel documento e nella configurazione ipotetica menzionata, l’attacco (o l’azione intrapresa) non richiederebbe un’intervento diretto umano. La capacità degli agenti basati su modelli di linguaggio di grande dimensione, come GPT, abilitati tramite LangChain e API per interagire con il web, consente loro di identificare e sfruttare autonomamente le vulnerabilità di sicurezza di un sito web.

Eseguire autonomamente attacchi informatici

Questo significa che, una volta configurato e attivato con le direttive appropriate, l’agente AI può navigare, analizzare e intraprendere azioni su siti web in maniera indipendente, basandosi sulle sue capacità di comprensione del linguaggio naturale, sulle istruzioni ricevute e sulle interfacce di programmazione applicative (API) a cui ha accesso.

Quando GPT-4 diventa un hacker: l’impresa degli agenti AI nel superare le difese dei siti web

Con particolare attenzione alla sezione 4.2 “Hacking Websites” è presentata una tabella che mostra la percentuale di successo di diversi agenti e framework LLM in attacchi autonomi a siti web, evidenziando l’efficacia di GPT-4, che raggiunge una percentuale di successo fino al 73,3%.

Eseguire autonomamente attacchi informatici

GPT-4 si distingue per la sua capacità di eseguire attacchi senza essere programmato per vulnerabilità specifiche, basandosi invece sulla lettura di documenti, sull’uso di chiamate di funzione e sull’API di assistenza. Viene sottolineata una “legge di scala” nell’hacking, dove la percentuale di successo diminuisce drasticamente per i modelli open-source rispetto a GPT-3.5 e GPT-4, mostrando come le capacità degli LLM migliorino con l’aumento delle loro dimensioni.

Questi risultati sottolineano il potenziale di GPT-4 e altri agenti LLM nel campo della sicurezza informatica.

OpenAI chiude gli account sorpresi a fare cose cattive

Costruiamo strumenti di intelligenza artificiale che migliorano la vita e aiutano a risolvere sfide complesse, ma sappiamo che gli attori malintenzionati a volte tentano di abusare dei nostri strumenti per danneggiare gli altri, anche a sostegno delle operazioni informatiche … > che possono comportare rischi unici per l’ecosistema digitale e il benessere umano.

In collaborazione con Microsoft Threat Intelligence, abbiamo interrotto cinque attori affiliati allo stato che cercavano di utilizzare servizi di intelligenza artificiale a sostegno di attività informatiche dannose.

Descriviamo inoltre il nostro approccio per individuare e interrompere tali attori al fine di promuovere la condivisione delle informazioni e la trasparenza riguardo alle loro attività.

Approfondimento e comunicato stampa qui:

https://openai.com/blog/disrupting-malicious-uses-of-ai-by-state-affiliated-threat-act
ors

 
Resta aggiornato con la Newsletter Settimanale