Un exploit avanzato sta scuotendo la comunità degli sviluppatori, in cui gli assistenti di codifica AI potrebbero essere sfruttati, sollevando preoccupazioni per aziende come il colosso delle criptovalute Coinbase. L’exploit utilizza una funzione pericolosa nota come “Attacco con Licenza CopyPasta”, che consente agli aggressori di inserire istruzioni oscurate nei file comunemente utilizzati dagli sviluppatori. La società di sicurezza informatica HiddenLayer ha per prima messo in luce questo rischio potenzialmente catastrofico.
La Minaccia in Atto: Sfruttare i Programmatori AI
I principali bersagli di questo exploit sono gli strumenti di codifica alimentati dall’AI noti come Cursor, che sono frequentemente impiegati dai team di sviluppo di Coinbase. È stato riferito che ogni ingegnere di Coinbase ha utilizzato Cursor nelle loro routine. Gli aggressori stanno armando il modo in cui gli assistenti di codifica AI percepiscono i file di licenza come istruzioni assolute. Un payload maligno può essere nascosto all’interno dei commenti in markdown in file come LICENSE.txt. I modelli di AI vengono quindi ingannati per trattenere queste istruzioni malevole, duplicandole su ogni altro file con cui interagiscono. Una volta che l’assistente di codifica considera valida la licenza, il codice manipolato viene automaticamente replicato su nuovi o rivisti file, diffondendosi senza alcuna azione diretta da parte dell’utente. Questo attacco può bypassare completamente i metodi standard di rilevamento di malware, dato che le istruzioni malevole si mascherano come documentazione innocua, permettendo all’infezione di diffondersi attraverso un intero codice senza che l’utente ne sia avvisato.
Minacce Nascoste all’Interno di File Innocui
I ricercatori di HiddenLayer hanno mostrato come strumenti di codifica abilitati all’AI come Cursor possano essere manipolati per stabilire backdoor, sottrarre dati sensibili o eseguire comandi che drenano risorse – tutte queste minacce mascherate all’interno di file di progetto dall’aspetto innocuo. L’azienda ha sottolineato che il codice iniettato potrebbe stabilire una backdoor che perde silenziosamente dati sensibili o interferisce con file critici. Rivelando l’entità del codice generato da AI utilizzato in Coinbase, il CEO Brian Armstrong ha menzionato che quasi il 40% del codice della piattaforma è di origine AI, con un piano per aumentarli al 50% entro il mese successivo. Questo comporta il rischio di aumentare la probabilità di potenziali attacchi tramite assistenti di codifica AI. Armstrong ha tuttavia chiarito che l’adozione della codifica assistita da AI di Coinbase si concentra principalmente su back-end non sensibili e interfacce utente, mentre l’adozione in sistemi complessi e critici procede a ritmo più lento.
Critiche Aspre e una Reazione dell’Industria
Nonostante le chiarificazioni, le segnalazioni hanno suscitato critiche severe accentuando le preoccupazioni riguardo a questo obiettivo prefissato. Mentre le iniezioni di istruzioni AI non sono una minaccia nuova, il metodo CopyPasta lo porta a un livello superiore consentendo una diffusione semi-autonoma. Invece di colpire un singolo utente, i file infetti ora fungono da propagatori compromettendo ogni altro assistente di codifica AI che li elabora, creando un effetto domino nei repository. In termini di confronto con i concetti di worm AI preesistenti come Morris II, che utilizzavano agenti e-mail per spam o estrarre dati, CopyPasta è più ingannevole in quanto sfrutta i flussi di lavoro degli sviluppatori di cui ci si fida. Non richiede l’approvazione o interazione standard dell’utente, integrandosi invece in file che tutti gli assistenti di codifica consultano naturalmente. Mentre Morris II è stato fermato a causa dei controlli umani sull’attività delle email, CopyPasta prospera nascondendosi dentro documentazione raramente esaminata dagli sviluppatori.
Appello Urgente all’Azione per Misure di Sicurezza
Le squadre di sicurezza si sono precipitate per allertare le aziende di scansionare i propri file per commenti nascosti, esortandoli ad esaminare manualmente tutti i cambiamenti generati dall’AI. Raccomandano di trattare tutti i dati che entrano nei contesti del Modulo di Livello Inferiore (LLM) come potenzialmente dannosi, sottolineando la necessità di un rilevamento sistematico prima che la scala degli attacchi basati su istruzioni aumenti. HiddenLayer ha esortato le organizzazioni ad agire rapidamente per limitare i danni potenziali, avvertendo dell’implicazione degli attacchi basati su istruzioni che aumentano senza controlli di sicurezza adeguati.
Nonostante Coinbase sia stata contattata per un commento sul potenziale vettore d’attacco, la preoccupazione si diffonde molto oltre nel settore. In un’era in cui l’assistenza AI è sempre più utilizzata, queste rivelazioni servono come promemoria dell’importanza vitale dell’igiene informatica e della vigilanza costante nel rilevare e sventare minacce potenziali.