L'uso criminale di ChatGPT: un ammonimento sui grandi modelli linguistici

 


27 MARZO 2023

In risposta alla crescente attenzione del pubblico rivolta a ChatGPT, l'Europol Innovation Lab ha organizzato una serie di workshop con esperti in materia provenienti da tutta Europol per esplorare come i criminali possono abusare di modelli linguistici di grandi dimensioni (LLM) come ChatGPT, nonché come può aiutare investigatori nel loro lavoro quotidiano.

Le loro intuizioni sono raccolte nel primo rapporto Tech Watch Flash di Europol pubblicato oggi. Intitolato " ChatGPT - l'impatto dei modelli linguistici di grandi dimensioni sull'applicazione della legge ", questo documento fornisce una panoramica sul potenziale uso improprio di ChatGPT e offre una prospettiva su ciò che potrebbe ancora accadere. 

Lo scopo di questo rapporto è sensibilizzare sul potenziale uso improprio degli LLM, aprire un dialogo con le aziende di intelligenza artificiale (IA) per aiutarle a costruire migliori tutele e promuovere lo sviluppo di sistemi di intelligenza artificiale sicuri e affidabili. 


Una versione più lunga e più approfondita di questo rapporto è stata prodotta solo per le forze dell'ordine. 

Cosa sono i grandi modelli linguistici? 

Un modello di linguaggio di grandi dimensioni è un tipo di sistema di intelligenza artificiale in grado di elaborare, manipolare e generare testo. 


La formazione di un LLM comporta l'alimentazione di grandi quantità di dati, come libri, articoli e siti Web, in modo che possa apprendere i modelli e le connessioni tra le parole per generare nuovi contenuti. 

ChatGPT è un LLM sviluppato da OpenAI e rilasciato al grande pubblico come parte di un'anteprima di ricerca nel novembre 2022.


L'attuale modello pubblicamente accessibile alla base di ChatGPT è in grado di elaborare e generare testo simile a quello umano in risposta alle richieste dell'utente. Nello specifico, il modello può rispondere a domande su una varietà di argomenti, tradurre testi, impegnarsi in scambi conversazionali ("chat"), generare nuovi contenuti e produrre codice funzionale. 


Il lato oscuro dei Large Language Models

Poiché le capacità di LLM come ChatGPT vengono attivamente migliorate, il potenziale sfruttamento di questi tipi di sistemi di intelligenza artificiale da parte dei criminali fornisce una prospettiva cupa.

Le seguenti tre aree di criminalità sono tra le molte aree di preoccupazione identificate dagli esperti di Europol: 


Frode e ingegneria sociale: la capacità di ChatGPT di redigere testi altamente realistici lo rende uno strumento utile per scopi di phishing. La capacità dei LLM di riprodurre modelli linguistici può essere utilizzata per impersonare lo stile del discorso di individui o gruppi specifici. Questa capacità può essere abusata su larga scala per indurre le potenziali vittime a riporre la loro fiducia nelle mani di attori criminali.


Disinformazione: ChatGPT eccelle nella produzione di testi dal suono autentico a velocità e scala. Ciò rende il modello ideale per scopi di propaganda e disinformazione, in quanto consente agli utenti di generare e diffondere messaggi che riflettono una narrativa specifica con uno sforzo relativamente ridotto.

Crimine informatico: oltre a generare un linguaggio simile a quello umano, ChatGPT è in grado di produrre codice in diversi linguaggi di programmazione. Per un potenziale criminale con scarse conoscenze tecniche, questa è una risorsa inestimabile per produrre codice dannoso.


 Con il progredire della tecnologia e la disponibilità di nuovi modelli, diventerà sempre più importante per le forze dell'ordine rimanere in prima linea in questi sviluppi per anticipare e prevenire gli abusi. 


Leggi qui le raccomandazioni di Europol e le conclusioni complete del rapporto.


***

Avviso importante: il LLM selezionato per essere esaminato nei workshop è stato ChatGPT. ChatGPT è stato scelto perché è l'LLM di più alto profilo e più comunemente utilizzato attualmente disponibile al pubblico. Lo scopo dell'esercizio era osservare il comportamento di un LLM di fronte a casi d'uso penali e delle forze dell'ordine. Ciò aiuterà le forze dell'ordine a capire quali sfide potrebbero porre i modelli di intelligenza artificiale derivativa e generativa.




***




 

Commenti