Le truffe, la pornografia deepfake e i bot romantici: l’intelligenza artificiale avanzata è eccitante, ma incredibilmente pericolosa nelle mani dei criminali… Per questo l’UE sta approntando la prima legge nel mondo sull’IA.
Più sviluppo, più crimini informatici
L’industria dell’intelligenza artificiale generativa avrà un valore di circa 22 trilioni di dollari entro il 2030, secondo il CSIRO (cioè il Commonwealth Scientific and Industrial Research Organization di Canberra, Australia).
Questi sistemi – tra cui ChatGPT è attualmente il più noto – possono scrivere saggi e codice, generare musica e opere d’arte o intrattenere conversazioni articolate. Ma cosa succede quando vengono utilizzati per scopi illegali?
Nelle scorse settimane, la comunità degli streamer è stata scossa da un titolo che rimandava all’abuso dell’intelligenza artificiale generativa. Un popolare streamer di Twitch, Atrioc, ha pubblicato un video di scuse, con gli occhi pieni di lacrime, dopo essere stato scoperto a guardare pornografia con i volti sovrapposti di altre streamer donne. Peraltro una “moda” in rapida diffusione anche in Italia e tra i minori (Bikini Off, FakeYou, Midjourney…).
Più in generale, la tecnologia “deepfake” necessaria per photoshoppare la testa di una celebrità sul corpo di un attore porno esiste da tempo, ma i recenti progressi l’hanno resa molto più difficile da individuare.
Parliamo solo la punta dell’iceberg. Nelle mani sbagliate, l’intelligenza artificiale generativa potrebbe causare danni inimmaginabili. Abbiamo molto da perdere se le leggi e le regolamentazioni non riescono a stare al passo.
Dalla polemica al crimine
Il mese scorso, l’app di intelligenza artificiale generativa Lensa è stata al centro delle critiche per aver permesso al suo sistema di creare immagini completamente nude e iper-sessualizzate a partire dai primi piani degli utenti. In modo controverso, l’app ha anche schiarito la pelle delle donne di colore e reso le loro caratteristiche più europee.
La reazione è stata immediata. Ma ciò che si è relativamente trascurato è stato di focalizzare l’enorme potenziale che deriva dall’utilizzare l’intelligenza artificiale generativa artistica nelle truffe.
All’estremità più lontana dello spettro, ci sono segnalazioni di numerosi strumenti in grado di falsificare impronte digitali e scansioni facciali (che poi è il metodo che la maggior parte di noi utilizza per bloccare i nostri telefoni). Ed ovviamente i criminali stanno rapidamente scoprendo nuovi modi per utilizzare l’intelligenza artificiale generativa per migliorare le frodi che già perpetrano.
L’attrattività dell’intelligenza artificiale generativa per le truffe deriva poi dalla sua capacità di trovare innumerevoli e validi schemi di cui avvalersi in grandi quantità di dati (i famosi big data, per capirci meglio).
Gli esperti di cybersecurity hanno registrato un aumento considerevole di “bad bots”: programmi automatizzati malevoli che imitano il comportamento umano per commettere crimini. L’intelligenza artificiale generativa li renderà ancora più sofisticati e difficili da rilevare.
La leva dell’urgenza
Avete mai ricevuto un messaggio truffaldino dall’ufficio postale che avvisa che hai un pacco in attesa? O una email del talaltro corriere che dice che i tuoi dati sono incompleti per completare una consegna? Magari hai sentito parlare di chiamate in cui si sostiene che c’è un mandato di arresto o un grave incidente: quante truffe agli anziani per informarli che i loro figli erano nei guai e che sarebbe bastato fare questo o quello?
In queste truffe, l’intelligenza artificiale generativa potrebbe essere utilizzata per migliorare la qualità dei messaggi o delle email, rendendoli molto più credibili. Ad esempio, negli ultimi anni abbiamo visto sistemi di intelligenza artificiale utilizzati per impersonare figure importanti in attacchi di “voice spoofing“.
Le vulnerabilità sono innumerevoli
Poi ci sono le truffe sentimentali, in cui i criminali si spacciano per teneri corteggiatori e chiedono ai loro obiettivi denaro per aiutarli a uscire da situazioni di difficoltà finanziaria. Queste truffe sono già piuttosto diffuse e spesso redditizie. Addestrare l’intelligenza artificiale sui messaggi reali tra partner potrebbe aiutare a creare un chatbot truffatore indistinguibile da un essere umano.
L’intelligenza artificiale generativa potrebbe anche permettere ai criminali informatici di prendere di mira in modo più selettivo le persone vulnerabili. Ad esempio, addestrare un sistema sulle informazioni rubate alle grandi aziende – come nel caso degli attacchi informatici a Inps, Regione Lazio o Medibank degli ultimi tempi -, potrebbe aiutare i criminali a prendere di mira gli anziani, le persone con disabilità o le persone in difficoltà finanziarie. E non solo per impiantare cryptolocker, ma per fare una ‘spesa selettiva’ e gratuita di dati sensibili da riutilizzare successivamente.
Inoltre, questi sistemi possono essere utilizzati per migliorare il codice dei computer, il che – secondo alcuni esperti di cybersecurity – renderà il malware e i virus più facili da creare e più difficili da rilevare per i sistemi di sicurezza.
L’intelligenza artificiale generativa potrebbe quindi contribuire a rendere gli attacchi informatici più efficaci e pericolosi, mettendo a rischio la sicurezza degli individui così come quella di aziende e governi.
È fondamentale che le leggi, le regolamentazioni e le misure di sicurezza si adattino rapidamente all’evoluzione del panorama delle minacce legate all’intelligenza artificiale generativa. La collaborazione tra governi, esperti di cybersecurity e aziende del settore sarà cruciale per garantire che questa tecnologia emergente venga utilizzata in modo responsabile e sicuro, e per proteggere le persone e le organizzazioni dalle sue potenziali implicazioni negative.
La tecnologia è qui e noi non siamo pronti
Per esempio, i governi dell’Australia e della Nuova Zelanda hanno pubblicato quadri di riferimento relativi all’IA, ma non si tratta ancora di regole vincolanti. Le leggi di entrambi i Paesi riguardanti la privacy, la trasparenza e la libertà dalla discriminazione non sono all’altezza del compito, per quanto riguarda l’impatto dell’IA.
Gli Stati Uniti hanno attuato una legislazione sull’Iniziativa Nazionale sull’Intelligenza Artificiale dal 2021. Inoltre, dal 2019 è illegale in California che un bot interagisca con gli utenti per scopi commerciali o elettorali senza rivelare di non essere umano.
Anche l’Unione Europea è ben avviata nell’emanare la prima legge mondiale sull’IA. L’AI Act vieta alcuni tipi di programmi di IA che presentano un “rischio inaccettabile”, come quelli utilizzati dal sistema di credito sociale cinese e impone restrizioni obbligatorie sui sistemi “ad alto rischio”.
In Italia invece, il Garante della privacy si sta concentrando sul trattamento dei dati ed il loro trasferimento negli USA. Aspetto sicuramente importante, ma che non è esattamente il succo del problema (del resto, quid autem vides festucam in oculo fratris tui trabem autem quæ in oculo tuo est non consideras).
Sebbene chiedere a ChatGPT di infrangere la legge comporti avvertimenti del tipo “pianificare o compiere un crimine grave può portare a gravi conseguenze legali”, il fatto è che non esiste alcun obbligo per questi sistemi di avere un “codice morale” programmato in essi. Potrebbe non esserci limite a ciò che può essere chiesto di fare, e i criminali probabilmente troveranno soluzioni alternative per eludere eventuali regole volte a prevenire un uso illegale.
I governi devono quindi lavorare a stretto contatto con l’industria della cybersecurity per regolamentare l’IA generativa senza soffocare l’innovazione, ad esempio richiedendo considerazioni etiche per i programmi di IA.
Una possibile soluzione potrebbe venire dall’impiego di blockchain, anzi la blockchain sembra essere proprio l’ambiente ideale di mitigazione dei rischi per il modello dell’intelligenza artificiale. La loro interazione porterà a grossi cambiamenti in termini di controllo e di sicurezza. Naturalmente se si svilupperanno metodologie di validazione dei dati.
Va anche detto che, come utenti, dobbiamo essere più cauti nel credere a ciò che vediamo online e ricordare che gli esseri umani sono tradizionalmente pessimi nel rilevare le frodi.
E voi?
Man mano che i criminali aggiungono strumenti di intelligenza artificiale generativa al loro arsenale, individuare le truffe diventerà sempre più difficile. I consigli classici restano comunque validi, ma oltre a questi, impareremo molto valutando i modi in cui questi strumenti mostrano ‘carenze’.
L’intelligenza artificiale generativa è carente nel ragionamento critico e nella trasmissione delle emozioni. Può persino essere ingannata e indotta a fornire risposte sbagliate. Capire quando e perché ciò accade può aiutarci a sviluppare metodi efficaci per catturare i criminali informatici che utilizzano l’IA per compiere estorsioni ed altri reati.
Dopodiché è divenuto non più rinviabile adottare ed implementare regole che vanno definite non solo con l’aiuto di ingegneri ma anche di scienziati sociali, esperti di etica e filosofi. Sono ovviamente comprensibili le necessità commerciali di sviluppare rapidamente sistemi sempre più nuovi, ma non a scapito della sicurezza che deriva dalla previsione di comportamenti anomali, distonici e quant’altro ponga in essere un qualsiasi rischio per gli esseri umani,
Nel frattempo, sono in fase di sviluppo strumenti per rilevare le produzioni di IA da tool come ChatGPT. Se si rivelassero efficaci, ciò potrebbero contribuire significativamente a prevenire il crimine informatico basato sull’intelligenza artificiale. Ci si deve lavorare di pari passo con lo sviluppo dell’IA