
Israele sviluppa un avanzato sistema di intelligenza artificiale per il monitoraggio dei palestinesi
ROMA – In un’inquietante evoluzione delle tecniche di spionaggio, Israele ha creato un sofisticato strumento di intelligenza artificiale simile a ChatGPT, dedicato esclusivamente all’analisi delle comunicazioni intercettate tra i palestinesi. Secondo un’inchiesta condotta dal Guardian in collaborazione con +972 Magazine e Local Call, l’UnitĂ 8200, il corpo di intelligence militare israeliano, ha approfittato di una vasta raccolta di trascrizioni di conversazioni informali per addestrare questo nuovo modello.
Lo sviluppo di questo strumento è stato accelerato dopo il conflitto nella Striscia di Gaza scoppiato nell’ottobre 2023. L’obbiettivo è raccogliere enormi quantitĂ di dati, descritti da un ex tecnico dell’intelligence come "quantitĂ psicotiche". Questo modello, che elabora un dataset di circa 100 miliardi di parole, è progettato per comprendere l’arabo parlato e per rispondere a domande relative a individui sotto monitoraggio.
Rischi di errore e pregiudizio
Nonostante le potenzialità , l’utilizzo di sistemi di intelligenza artificiale nell’ambito dell’intelligence comporta significativi rischi. Esperti e attivisti avvertono che tali strumenti possono amplificare pregiudizi esistenti e generare errori fatali. I modelli di AI tendono a "allucinare", concludendo a volte in modo errato, con conseguenze che potrebbero rivelarsi devastanti. Un esempio drammatico è rappresentato da un attacco aereo avvenuto a novembre 2023, dove l’IA potrebbe aver avuto un ruolo nella selezione di un obiettivo, causando la morte di quattro persone, inclusi tre adolescenti.
Le Forze di Difesa Israeliane hanno evitato di commentare specificamente il caso, affermando solo di far uso di “vari metodi di intelligence” per contrastare attività terroristiche.
Un salto qualitativo nell’analisi
Questo nuovo modello di intelligenza artificiale rappresenta un significativo avanzamento rispetto a precedenti iniziative come The Gospel e Lavender, giĂ utilizzate in operazioni militari in Gaza. Con la capacitĂ di analizzare una grande mole di dati e identificare schemi che spesso sfuggono all’attenzione umana, l’UnitĂ 8200 mira a migliorare notevolmente le proprie capacitĂ di monitoraggio.
Tuttavia, la progettazione del chatbot non è stata esente da sfide. I modelli preesistenti in arabo erano orientati all’arabo scritto formale, non adattandosi alla lingua parlata. La soluzione è stata riunire ogni trascrizione di comunicazioni informali mai raccolta dall’Unità 8200, integrando così gli aspetti dialettali e la terminologia militare utilizzata dai gruppi armati.
Comparazioni internazionali
Fonti legate al progetto hanno confermato che tra i dati utilizzati per addestrare il sistema ci sono anche comunicazioni quotidiane, che, pur non avendo un valore strategico immediato, sono state considerate fondamentali per migliorare la comprensione linguistica del modello. Israele, purtroppo, non è l’unico paese a sviluppare tali tecnologie; anche la CIA e i servizi segreti britannici stanno esplorando l’uso di modelli linguistici per l’analisi delle informazioni open source.
Tuttavia, secondo esperti di intelligence occidentali, Israele sembra disposto a prendere rischi maggiori rispetto ai suoi alleati, adottando pratiche di spionaggio che sarebbero inaccettabili in nazioni con regolamentazioni piĂą severi. La corretta gestione di tali sistemi e l’attenzione alle implicazioni etiche rimangono fondamentali, in un contesto in cui la tecnologia si intreccia sempre piĂą con la sicurezza nazionale e i diritti umani.