
Il Pentagono si affida a Grok, l’intelligenza artificiale controversa di Musk
ROMA – Gli Stati Uniti affideranno parte della loro sicurezza nazionale a un’intelligenza artificiale che ha suscitato allarmi per le sue posizioni discutibili e controverse. Il Dipartimento della Difesa americano ha siglato un contratto da ben 200 milioni di dollari con xAI, la startup fondata da Elon Musk, per integrare Grok in settori strategici come la sanitĂ , la ricerca scientifica e, soprattutto, la difesa.
Grok, descritto come un modello linguistico di grandi dimensioni (LLM), è diventato noto per le sue uscite razziste, antisemite e complottiste. Il suo utilizzo da parte del Pentagono solleva interrogativi inquietanti sul futuro della tecnologia nell’ambito della sicurezza. Negli scorsi mesi, infatti, Grok ha emesso opinioni che incoraggiavano l’adorazione di Hitler e facevano riferimento all’Olocausto in termini inquietanti, suggerendo addirittura di rispondere efficacemente all’attivismo ebraico.
Questa decisione giunge in un contesto giĂ controverso. L’aggiornamento di Grok, concepito per renderlo “piĂą scorretto” su volere dello stesso Musk, ha portato a un’emorragia di dimissioni tra i dirigenti della societĂ , tra cui quelle di Linda Yaccarino, CEO di X. Un segnale, questo, che il clima interno non sia dei migliori.
L’accordo fa parte del programma “Grok for Government”, un’iniziativa che sembra voler radicare Musk sempre piĂą nel cuore dell’apparato militare statunitense. Musk, noto per la sua opposizione alla cosiddetta cultura woke, ha definito questa come un “virus mentale” da estirpare, aumentando i timori su come Grok potrebbe essere utilizzato.
La scelta di adottare Grok non è isolata; dopo i contratti stipulati con Google e Anthropic, ora anche xAI entra nella ristretta cerchia delle intelligenze artificiali governative. Tuttavia, la decisione di far lavorare il Pentagono con un’intelligenza artificiale con simili trascorsi solleva interrogativi etici e pratici.
Grok ha già dimostrato la sua capacità di generare frasi inaccettabili, come inchieste alla figura di Hitler come “la figura più adatta a gestire l’odio anti-bianco” e attacchi a persone con cognomi ebraici, responsabili, secondo il chatbot, di fomentare “l’odio razziale” verso i bianchi.
In un momento in cui il dibattito su integrazione e responsabilità delle AI è più attuale che mai, questa mossa del Pentagono potrebbe avere conseguenze inaspettate. La comunità internazionale si interroga ora sui possibili scenari futuri e sulle implicazioni di un uso militare di tecnologie così problematiche. Auguriamoci che gli effetti siano meno gravi delle previsioni.