
Detti âTrumpâ, lâiPhone scrive ârazzistaâ: un bug di Apple solleva interrogativi
ROMA â Un errore di dettatura automatica della nuova intelligenza artificiale di Apple ha scatenato polemiche negli Stati Uniti. Numerosi utenti hanno segnalato che, quando utilizzano la funzione di dettatura per pronunciare âTrumpâ, lâiPhone restituisce il termine ârazzistaâ. Un problema che, sebbene si corregga rapidamente, ha attirato lâattenzione dei media e del pubblico, diventando un tema di discussione accesa.
Un portavoce della compagnia ha dichiarato che lâazienda sta lavorando per risolvere il problema, spiegando che si tratta di una semplice âsovrapposizione foneticaâ tra le due parole. Questa spiegazione, tuttavia, non ha placato le critiche nĂŠ il malcontento tra gli utenti, che vedono il bug come un esempio di come la tecnologia possa erratamente riflettere e amplificare contesti sociali e politici delicati.
Secondo lâesperto di intelligenza artificiale John Burkey, fondatore di Wonderrush.ai ed ex membro del team Siri di Apple, il problema potrebbe essere emerso a seguito di un recente aggiornamento dei server di Apple. Burkey ha sollevato il sospetto che il bug non sia necessariamente collegato ai dati raccolti dallâazienda, suggerendo invece che potrebbe esserci del codice problematico,âinfilato lĂŹ apposta da qualcunoâ.
La situazione non è nuova per Apple. Negli ultimi anni, la compagnia ha affrontato diversi inconvenienti legati ai suoi sistemi di intelligenza artificiale. Solo pochi mesi fa, Apple ha annunciato di dover disattivare la funzionalitĂ di aggregazione e sintesi delle notifiche di notizie, a causa di problematiche interne. Questa non è la prima volta che Siri finisce al centro di una controversia: nel 2018, lâassistente vocale mostrò una foto di nudo dopo la domanda âChi è Donald Trump?â, un evento attribuito a modifiche non autorizzate da parte di editor di Wikipedia.
La crescente oscillazione tra tecnologia e responsabilitĂ sociale pone interrogativi importanti sulla gestione e lo sviluppo dellâintelligenza artificiale. Mentre Apple lavora per correggere il problema, lâepisodio mette in luce le sfide etiche e tecniche che le aziende tecnologiche devono affrontare in un panorama in continua evoluzione. Nellâattesa di una soluzione, il caso rimane emblematico di come un semplice errore di programmazione possa trasformarsi in un tema di ampio dibattito.
La questione è quindi ben lontana dallâessere risolta e la community tech attende con interesse gli sviluppi futuri.