
Cybersicurezza: l’Intelligenza Artificiale Generativa come Sfida e Opportunità
ROMA – Nell’ambito dell’innovazione tecnologica, l’autorevole voce di Marco Molinaro, responsabile Cybersecurity di Accenture per Italia, Centro Europa e Grecia, ha affermato che l’Intelligenza Artificiale Generativa è la tecnologia emergente con il maggior potenziale. Queste parole sono state pronunciate durante la V edizione dell’Innovation Cybersecurity Summit, un evento dedicato alla sicurezza informatica che ha radunato esperti del settore presso l’Aula Magna dell’Università degli Studi Guglielmo Marconi a Roma.
“Ogni volta che una tecnologia di frontiera emerge in modo dirompente, i domini della sicurezza cibernetica sono tenuti a dimostrare e a mantenere una sorta di strabismo”, ha sottolineato Molinaro. Questo dualismo rappresenta una sfida: da un lato, occorre proteggere la nuova tecnologia, dall’altro è necessario sfruttarla per difendere infrastrutture critiche e il patrimonio informativo delle organizzazioni.
Secondo Molinaro, l’addestramento dei modelli di Intelligenza Artificiale Generativa è fondamentale. Egli ha dichiarato che i dati utilizzati in questa fase devono essere “coerenti e consistenti” per prevenire il rischio di “aberrazioni” e “allucinazioni”. La qualità dei dati è cruciale per garantire che i modelli non diventino veicoli di pregiudizio e disinformazione.
L’attuazione dei controlli su questi modelli non può essere trascurata. Molinaro ha raccomandato che, una volta che i modelli di IA sono in uso, sia necessario implementare filtri di validazione dell’input e validare le risposte generate. Questo approccio è essenziale per assicurare che le risposte non provochino danni ai sistemi di controllo industriale e al patrimonio informativo.
Parlando dell’addestramento, Molinaro ha spiegato che questo processo avviene in diverse fasi, note come “epoche”, in cui i modelli acquisiscono conoscenze attraverso l’analisi di enormi quantità di dati. Si tratta di un compito complesso, che richiede risorse significative in termini di tempo e capacità computazionale.
Infine, il dottor Molinaro ha delineato l’importanza di partire da modelli aperti già pre-addestrati. Questo consente alle aziende di recuperare un divario di sovranità tecnologica, poiché le risorse richieste per sviluppare un modello da zero sono ingenti.
Concludendo, Molinaro ha affermato che, una volta personalizzato, un modello di IA diventa la proprietà intellettuale di chi lo ha configurato, sottolineando l’importanza della responsabilità nel trattamento e nell’uso dei dati.
Le dichiarazioni di Marco Molinaro evidenziano come la cybersecurity debba adattarsi e rispondere proattivamente ai cambiamenti portati dall’Intelligenza Artificiale Generativa, affrontando le sfide che essa presenta e sfruttando le opportunità che può offrire.