Indagine a cura di ISACA: solo 4 tecnici su 10 si dichiarano soddisfatti della sicurezza delle implementazioni di intelligenza artificiale presso le proprie organizzazioni

L’indagine Digital Transformation Barometer trova che è necessario accrescere la sicurezza per sfruttare il potenziale positivo dell’intelligenza artificiale e mitigare i rischi di attacchi dolosi

ISACA's 2018 Digital Transformation Barometer looks at companies' digital transformation journeys, including the technologies with the biggest impacts and the positive effect of digitally literate leaders. (Graphic: Business Wire)

SCHAUMBURG, Illinois--()--Nonostante la sempre più diffusa adozione di sistemi di intelligenza artificiale da parte delle aziende, solo il 40 per cento dei rispondenti al secondo sondaggio annuale di ISACA Digital Transformation Barometer ritiene che le loro organizzazioni siano in grado di valutare accuratamente la sicurezza di sistemi basati su intelligenza artificiale e apprendimento automatico.

Ciò assume particolare rilievo se si considerano le potenziali gravi implicazioni di un’intelligenza artificiale addestrata per arrecare danno. I rispondenti al sondaggio hanno identificato il social engineering, contenuti mediatici manipolati e il data poisoning tra i tipi di attacchi dolosi più pericolosi nell’ambito dell’intelligenza artificiale per i prossimi cinque anni.

Il testo originale del presente annuncio, redatto nella lingua di partenza, è la versione ufficiale che fa fede. Le traduzioni sono offerte unicamente per comodità del lettore e devono rinviare al testo in lingua originale, che è l'unico giuridicamente valido.

Contacts

ISACA
Kristen Kessinger, +1.847.660.5512
kkessinger@isaca.org

Contacts

ISACA
Kristen Kessinger, +1.847.660.5512
kkessinger@isaca.org