-

Intelligenza artificiale: le politiche sono scarse, il suo utilizzo è elevato e gli avversari se ne approfittano, secondo un nuovo studio sull'IA

SCHAUMBURG, Ill.--(BUSINESS WIRE)--Una nuova indagine sui professionisti globali della fiducia digitale rivela un livello elevato di incertezza per quanto riguarda l'intelligenza artificiale (IA) generativa, oltre alla scarsità di politiche aziendali in materia, alla mancanza di formazione e ai timori che attori malintenzionati possano trarne profitto, secondo Generative AI 2023: An ISACA Pulse Poll (IA generativa 2023: un pulse poll a cura dell'ISACA).

I professionisti della fiducia digitale di tutto il mondo, impegnati in segmenti quali cibersicurezza, audit IT, governance, privacy e rischio, sono stati intervistati sull'IA generativa, l'intelligenza artificiale in grado di creare testo, immagini e altri media, nel quadro di un nuovo pulse poll a cura dell'ISACA imperniato sull'utilizzo da parte dei dipendenti, la formazione, l'attenzione all'implementazione etica, la gestione del rischio, lo sfruttamento da parte di malintenzionati e l'impatto sui posti di lavoro.

Il testo originale del presente annuncio, redatto nella lingua di partenza, è la versione ufficiale che fa fede. Le traduzioni sono offerte unicamente per comodità del lettore e devono rinviare al testo in lingua originale, che è l'unico giuridicamente valido.

Contacts

communications@isaca.org
Emily Ayala, +1.847.385.7223
Bridget Drufke, +1.847.660.5554

ISACA



Contacts

communications@isaca.org
Emily Ayala, +1.847.385.7223
Bridget Drufke, +1.847.660.5554

More News From ISACA

Riassunto: Da una nuova ricerca ISACA emerge che le minacce informatiche guidate dall'IA rappresentano il principale problema per i professionisti di cybersecurity per il 2026

LONDRA--(BUSINESS WIRE)--Stando a una nuova ricerca ISACA, oltre la metà (51%) dei professionisti nei settori IT e di cybersecurity in Europa teme che le minacce informatiche guidate dall'IA e i deepfake costituiranno un importante problema nel corso del prossimo anno. Ciò che alimenta questa preoccupazione è la mancanza di preparazione ai rischi legati all'intelligenza artificiale in tutto il settore. Solo il 14% degli intervistati ritiene che la propria organizzazione sia molto preparata a ge...

Riassunto: L'utilizzo dell'IA supera in velocità politiche e governance, secondo uno studio ISACA

LONDRA--(BUSINESS WIRE)--Quasi tre su quattro professionisti europei del settore informatico e della cybersicurezza affermano che il personale utilizza già l'intelligenza artificiale generativa al lavoro (un aumento di dieci punti in un anno), ma solo meno di un terzo delle aziende ha predisposto politiche formali a riguardo, secondo un nuovo studio ISACA. L'uso dell'IA sta diventando più prevalente nei luoghi di lavoro, pertanto regolamentarne l'utilizzo è una buona pratica. Eppure, nemmeno un...

Riassunto: La rapida ascesa del calcolo quantistico è un rischio per la sicurezza informatica e la stabilità aziendale – ma le organizzazioni sono impreparate

LONDRA--(BUSINESS WIRE)--Il calcolo quantistico ha un potenziale rivoluzionario; si prevede che cambi la vita così come la conosciamo. Ampiamente accolto dal 56% dei professionisti del cyber e dell'IT, il calcolo quantistico è considerato una potenziale fonte di opportunità per le aziende. È quanto emerge da un nuovo studio condotto da ISACA, l'associazione professionale leader mondiale che aiuta individui e organizzazioni nella ricerca della fiducia digitale. Il testo originale del presente an...
Back to Newsroom