Page 38 - MK_6-2023
P. 38
le. La facilità di reperimento dello strumento e la conseguente rapidità di azione di “Tasting the Water” sta producendo un numero incredibil- mente alto di sperimentazioni svolte a vario titolo all’interno delle azien- de. La consapevolezza dello stru- mento cresce e induce spesso a con- clusioni parziali e affrettate sia nella sovrastima del campo di utilizzo che nei suoi limiti intriseci.
Per partire dai limiti in una recente survey3 rivolta a un cospicuo gruppo di C-Level gli intervistati evidenziano tre principali ostacoli all’implemen- tazione dell’intelligenza artificiale generativa:
• Sicurezza informatica (53%): ov- vero sfruttare i modelli di intel- ligenza artificiale generativa per creare contenuti dannosi o ingan- nevoli.
• Privacy (51%): la preoccupazio- ne di raccogliere e utilizzare dati personali in modo improprio.
• Precisione (47%): soffrire la po- tenziale imprecisione dei modelli di intelligenza artificiale genera- tiva, che potrebbe portare a risul- tati errati o fuorvianti.
Inoltre, 4 intervistati su 5 vedono al- meno uno di questi problemi come una preoccupazione importante:
• Spiegabilità: le decisioni pre-
se dall’intelligenza artificiale generativa non possono essere facilmente spiegate. Ciò può rendere difficile per le persone comprendere come sono state prese le decisioni e fidarsi dei ri- sultati.
• Etica: la sicurezza e l’etica dell’in- telligenza artificiale generativa non sono garantite. Ciò solleva preoccupazioni sull’uso di questa tecnologia per creare contenuti che potrebbero essere discrimina- tori o dannosi.
38 6-2023
Gli ostacoli nell’impiego dell’AI generativa
3 Survey of nearly 370 executives from Australia, Germany, India, Singapore, the United Kingdom, and the United States, collected in April and May 2023.
I tre principali ostacoli all’implementazione dell’intelligenza artificiale generativa sembrano essere la sicurezza informatica, la privacy e la precisione dei modelli