In Italia le aziende non sono ancora pronte per ChatGPT

I dipendenti italiani considerano la possibilità di utilizzare in ambito lavorativo strumenti di Intelligenza artificiale come ChatGPT, ma oltre il 40% non sa come funzioni l’elaborazione delle informazioni. Inoltre, la maggior parte chi utilizza l’AI non dà grande importanza ai problemi legati alla privacy e alla veridicità dei contenuti. Secondo la ricerca di Kaspersky, ‘ChatGPT, alleato o nemico in ambito lavorativo?’, condotta su 1.000 dipendenti italiani tra i 18 e i 55 anni, il 53% del campione prende infatti in considerazione l’utilizzo dell’Intelligenza artificiale in ambito professionale, ma solo poco meno del 10% ne sta già sfruttando le potenzialità.

Un valido aiuto nella creazione, revisione e traduzione di testi

L’AI, e in particolare ChatGPT, rappresenta uno degli esempi più attuali di innovazione tecnologica applicata ai modelli linguistici. ChatGPT è diventato popolare in pochissimo tempo, e la sua implementazione in ambito lavorativo è una grande opportunità. Ma solo se utilizzato nel rispetto delle linee guida aziendali e delle policy di sicurezza, altrimenti rappresenta un rischio per la privacy dei dati. Di fatto, quasi la metà del campione concorda sul fatto che ChatGPT possa essere un valido aiuto nella creazione, revisione e traduzione di testi (48%), così come per annotazioni rapide, appunti presi durante le riunioni o riassunti (46%).  Rimangono invece ancora meno sfruttate attività come sviluppare e migliorare altre applicazioni di IA, come i chatbot (16%) o addirittura la scrittura di codice sorgente (9%).

Ma come funziona? Solo il 13% lo sa

Circa il 57% dei dirigenti o responsabili non è però a conoscenza dell’utilizzo dei tool di AI in azienda, e il 32% dei dipendenti non ritiene necessario informarli.
Un dato che non stupisce, visto che il 77% degli intervistati nasconderebbe ai colleghi il fatto di utilizzare strumenti di AI, o addirittura lo ha già fatto. Del resto, più del 60% delle aziende italiane non ha definito linee guida o regole da seguire nell’utilizzo di questi strumenti, esponendo così l’azienda a possibili rischi. Il 14% dei dipendenti che lavorano in aziende che invece hanno definito regole o linee guida si lamenta perché sono poco chiare e comprensibili. Inoltre, solo il 13% sa esattamente come funziona l’elaborazione delle informazioni da parte di ChatGPT, mentre il 44% ne ha solo una vaga idea, o nessuna conoscenza (43%).

Poco attenti alla privacy

Inoltre, il 50% dichiara di condividere dati personali, informazioni destinate esclusivamente ad uso interno, documenti sensibili e molto altro. Di questi, circa il 20% non ritiene importante mantenere private le proprie ricerche, mentre addirittura il 30% pur sapendo che non bisogna condividere dati sensibili, lo fa ugualmente non anonimizzando le informazioni e rendendo quindi possibile che vengano ricondotte a un individuo o azienda specifica, con conseguenze importanti su privacy e sicurezza. Anche la veridicità e l’autorevolezza dei contenuti ottenuti dagli strumenti AI non preoccupa troppo i dipendenti: il 49% è disposto a utilizzare le risposte ottenute senza controllare la correttezza delle informazioni.