
Il mondo va veloce e il rischio di rimanere indietro è forte quando si parla di tecnologia e digitalizzazione. In questo contesto, l’utilizzo di strumenti basati sull’intelligenza artificiale (IA), come ChatGPT, sta diventando sempre più comune anche in aziende di vario tipo.
Una recente ricerca ha mostrato che circa il 15% dei dipendenti rivela regolarmente dati aziendali a piattaforme di questo tipo. Ma a preoccupare ancora di più è il fatto che oltre un quarto di questi dati sia considerato sensibile, con tutte le possibili ramificazioni per i datori di lavoro in tema di potenziali violazioni della sicurezza.
I dati sull’uso di ChatGPT sul posto di lavoro
Il report, pubblicato a giugno e intitolato “Revealing the True genAI Data Exposure Risk”, ha analizzato il comportamento di oltre 10.000 dipendenti, esaminando in che modo utilizzano ChatGPT e altre applicazioni generative basate sull’IA sul posto di lavoro.
Con questa analisi è stato possibile scoprire che, in media, i dipendenti inseriscono dati in queste piattaforme circa 36 volte al giorno. Con l’aumento dell’uso dell’IA per innalzare la produttività sul posto di lavoro, è lecito pensare che questo numero sia destinato a crescere ancora.
La ricerca ha rivelato anche che molte delle informazioni confidenziali inserite in questi strumenti GenAI rientrano in specifiche categorie: il 43% sono dati interni al business, il 31% contiene frammenti del codice sorgente e il 12% informazioni personali identificabili (PII, per usare l’acronimo inglese).
Proprio i dati appartenenti a queste categorie rappresentano i rischi maggiori per le aziende e gli imprenditori. Curiosamente, il 50% dei lavoratori che interagiscono maggiormente con GenAI fa parte delle sezioni aziendali di Ricerca e Sviluppo (R&D), seguite da vendite e marketing (23%) e finanza (14%).
Più trasparenza verso l’IA
ChatGPT ha accumulato oltre 100 milioni di utenti attivi appena due mesi dopo il suo lancio. La crescita degli utenti attivi di ChatGPT ha raggiunto così la soglia di oltre 800 milioni nel solo mese di aprile 2023.
Tuttavia, un uso così allargato dell’IA ha fatto anche emergere la necessità di una maggiore trasparenza e un senso di responsabilità più forte da parte di tutti gli attori coinvolti. Per affrontare il tema, la nota agenzia pubblicitaria statunitense Ogilvy ha lanciato una nuova iniziativa nota come AI Accountability Act.
Tramite questa iniziativa, viene richiesto a tutte le agenzie pubblicitarie, di PR e piattaforme di social media di rivelare pubblicamente l’uso di contenuti generati dall’intelligenza artificiale ai possibili fruitori.
Così Ogilvy intende favorire un cambiamento che non si limiti a un’esplicita menzione dell’uso di contenuti generati daIl’IA, ma che preveda l’uso obbligatorio di una nuova filigrana (in gergo tecnico, watermark) che contrassegni in maniera grafica, sintetica e riconoscibile qualsiasi contenuto generato dall’IA, in aggiunta all’hashtag #poweredbyAI.
L’obiettivo è consentire alle piattaforme di social media di comunicare in modo più trasparente e onesto verso gli utenti, in modo simile a quanto avviene con la dicitura “partnership a pagamento”, ampiamente usata sulle principali piattaforme nei post sponsorizzati.
Come ridurre i rischi legati all’uso dei tool IA
A fronte di questa iniziativa lodevole, è bene ricordare che piattaforme come ChatGPT raccolgono diversi dati relativi ai propri utenti, fra cui anche l’indirizzo IP della connessione utilizzata.
Per ridurre i rischi associati all’uso di ChatGPT e altri strumenti di IA generativa, si consiglia l’utilizzo di una VPN (Virtual Private Network). Una rete privata virtuale può aiutare a mascherare l’indirizzo IP, oltre a contribuire a proteggere altri dati sensibili personali o relativi all’azienda per cui l’utente lavora.
Già oggi, l’IA ha un ruolo fondamentale nel content marketing. Il suo posizionamento, sempre più centrale, sottolinea l’esigenza di una maggiore trasparenza e consapevolezza da parte di tutti gli attori coinvolti nella creazione di contenuti.
Gli inserzionisti, le agenzie di PR e le piattaforme social dovrebbero considerare con attenzione la proposta di Ogilvy e rendere obbligatoria la formula che dichiara apertamente e con trasparenza l’uso dell’IA nella creazione di immagini, pubblicità o testi.
Allo stesso tempo, chi utilizza applicazioni basate sulla Generative AI come ChatGPT dovrebbe essere consapevole dei rischi per la sicurezza e adottare misure precauzionali per proteggere i propri dati.