Affrontiamo il tema della governance delle organizzazioni attraverso l’uso dell’intelligenza artificiale prendendo come esempio la vicenda di ChatGPT.
A fine marzo 2023 il Garante per la protezione dei dati personali ha disposto il blocco di ChatGPT, la grande intelligenza artificiale creata da OpenAI, a causa di presunte carenze informative, di tutela dei minori, di esercizio dei diritti e della “base giuridica” della piattaforma.
Successivamente, si sono svolti vari incontri fra il Garante e OpenAI per discutere e delineare i correttivi da adottare per tutelare gli utenti. Tali correttivi sono stati adottati senza difficoltà e in poco tempo, sicché alla fine di aprile l’accesso a ChatGPT è stato ripristinato.
A prescindere dalle opinioni sui rischi dell’intelligenza artificiale, è necessario sottolineare come la gestione di questa vicenda sia risultata inadeguata alla sua rilevanza. In primo luogo, il blocco di ChatGPT è apparso ai più sconcertante, in quanto l’Italia è l’unico paese al mondo dove sia stato disposto un blocco di questo tipo. In secondo luogo, i problemi dell’intelligenza artificiale non si possono ridurre a quelli evidenziati dalle ragioni del blocco. Infatti, pur senza arrivare alle prospettive distopiche di film di fantascienza come Terminator e Matrix, l’intelligenza artificiale determina il rischio concreto della perdita di milioni di posti di lavoro, rispetto al quale i problemi di privacy scivolano decisamente in secondo piano.
Il blocco disposto a fine marzo e le misure correttive indicate in aprile sembrano dipendere non solo dall’inadeguatezza del quadro normativo di riferimento ma anche da una certa incomprensione dei veri problemi. La situazione non si presenta molto diversa in altri paesi in cui le idee dei policy makers circa il mondo digitale appaiono “poche, ma confuse”.
La distanza tra i legislatori e le Big Tech è un problema evidente. Le audizioni di Mark Zuckerberg davanti al Congresso statunitense e poi al Parlamento europeo nel 2018 sono stati esempi lampanti di questa disconnessione.
In generale, la governance dell’intelligenza artificiale richiede la collaborazione tra istituzioni e Big Tech. La tecnologia si evolve ad un ritmo molto più veloce di quello della normativa, creando inevitabilmente uno squilibrio tra le due. È necessario, quindi, trovare un modo per ridurre questa distanza, affrontando i problemi reali.
Tuttavia, sebbene sia vero che il quadro normativo attuale sia spesso insufficiente per regolare la governance dell’intelligenza artificiale, è altrettanto vero che molte delle preoccupazioni sollevate riguardano anche questioni etiche e sociali che non possono essere risolte semplicemente attraverso la normativa. Per questo motivo, è importante che i policy maker acquisiscano una maggiore comprensione della tecnologia e delle sue implicazioni etiche e sociali. Ciò può avvenire attraverso una maggiore formazione in queste materie, non solo per i legislatori, ma anche per i funzionari pubblici e i dirigenti delle aziende che operano nel settore dell’intelligenza artificiale.
Inoltre, è importante che i policy maker collaborino strettamente con la comunità tecnologica e con gli esperti di etica e diritto al fine di sviluppare una governance adeguata per l’intelligenza artificiale, anche dovendo condividere segreti aziendali sul funzionamento degli stessi algoritmi.