Intelligenza Artificiale Generativa: oltre il panico, le conseguenze per l'informazione e il lavoro



[Traduzione: EPALE Francia]
Il tentativo mediatico dell’Intelligenza Artificiale (IA) non è di certo qualcosa di nuovo. Il più recente panico che ne deriva riguarda il ruolo degli algoritmi predittivi e di raccomandazione nella diffusione della disinformazione. Quest'anno è stata l’IA conosciuta come generativa a fare notizia sui giornali e sui social media, soprattutto sul versante infox, disseminando il panico: Papa Francesco che indossa un piumino, Emmanuel Macron in veste di netturbino, Volodymyr Zelens'kyj che ammette la sconfitta dell'Ucraina…
Tutte notizie virali che attirano la nostra attenzione sui potenziali rischi dell'IA... e la distoglie dalle vere questioni riguardanti le sfide del XXI secolo e, soprattutto, dalle conseguenze per il lavoro e per l'informazione. Uno dei rischi reali è che si tratta ormai di algoritmi complessi, come indica il passaggio dall'IA all'IA generativa (IAG). Abbiamo assistito a un salto qualitativo e quantitativo, poiché l'IA è passata da compiti semplici a svolgere compiti complessi fino ad arrivare ad azioni generali. A tale scopo, l’IA riesce a riprogettarsi da sola, senza l'intervento umano ma, allo stesso tempo, senza né comprensione né sensibilità, in quanto lo fa basandosi su calcoli statistici e probabilistici su larga scala e su enormi banche dati. Le IA generative sono "trasformatori generativi preaddestrati” (da cui l'acronimo GPT), che funzionano come sistemi decisionali anche se si presentano come simpatici robot conversativi come ChatGPT.
Sul fronte dell’informazione...
I rischi sul fronte dell'informazione riguardano la manipolazione dei contenuti dei media e dei documenti scientifici. Un simile fenomeno può arrivare a distorcere il processo decisionale degli esseri umani che utilizzano questi sistemi. Le IA generative possono basarsi su banche dati contenenti errori o addirittura disinformazione. Sono codificate per fornire contenuti credibili, soprattutto immagini, che di fatto non corrispondono al mondo reale (come nel caso di MidJourney o Dalle-e).
Questi grandi modelli, tutto fuorché trasparenti, sono quindi estremamente fragili e possono essere mistificati e addestrati a produrre disinformazione. Newsguard, attraverso il suo centro di monitoraggio, ha contato, nel giugno 2022, 277 siti di informazioni redatte esclusivamente via IA. Le conseguenze per le società democratiche sono legate alla manipolazione dell'opinione pubblica e all’indebolimento della fiducia nei processi democratici quali, per esempio, le elezioni. Tutto questo diventa presagio di un futuro in cui l’informazione distorta e su misura sarà accessibile a tutti, con messaggi appositamente studiati e volti a massimizzarne l'effetto. Ma è possibile affermare che si tratta di una fase transitoria, orientata verso un risvolto positivo in quanto arginabile attraverso la riflessione etica, un’adeguata regolamentazione e la creazione di IA specializzate, addestrate dai media di riferimento e a partire da database di informazioni di qualità.
Sul fronte del lavoro...
L'IA generativa altro non è che il risultato degli sforzi umani volti all’automatizzazione di compiti faticosi, ripetitivi e non creativi. Solo che, per l’addestramento delle IAG, alcuni “operai del click” sono assunti in condizioni di lavoro di certo non ottimali. Molti dei lavoratori che commentano, addestrano e correggono i sistemi di intelligenza artificiale sono retribuiti con salari irrisori, in Paesi in via di sviluppo, come nel caso di chatGPT, per cui i kenioti sono stati sottopagati per “etichettare” migliaia di testi dai contenuti violenti.
L'idea di liberare gran parte del cervello e del corpo per dedicarsi a compiti intellettualmente più stimolanti o per aumentare il nostro tempo libero da dedicare allo sport è indubbiamente valida, ma per il momento assistiamo a un fenomeno di trasferimento dei compiti di molte professioni e al licenziamento di personale. Si tratta di argomenti che ricevono poca o nessuna attenzione nei dibattiti politici relativi al futuro dell'occupazione, delle retribuzioni o, ancora, del sistema pensionistico. Oltre ai lavori ripetitivi dei cosiddetti “colletti blu”, anche i lavori dei “colletti bianchi” sono oggetto di discussione. E anche le professioni creative sono a rischio, senza alcun compenso per i creatori attraverso cui le IA generative si alimentano e senza il consenso degli utenti per l'utilizzo di dati di massa.
Il contributo umano interviene tardivamente sui lavori e sui calcoli effettuati dalle IAG e gli stessi esperti in materia sono pronti a vedersi ridurre in numero come pelle di Zigrino. Anche da questo punto di vista, si potrebbe individuare una fase transitoria capace di condurre alla nascita di nuovi mestieri. Tuttavia, i sistemi scolastici e universitari non sembrano, ad oggi, spinti da uno slancio evolutivo, adeguato in rapidità e volontà, per creare studenti con un livello di impiegabilità tale da raccogliere le sfide e, soprattutto, rispondere ai bisogni di questa industria di IV generazione.
In attesa di una regolamentazione...
È facile comprendere la mobilitazione generale di esperti e imprenditori nel settore dell’IAG che hanno fatto appello per una moratoria allo sviluppo dell'Intelligenza Artificiale. Lanciato nel marzo 2023 dal Future of Life Institut con più di 1.000 firme (tra cui quella del responsabile di OpenAI, che sviluppa ChatGPT), alla fine di giugno contava più di 33.000 firme. Alcuni hanno anche fatto appello a una "governance dell'IA" per sottolineare la necessità di una regolamentazione, ovvero la condizione imprescindibile che l'intelligenza umana riprenda il controllo sull'intelligenza artificiale.
L'Unione Europea è stata la prima ad essere coinvolta, con la sua proposta di regolamento sull'IA approvata nell'aprile 2023. Il regolamento non propone di regolamentare l'IA, ma piuttosto i suoi usi (in particolare quelli inaccettabili o ad alto rischio). Le dimensioni del lavoro e dell’informazione non sono sufficientemente prese in considerazione... Il che lascia l'onere a formatori ed educatori di “addestrare” intelligenze umane all'alfabetizzazione digitale, mediatica e dell’informazione, affinché comprendano e padroneggino meglio le intelligenze artificiali!