L’intelligenza artificiale ci deve preoccupare?
Quando scattiamo una foto con lo smartphone, quando vediamo un film in TV su una piattaforma, quando facciamo una ricerca su internet, quando i social ci suggeriscono dei post da leggere, l’intelligenza artificiale (IA) entra in gioco. E da alcuni mesi sono stati messi a disposizione del pubblico nuovi sistemi che conversano con gli utenti e producono testi di varia lunghezza come commenti, riassunti, tesine, persino articoli di giornali.
Quasi nessuno pensa che stia arrivando il momento in cui l’intelligenza umana sarà sorpassata da quella artificiale e comunque i sistemi attualmente disponibili sono ancora distanti da questo traguardo. Non è però nemmeno corretto affermare che alcuni aspetti dell’intelligenza umana non saranno mai raggiunti: ad esempio anche rispetto alla creatività l’IA non si comporta poi così male.
Sono tutte cose molto piacevoli, molto spesso gratuite, perché mai dovremmo preoccuparci?
La prima considerazione riguarda il mondo del lavoro. Quante attività umane possono essere svolte da questi sistemi? E di conseguenza quanti lavori sono a rischio di scomparsa? Analisti finanziari, giornalisti, legali, ingegneri, programmatori, sceneggiatori, venditori sono una lista, non esaustiva ed in rigoroso ordine alfabetico, di possibili obiettivi di una sostituzione di massa. Un recente survey parla di circa 300 milioni di posti di lavoro a rischio. Come magra consolazione si prevede un incremento del PIL mondiale e la speranza di creazione di nuovi profili professionali. Con (molto) ottimismo si potrebbe dire che è successo sempre così nelle precedenti rivoluzioni tecnologiche.
Ma da alcuni mesi con frequenza sempre maggiore arrivano dei messaggi ben più preoccupanti sull’impatto che l’intelligenza artificiale può avere sull’umanità.
Immaginiamo di imbarcarci su un aeroplano e che la metà degli ingegneri che lo hanno costruito ci dicono che c’è una percentuale del 10% che l’aereo cadrà uccidendo tutti i passeggeri. Voi lo prendereste? Come riportano Harari ed altri è la stessa percentuale rilevata da un sondaggio effettuato su 700 ricercatori ed accademici nel 2022 sul rischio che l’IA possa portare all’estinzione dell’umanità a causa dell’IA.
I sistemi attuali basati sul deep-learning sono eccezionali nella capacità di comunicare con gli esseri umani come ben argomentato da Elena Esposito nel libro Comunicazione artificiale. Anche se sembra strano che un sistema, un algoritmo per semplicità, sia in grado di comunicare con esseri umani è quello che effettivamente accade quando interagiamo con Google, Facebook e ovviamente sistemi simili al ben noto Chat-GPT. È infatti sufficiente che il destinatario trovi un significato nel messaggio ricevuto indipendentemente dal fatto che il mittente gli attribuisca un significato.
La conseguenza di ciò è la capacità dei sistemi di produrre intelligenza sociale e di influire quindi sul comportamento degli individui. Non è casuale che alla base di tutto ci sia la capacità di padroneggiare il linguaggio naturale che è il sistema operativo della cultura umana. Dal linguaggio emergono il mito e la legge, gli dei e il denaro, l’arte e la scienza, l’amicizia, le nazioni e il codice dei computer (vedi sempre Harari ed altri)
Altri esponenti della ricerca hanno espresso la loro preoccupazione come Geoffrey Hinton, accademico premiato per le sue ricerche sull’IA, dimessosi recentemente da Google.
Un punto di vista molto critico è fornito anche dai lavori del Center for Humane Technology che in passato con il docufilm The Social dilemma aveva già messo in guardia contro il pericolo dei social network in grado di distorcere la nostra percezione del mondo. È stata questa la prima ondata di interazione della massa degli utenti con i sistemi di IA, in grado di profilare l’utente in funzione del contesto e del suo comportamento in maniera trasparente, fornendogli così delle risposte apparentemente oggettive ma in realtà contingenti.
Se l’interazione tra esseri umani passa attraverso la comunicazione con i social network, questi sono in grado di regolare i vari flussi, contribuendo a influenzare i comportamenti sino a creare bolle di utenti, forzare la circolazione di notizie false, influenzare gli orientamenti politici. Questo perché sono progettati per massimizzare il tempo in cui l’utente utilizza il sistema, unico risultato che porta al profitto.
Con la nuova generazione dei sistemi di IA tutte queste problematiche non solo sono ancora ben lontano da essere risolte, ma sono aggravate dalle loro eccezionali capacità.
The AI dilemma descrive come l’unificazione dei diversi filoni dell’IA (riconoscimento del linguaggio, visione artificiale, traduzione automatica, comprensione del parlato) verso un approccio comune ha consentito una concentrazione di competenze e attività precedentemente disperse, portando a risultati inattesi anche per la maggior parte degli esperti.
I sistemi sono ora in grado di comunicare con le capacità degli umani nelle forme più svariate: linguaggio naturale, immagini, video, suoni, sequenze di simboli come programmi o DNA. E lo fanno con capacità sorprendenti: bastano pochi secondi di un audio registrato per poter imitare la voce di una persona. E le loro potenzialità crescono ad un ritmo esponenziale più rapido di quanto gli stessi esperti avevano previsto pochi anni fa.
Chi può distinguere tra una foto vera ed una falsa, tra un video creato artificialmente o uno reale, tra un discorso di un politico e la sua imitazione?
Sono anche state evidenziate abilità emergenti, ovvero inaspettate anche per gli sviluppatori, come sistemi in grado di risolvere compiti per i quali non erano stati addestrati o che sono dotati della teoria della mente, cioè la capacità di modellare il pensiero altrui (io so che tu sai…). E cosa dire delle applicazioni che integrando le capacità di input diversi cercano di leggere il pensiero attraverso rilevamenti non invasivi dei segnali del cervello?
“Se una tecnologia conferisce potere, inizierà una gara. E se non la si coordina, la gara finirà in tragedia. Non c’è un solo giocatore che la possa fermare”
In Italia il Garante della privacy ha fermato per alcune settimane l’accesso pubblico a Chat-GPT ma è come multare un TIR carico di droga sull’autostrada per eccesso di velocità: intervento corretto ma che non coglie il nocciolo del problema.
Qualche tempo fa è arrivato un appello per fermare lo sviluppo di questi sistemi, ma è questa la soluzione?
Cosa vuol dire fermare uno sviluppo tecnologico di questa portata? In quali paesi? Europa, Usa, Cina? E se la maggior parte dei ricercatori è in aziende private cosa deve fare lo Stato?
Ogni tecnologia fa emergere nuove responsabilità. Un passato recente ci ha portato allo sviluppo del nucleare con tutte le conseguenze del caso. Non è esagerato affermare che siamo in una situazione analoga se non più critica. E quindi la società e le istituzioni a tutti i livelli dovrebbero considerare tutti gli aspetti etici, politici, legali, normativi che consentano di governare questa evoluzione tecnologica che è in grado di portare enormi benefici all’umanità ma che non può essere lasciata nelle mani di pochi. Quindi più che preoccuparci dell’IA dobbiamo occuparcene e rapidamente.
Il governo USA si è mosso recentemente e l’Europa può costituire un modello come ha dimostrato in varie occasioni a partire dalle azioni contro i monopoli, la normativa sulla privacy e sicurezza dei dati (GDPR) e la recente iniziativa sull’Intelligenza Artificiale attualmente in discussione. Ma lo sviluppo dell’IA procede a velocità sbalorditiva…
Claudio Gasbarrini
Lascia un Commento
Vuoi partecipare alla discussione?Fornisci il tuo contributo!