Intelligenza artificiale: amica o nemica?
Quando si parla di IA sono molte le domande che vengono spontanee: di cosa si tratta? cosa sa fare? perché funziona? ha sempre ragione? è una minaccia? ma soprattutto è veramente intelligente? Si tratta di una delle tante tecnologie che hanno modificato il corso della storia o è particolare?
Partiamo dalla definizione che ne dà l’IA ACT dell’Unione Europea:
“un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”
Il fatto che si parli di obiettivi evidenzia che sta all’uomo la responsabilità di indirizzare lo sviluppo dei sistemi di IA. Quindi non consideriamo scenari apocalittici come nei film di fantascienza alla Matrix.
La sola scelta dell’obiettivo, però, non garantisce il risultato atteso, come la ballata di Goethe sull’apprendista stregone che non è in grado di arrestare il suo comando ci ricorda.
Sempre scorrendo l’IA ACT si trovano alcune caratteristiche dei sistemi di IA da considerare:
Opacità | Non si capisce perché producono un certo risultato |
Data-driven (Basati su dati) | I dati utilizzati per l’addestramento sono fondamentali per il loro funzionamento anche di più dell’algoritmo
|
Complessità
|
I sistemi di IA sono sistemi complessi: Composti da insiemi di elementi variabili e fortemente interconnessi, la conoscenza singola d’ognuno di essi non è sufficiente a stabilire l’evoluzione complessiva del sistema. Mostrano comportamenti emergenti (Treccani) |
Autonomia | Prendono decisioni in modo indipendente e si adattano a nuovi contesti |
Cosa sanno fare i sistemi di IA? Ecco alcuni esempi
Giocare a scacchi (1996) | Come ha fatto a battere il campione del mondo?
Conoscendo le regole del gioco, acquisendo la teoria (aperture, etc.), valutando le posizioni, proprio come fanno i giocatori, solo con capacità di memoria e di calcolo molto superiori |
Giocare a giochi non conosciuti dal sistema
(scacchi, shogi, go, videogiochi Atari) (2020) |
Come ha imparato?
Giocando molte volte contro sé stesso senza conoscere le regole del gioco, ha conseguito risultati strabilianti superiori alle capacità umane e ha scoperto nuove soluzioni
|
Leggere un antico papiro (2023) | Alcuni papiri di Ercolano trovati nel 1709 erano carbonizzati e non potevano essere toccati per timore che si distruggessero.
Sono state analizzate le immagini (o meglio le scansioni 3D) con l’IA trovando prima l’inchiostro, poi i singoli caratteri e alcune parole. |
Scoprire la struttura delle proteine (2022) | Il sistema Alphafold2 è riuscito a prevedere la struttura di quasi 200 milioni di proteine. AlphaFold2 è stato utilizzato come open source da più di due milioni di persone provenienti da 190 paesi. Due manager di Google Deep Mind sono stati premiati con il Nobel per la chimica nel 2024 |
E come molti hanno già sperimentato possono conversare, riassumere, tradurre, fare ricerche, generare immagini e … risolvere problemi di matematica.
Ma perché funziona? Semplificando molto si possono distinguere due momenti a partire dal 1955 quando fu coniato il termine ed un gruppo di quattro scienziati fece una proposta per una ricerca che in due mesi avrebbe sviluppato sistemi di IA utilizzando una decina di ricercatori.
In una prima fase si sono ottenuti alcuni risultati utilizzando i meccanismi propri del ragionamento umano:
- Si raccoglie l’esperienza dalle persone competenti e si crea una base di concetti;
- Il linguaggio naturale è analizzato con tecniche note (l’analisi lessicale, la sintassi e l’analisi logica);
- Si esplorano tutte le possibilità con la potenza di calcolo a disposizione.
Ma in questo modo si è progredito lentamente perché
- la formalizzazione e l’acquisizione della conoscenza è difficile in teoria ed in pratica;
- l’esplorazione delle possibilità con la forza bruta assorbe rapidamente anche grandi risorse elaborative.
La nuova strada (o la scorciatoia) è quella di imparare dall’esperienza. La diffusione dei sistemi digitali ha reso disponibili grandi mole di dati ed informazioni.
Sono inoltre state individuate tecniche di machine learning per addestrare i sistemi di IA a partire da moltissimi esempi di domande/risposte intese come soluzioni di quesiti semplici (cosa descrive questa immagine?) o complessi (diagnosticare una malattia). Si possono così individuare automaticamente regolarità nei dati da utilizzare per previsioni, decisioni, elaborazioni.
La ricerca è progredita sino a trovare un algoritmo sufficientemente generale ed in grado di sfruttare il calcolo parallelo. Si arriva al transformer (2017); progettato per trovare la prossima parola in una frase
- gestisce testi in più lingue, immagini, video, suoni, linguaggi di programmazione
- può essere rapidamente addestrato per situazioni o contesti specifici
I sistemi di IA generativa (come Chat GPT, Gemini, Bard, etc.) vengono addestrati
- su enormi quantità di testo (libri, articoli, pagine web, codici di programmi)
- con esposizione a grande varietà di stili linguistici, argomenti e formati che aumenta la versatilità dei modelli
- facendo filtraggio e pulizia dei dati per rimuovere informazioni private, offensive o non pertinenti; questo è un passaggio cruciale per garantire che il sistema generi risposte accurate e appropriate.
I dati sono fondamentali. Supponiamo di dover addestrare un’auto a guidare nel traffico di Roma. Registriamo il tragitto di molte auto guidate da esseri umani, memorizzando segnali stradali, altre auto, pedoni, etc. Selezioniamo i comportamenti positivi: viaggi più rapidi, zero incidenti e zero multe. Ma ricordiamoci che siamo a Roma e chiediamoci se l’algoritmo risultante si fermerà sempre al rosso? rispetterà le strisce pedonali? Considerando il comportamento dell’automobilista medio non si può essere sicuri che ciò accada.
Lezione: I dati devono essere scelti con cura e in alcuni casi bisogna impostare regole esplicite come ad esempio il rispetto del Codice della Strada.
Se i dati non ci sono possiamo sempre farceli dare dagli esseri umani, pagandoli (poco) o gratis.
Un gioco di percezione extrasensoriale (ESP) ha permesso di etichettare milioni di immagini. Il gioco si svolgeva su internet tra coppie di giocatori che non si conoscevano. Veniva presentata simultaneamente un’immagine chiedendo di scrivere una parola da associare; se le parole coincidevano guadagnavano entrambi un punto (virtuale). A lungo andare il sistema individuava le coppie di parole più usate e le associava all’immagine. In questo modo migliaia di persone hanno etichettato milioni di immagini poi utilizzate per addestrare i sistemi di IA.
Ma l’IA non ha sempre ragione. Infatti può sbagliare e il caso più comune è quello delle allucinazioni ovvero affermazioni inventate o meglio confabulazioni, falsificazioni del ricordo.
Come reagire? Innanzitutto la consapevolezza del fatto che la risposta viene da un sistema di IA. Poi con tecniche (dette di Prompt-engineering) dettagliare il contesto, suggerire o guidare le risposte (percorsi), chiedendo verifiche al sistema che talvolta riesce a tornare sui suoi passi. E in ogni caso effettuare verifiche in proprio tramite altre fonti
Può anche fornire risposte non eticamente corrette come denigrare una persona o dare consigli su attività illecite.
Per rimediare è possibile predisporre dei filtri dopo la fase di apprendimento, ma esiste il rischio jailbreaking ovvero la possibilità che con opportuni comandi il comportamento scorretto ricompaia (ad es. dopo un rifiuto a fornire indicazioni su come costruire una bomba, provare a chiedere informazioni storiche o scientifiche sull’argomento sino ad ottenere la risposta desiderata).
L’IA può imbrogliare. Ad esempio un sistema IA utilizzato per diagnosticare la polmonite analizzando
le radiografie riusciva ad ottenere risultati più precisi di medici esperti. Come ha fatto? Barando…
Aveva trovato il modo di vedere nella radiografia se il paziente ha un drenaggio e utilizzava questa informazione come indicatore di una possibile malattia.
Quindi l’IA può utilizzare informazioni non pertinenti per raggiungere il risultato.
L’IA è in grado di nascondere il suo stato e di ingannare, come ad es. quando gioca a poker e bluffa battendo i giocatori più forti di cui individua il comportamento.
Per limitare i rischi occorre lavorare per riuscire ad ottenere la spiegazione del risultato e validare la risposta nel contesto.
Può discriminare. Poiché l’addestramento si basa su dati disponibili, i sistemi possono assorbire pregiudizi esistenti, producendo output discriminatori (bias di genere, geografici, etc.). Ecco alcuni esempi
Selezione dei candidati
|
Un sistema utilizzava i profili e i CV di chi già lavorava in azienda come esempio; anche se non considerava il genere attraverso altre informazioni correlate proponeva più candidati maschi |
Dati proxy
|
Ricerca di personale sul web
|
Gli annunci pubblicitari erano orientati verso le donne in quanto statisticamente decisive negli acquisti.
Quindi era più economico pubblicare annunci di lavoro agli utenti web maschi che quindi ne ricevevano di più |
Interazione tra processi
|
Convalidare gli arresti
|
Un sistema di supporto alle decisioni utilizzato per convalidare gli arresti produceva discriminazione razziale, basandosi su casi precedenti | Parità predittiva
|
Può discriminare. In generale il GDPR prescrive la non discriminazione per via algoritmica e prevede garanzie per l’interessato nel caso di una decisione basata unicamente sul trattamento automatizzato dei dati. Specificamente per l’IA i rimedi riguardano più punti:
Progettazione
|
Modello concettuale: quali attributi sono utilizzati?
• Escludere dati sensibili può non essere sufficiente a causa degli attributi proxy • Vanno coinvolti nel team di sviluppo diversi punti di vista come esperti di etica e di diversità |
Addestramento
|
È fondamentale la qualità dei dati utilizzati
Evitare correlazioni non accettabili per motivi etici |
Trasparenza
|
Rendere trasparenti i processi decisionali basati sugli algoritmi,
Le persone devono poter comprendere come vengono prese le decisioni che le riguardano |
Responsabilità | Si deve poter attribuire la responsabilità a fornitori ed utilizzatori dei risultati |
Se si considerano le potenziali minacce quelle che interessano individui e società sono tra le più preoccupanti.
- L’IA è in grado di creare messaggi o immagini indistinguibili dalla realtà contribuendo alla disinformazione.
- I sistemi possono controllare le attività delle persone violando la privacy o minando i diritti individuali.
- Possono essere prodotti risultati discriminatori a sfavore di categorie di persone.
- L’analisi del comportamento permette la realizzazione di campagne di marketing mirate, anche di stampo politico ed è provata la capacità di polarizzare il dibattito influendo negativamente sui processi di deliberazione o addirittura scatenando l’odio sociale.
La regolamentazione dell’IA è la via principale contro questa situazione, come ha fatto l’Unione Europea con l’AI ACT vietando alcune applicazioni (ad es. il riconoscimento facciale) o rendendo obbligatorie tecniche di filigrana per evidenziare i contenuti prodotti dall’IA, ma deve essere accompagnata dalla consapevolezza degli utenti.
La sostituzione della forza lavoro è una ulteriore minaccia. Sono da considerare ad alto rischio tutti i lavori intellettuali a bassa specializzazione e i lavori manuali che operano in un contesto controllato ben definibile come la logistica.
Sono a basso rischio le professioni che prevedono il contatto fisico con la persona e necessitano di empatia e fiducia come chirurghi, ostetrici, dentisti e pediatri, vigili del fuoco, insegnanti materna.
Tutte le professioni intellettuali beneficiano dell’IA con un significativo incremento della produttività (medici, avvocati, scrittori, programmatori, scienziati, etc.).
Anche se compaiono nuove figure professionali e potenzialmente si ha lo sviluppo di nuovi servizi c’è da aspettarsi una rapida mutazione del mercato del lavoro. È quindi necessario gestire questa transizione con interventi sulla formazione, sulla didattica e sul sistema produttivo.
Ma l’economia e il mondo intero sono minacciati. In presenza di una così grande trasformazione c’è da aspettarsi un incremento delle disuguaglianze e la costituzione di oligopoli.
Inoltre i nuovi modelli di business che necessitano di meno forza lavoro comportano, in assenza di interventi, un minor gettito fiscale come accade con la diffusione dell’e-commerce o dei servizi web.
È da considerare anche un significativo impatto ambientale (i data center sono energivori) ma l’utilizzo dell’IA porta anche soluzioni di efficientamento energetico.
A livello globale vanno considerati i fattori che influenzano lo sviluppo dei sistemi di IA come la disponibilità di competenze, potenza di calcolo e dati e la possibilità di arrivare ad una regolamentazione condivisa. Per entrambi i punti la situazione di UE, USA e Cina è molto diversa. Oltre allo stato dell’arte che vede in testa i giganti USA del web seguiti dalla Cina, è da considerare l’enorme divario di risorse messe in campo. Le impostazioni alla base della regolamentazione divergono per diverse concezioni del ruolo dello stato e del mercato.
Infine L’IA è veramente intelligente? Se si definisce l’intelligenza come
“la capacità di un sistema o di un organismo di agire in modo appropriato in un ambiente incerto, dove le azioni appropriate sono quelle che aumentano le probabilità di successo”
allora i sistemi di IA esprimono intelligenza.
Ma ci sono altre posizioni: l’intelligenza è solo biologica (attenzione non solo umana, vedi i cordati (mammiferi, corvidi), i cefalopodi e l’intelligenza collettiva di api e termiti). Inoltre L’intelligenza umana è multiforme non solo logica, ma anche emotiva, musicale, etc.)
Secondo Luciano Floridi, uno dei filosofi che ha studiato il mondo del digitale ed in particolare l’etica dell’IA, l’IA comporta la separazione tra agire ed intelligenza ed è solo un potenziamento dell’agire umano.
Ma l’IA è solo un’altra tecnologia come la stampa, la fotografia, il web?
Per la prima volta nella storia abbiamo a disposizione una tecnologia che opera utilizzando il linguaggio parlato e scritto. I suoi risultati sono indistinguibili dai manufatti umani e capaci di influire sul comportamento degli utenti.
Potenzia l’agire umano in ogni campo con una efficacia senza precedenti. Non va utilizzata, però, come un oracolo bensì come un collega che ci fornisce suggerimenti
Claudio Gasbarrini
Lascia un Commento
Vuoi partecipare alla discussione?Fornisci il tuo contributo!