Un “paradiso” con tanti alberi del bene e del male

Visualizzazioni: 134

Intelligenza artificiale. Un nuovo, interessante contributo al dibattito che abbiamo aperto qualche settimana fa e che continua a tenere banco non solo su queste pagine

Di Gianni Castagnello

Da circa un anno si sono moltiplicate notizie e riflessioni sull’avvento dell’Intelligenza Artificiale (AI) nei sistemi informatici e questo ha diffuso la consapevolezza di una trasformazione epocale in corso con l’impatto che il crescente e molteplice impiego dell’AI avrà sulle vite di tutti. Bene ha fatto Il Popolo a offrire ai suoi lettori alcuni articoli competenti e chiarificatori sull’argomento. Per me, che sono un modesto utilizzatore, come tutti, delle tecnologie digitali e non ho alcuna competenza specifica, la prima consapevolezza è che stiamo navigando in acque ignote, ma non smetteremo di navigare.

Non dimentichiamo che la scienza e la tecnologia – lo ha scritto Papa Francesco nel suo messaggio per la Giornata mondiale della pace – sono “prodotti straordinari del potenziale creativo dell’intelligenza umana”, e l’AI ne è uno degli esempi più evidenti; ma proprio i successi della nostra intelligenza, rendendo possibili applicazioni rivoluzionarie, suscitano interrogativi e timori.

Con gli straordinari progressi delle tecnologie informatiche prosegue il Papa – si aprono davanti a noi “entusiasmanti opportunità e gravi rischi”.

L’AI consentirà di migliorare tutte quelle prestazioni e scelte che richiedono rigorosi processi deduttivi basati su un’ampia consultazione di dati: dal bilancio dei danni provocati da un terremoto al supporto per le diagnosi mediche e le cure personalizzate, come hanno spiegato i docenti dello IUSS di Pavia su questo giornale. Potrà anche esprimere certe forme di creatività combinatoria se istruita a questo fine: a Natale ho ricevuto da un amico un biglietto d’auguri realizzato da un programma di intelligenza artificiale che può produrre in maniera soddisfacente la sintesi di un libro, lo schema di una lezione, traduzioni e sbobinature di registrazioni, presentazioni didattiche di qualsiasi argomento e anche testi di narrativa e saggistica che combinano informazioni raccolte nella rete, non da ultimo fiabe della buonanotte per i bambini.

Ci sono, però, i “gravi rischi” che Pier Luigi Baldi ha colto nel loro essenziale risultato: la manipolazione di ciò che è proprio dell’essere umano: la coscienza della realtà e di sé.

Proprio la creatività dell’AI accresce la possibilità di comporre con elementi reali documenti falsi: esempio basico la foto di un anno fa, creata con l’applicazione Midjourney, di Papa Francesco che indossa un costoso piumino firmato.

La pratica della falsificazione è sempre esistita ma l’AI può rendere indistinguibile il vero dal falso e proiettarci in un mondo in cui si confondono reale e virtuale.

Sono poi diffusi i timori che un sapiente impiego dell’AI renda molto più efficace e pericolosa la diffusione di contenuti falsi nelle campagne elettorali. Nelle elezioni in Pakistan del 7 febbraio scorso l’ex primo ministro Imran Khan, in carcere per corruzione e divulgazione di documenti riservati, ha potuto sostenere i candidati del suo partito, grazie a comizi virtuali realizzati con l’AI che ha ricombinato video con la sua immagine e la sua voce. Nelle prossime elezioni negli Stati Uniti sarebbe tecnicamente realizzabile, anche se non politicamente utile, per esempio, un appello di Obama a favore di Trump, altri esempi possibili in Italia li immaginino i lettori.

Può darsi che vengano tempi in cui, per chi usa internet in qualsiasi forma, sarà impossibile accertarsi della veridicità di foto, video e altri documenti se non a prezzo di lunghe e difficili ricerche. E questo mi sembra un primo e notevole rischio.

L’AI potenzia straordinariamente le attività di analisi e valutazione di grandi quantità di dati, ma a questo proposito c’è un piccolo episodio di cronaca, riportato da un quotidiano circa un mese fa, che mi sembra esemplare per capire i pericoli del rapporto con le macchine intelligenti. In una cittadina degli Stati Uniti, un uomo di colore, padre di due figli, con un impiego stabile e una vita di quelle che si dicono normali, viene arrestato nella sua casa, davanti ai familiari, portato in una stazione di polizia e interrogato per ore, il tutto in modo piuttosto brutale e intimidatorio, e infine rilasciato quando gli agenti si rendono conto che non poteva essere lui l’autore della rapina di cui lo accusavano. Gli agenti erano andati a prelevarlo in casa perché un programma di riconoscimento facciale aveva indicato la corrispondenza tra la sua foto e quella del rapinatore. Compiendo l’arresto avevano notato che l’uomo non assomigliava poi molto al rapinatore, ma l’intelligenza artificiale lo aveva riconosciuto… e quindi bisognava trattarlo come se fosse colpevole.

Quindi, un secondo rischio a cui si andrà incontro con la diffusione dell’AI è quello della “passivizzazione” o della sudditanza dei soggetti umani alla macchina per effetto della comodità e della fiducia che in essa si ripone. L’esempio più banale ma non del tutto innocuo, che si sta già verificando, a quanto mi dicono, è l’uso che ne fanno gli studenti per comporre senza sforzo schede di lettura e altri compiti richiesti dagli insegnanti.

Vorrei accennare ancora un terzo rischio attinente al carattere “generativo” dell’AI, cioè alla capacità del programma di produrre un’informazione nuova, originale, sempre più adeguata alle richieste attraverso algoritmi che apprendono dagli input e dai feedback via via ricevuti.

In questo modo l’AI riproduce il processo di adattamento alle informazioni nuove provenienti dal contesto che è proprio dell’intelligenza umana.

Per l’elaborazione dei dati e la produzione di output adeguati l’AI applica istruzioni complesse, ma non c’è istruzione minimamente complessa che non debba essere interpretata e non possa essere fraintesa, come aveva dimostrato il filosofo austriaco Ludwig Wittgenstein circa cento anni fa, riflettendo sulla sua esperienza di maestro nelle scuole elementari. Come “ragiona” l’AI sembra che non sia del tutto prevedibile, nemmeno per chi l’ha realizzata. Le risposte del programma, quindi, potrebbero essere spiazzanti per le nostre intenzioni e le nostre attese e produrre risultati imprevedibili ma anche indesiderati.

Torno sull’incipit di questo articolo: non smetteremo di navigare. L’unico modo di farlo senza perdere la rotta richiede consapevolezza, attenzione costante ai pericoli, formulazione e condivisione di regole. Su questa strada troviamo, per esempio, la legge approvata dal Parlamento europeo nel marzo scorso per regolamentare l’uso dell’AI e vietare alcune applicazioni che potrebbero compromettere i diritti fondamentali dei cittadini, oppure gli accordi per la tutela della proprietà intellettuale, come quello tra la società che pubblica il quotidiano Le Monde e Open AI per la segnalazione dei contenuti che ChatGPT attinge dagli archivi del giornale.

Per chiudere adattando al nostro discorso un’altra immagine: nessuno ci scaccerà dal paradiso che l’AI ha aperto per noi, ma è un paradiso dove si incontra più di un albero del bene e del male.

Commenti: 0

Il tuo indirizzo mail non sarà reso pubblico. I campi obbligatori sono segnati con *