Eleonora de Fonseca Pimentel, ricordandoti

Quesiti sull’Intelligenza Artificiale

Condividi

Da molto tempo il rapporto uomo-macchina è una complessa interazione con forti influenze reciproche. Alcuni degli sviluppi della tecnologia contemporanea, come l’Intelligenza Artificiale, sembrano andare nella direzione profetizzata nel secolo scorso da uno dei più grandi filosofi contemporanei, Martin Heidegger, per il quale la tecnica finirà col dominare l’umanità. Io credo che occorra essere molto prudenti quando si fanno previsioni di questo tipo.

Le macchine, i computer, i robot, sono e resteranno anche in futuro dei prodotti dell’uomo. Hanno l’imprinting della nostra mente. A mio avviso, è molto difficile, per non dire impossibile, che i computer possano mai avere una mente (anche se non si può escludere del tutto).

Oggi una parte di coloro che s’interrogano su questioni come queste tende a identificare mente e cervello. C’è chi dice, in sostanza, che la mente è un’invenzione dei filosofi, e che il cervello e la sua attività è alla base di qualsiasi azione, pensiero e comportamento di cui possiamo avere esperienza. Ma il nostro cervello, fatto di miliardi di sinapsi e connessioni, è frutto di un’evoluzione che è insieme biologica e culturale. Riprodurre la sua articolata complessità in una macchina non sembra possibile.

A “salvarci”, per così dire, a essere del tutto e assolutamente non riproducibile artificialmente, è soprattutto il meccanismo delle emozioni, vale a dire la nostra umanissima intelligenza emotiva.

 

Stilando le sue leggi dal punto di vista dei robot, già nel secolo scorso Isaac Asimov ha provato a dare preveggente risposta a molti degli interrogativi connessi alla robotizzazione del mondo.

Nel corso della storia recente, si sono dati dei casi che, in effetti, sembrano contravvenire alle leggi asimoviane della robotica. Quando, nel 1983, il sofisticato sistema informatico dell’URSS che monitorava l’attività missilistica americana andò in tilt, si sfiorò lo scoppio della Terza Guerra Mondiale. E fu un essere umano a impedire che ciò accadesse.

Più in qua nel tempo, si sono verificati dei crolli nelle borse valori a livello mondiale che sono stati innescati da meccanismi automatici sfuggiti al controllo dei tecnici. In questi casi siamo stati in grado di intervenire e arrestare il processo degenerativo o distruttivo messo in atto dalle macchine. E’ importante rammentare sempre che le macchine, i robot e i computer non agiscono intenzionalmente. Il loro potere è il riflesso del nostro.

Pensiamo, inoltre, all’impatto che l’Intelligenza Artificiale può avere, per esempio, sui processi elettorali. E’ già accaduto che siano stati diffusi in Rete contenuti falsi generati proprio dall’Intelligenza Artificiale, il che può falsare i risultati proprio perché tali contenuti appaiono, a prima vista, del tutto genuini. I falsi si nutrono, è importante rammentarlo, della dimensione emotiva della comunicazione.

Nel spazio di soli cinquant’anni il mondo dell’informatica ha attraversato tre grandi rivoluzioni: la prima, attorno alla metà degli anni ’80 del secolo scorso, con la nascita dei personal computer. La seconda, nel corso degli anni ’90 e a cavallo del nuovo millennio, con la nascita del Web e con la diffusione generalizzata di Internet. La terza, all’inizio degli anni ’10, con la diffusione degli smartphone e degli altri dispositivi mobili. La quarta rivoluzione, ormai avviata, è quella della Intelligenza Artificiale.

Ma l’IA può essere davvero “creativa”? Ci sostituirà? Finora i computer e la rete erano stati strumenti prevalentemente “al servizio dell’essere umano”. Oggi questa situazione sembra cambiare radicalmente: per la prima volta svolgono compiti che siamo abituati a considerare “creativi”. Ma cos’è, esattamente, l’intelligenza artificiale generativa? 

I sistemi di Intelligenza Artificiale generativa producono testi, immagini, suoni nuovi, diversi da quelli su cui sono stati addestrati: il corpus di addestramento influenza e indirizza il processo di generazione, ma questo processo produce oggetti informativi nuovi.

ChatGPT e i molti altri sistemi generativi nati negli ultimi anni traducono un articolo, scrivono o commentano una poesia, creano immagini quasi impossibili da distinguere da quelle prodotte da artisti umani, possono comporre (e non solo eseguire) un brano musicale. E possono eseguire autonomamente compiti anche assai complessi: alcuni potenzialmente utilissimi, altri assai pericolosi, come la guida di un missile o la creazione di nuove tipologie di virus informatici.

Ma cos’è realmente l’Intelligenza Artificiale generativa?

Come ha potuto raggiungere in pochi anni risultati così sbalorditivi?

E può essere davvero “creativa”? Può raggiungere e superare (o addirittura sostituire) l’intelligenza umana?

Che effetti avrà sul mercato del lavoro, o in settori come l’istruzione e la formazione?

Può essere pericolosa, e in quali modi? Come possiamo essere sicuri che rispetti i nostri valori?

E quali sono, esattamente, i valori che desideriamo veder rispettati, considerando che società umane diverse sembrano adottare sistemi valoriali almeno in parte diversi e in qualche caso anche conflittuali?

Alcune delle domande che ci poniamo davanti a questi sistemi sono legate al desiderio di capirli meglio: comprendere quali sono i loro principi di funzionamento, qual è stata la loro evoluzione e cosa potrà succedere in futuro.

Altre sono domande decisamente filosofiche, e richiedono una riflessione non solo sulla possibilità di costruire sistemi intelligenti, ma sulla natura stessa dell’intelligenza (a partire dall’intelligenza umana), o sul significato di concetti come quelli di intenzionalità, creatività o, ancora, sui sistemi di valori che dovrebbero guidare la nostra ricerca in questo settore.

Sono domande che hanno tutte un elemento comune: per provare a rispondere in maniera sensata occorre sapere di cosa stiamo parlando. Ed è esattamente questo il problema. Sarebbe infatti fuorviante pensare di poter rispondere a domande difficili senza prima capire un po’ meglio come funzionano i sistemi di Intelligenza Artificiale odierni.

Purtroppo, in questo campo errori di comprensione e fraintendimenti non mancano, neanche fra gli specialisti.

È così abbastanza comune sentir dire che l’IA generativa fornisce le sue risposte “copiando” dal proprio corpus di addestramento (mentre non è affatto così) o che l’IA generativa è sostanzialmente stupida perché commette moltissimi errori: l’attribuzione o meno di intelligenza a sistemi di questo tipo dipende largamente da cosa intendiamo per “intelligenza”, e in molti casi può essere senz’altro problematica.

È bene infine ricordare che in molti casi, anche fra gli esperti, le risposte alle “domande difficili” sono tutt’altro che chiare e univoche. Interrogati sul loro grado di accordo o disaccordo con l’idea che alcuni sistemi di IA generativa “capiscano” il linguaggio, 480 ricercatori del settore si sono mostrati divisi in maniera quasi perfettamente uguale fra le quattro risposte possibili previste dall’indagine: accordo totale, accordo parziale, disaccordo parziale, disaccordo totale. E’ un fatto assai significativo, poiché indica che neppure gli specialisti, ora, sono in grado di fornire risposte chiare.

 

Michele Marsonet

 

 

Statistiche

Utenti registrati
19
Articoli
3418
Web Links
6
Visite agli articoli
18841886

La registrazione degli utenti è riservata esclusivamente ai collaboratori interni.

Abbiamo 138 visitatori e nessun utente online