Eleonora de Fonseca Pimentel, ricordandoti

深度搜尋 Dalla Cina con furore

Condividi

L’Intelligenza Artificiale viene spesso presentata come una rivoluzione inevitabile, un progresso tecnologico di cui non si può fare a meno, proprio come lo furono l’elettricità, il motore a scoppio, l’informatica. Ci viene detto che non è necessario capire come funziona, basta usarla.

Le IA sono vendute un po’ come le automobili, nessuno è tenuto a sapere come funziona un motore endotermico o elettrico, l’importante è saper premere un pulsante, tirare una leva, spingere un pedale e osservare regole di condotta del veicolo ricevute attraverso un’educazione approssimativa. Negli ultimi tre anni, le strade dell'Unione Europea hanno registrato un numero significativo di vittime a causa di incidenti stradali.

Nel 2021, si sono contati circa 20.000 decessi, seguiti da un aumento nel 2022 con oltre 20.600 vittime, e una lieve diminuzione nel 2023, con 20.400 morti.

Questi dati evidenziano una media di circa 20.333 decessi all'anno nel triennio considerato. Queste cifre sottolineano come, nonostante le normative e le campagne di sensibilizzazione, la sicurezza stradale rimanga una sfida significativa. Una delle cause principali di questi incidenti è attribuibile a negligenza e imperizia da parte dei conducenti, spesso dovute a un'educazione alla guida approssimativa.

 

Questo debole sistema formativo, volutamente semplificato per rendere l'uso dell'automobile accessibile a un vasto pubblico, il più vasto possibile, non prepara adeguatamente gli utenti ad affrontare le complessità e i rischi della guida.

Il parallelismo con l'adozione dell'Intelligenza Artificiale è evidente. Proprio come l'automobile è stata resa disponibile a tutti senza una formazione approfondita, l'IA viene introdotta d’imperio nella società senza una comprensione completa delle sue implicazioni: buttiamola lì, vediamo che succede.

Questo approccio potrebbe portare a conseguenze indesiderate, proprio come l'uso sempre meno consapevole ma intensivo delle automobili ha portato a un elevato numero di incidenti mortali, che non fanno più notizia.

È essenziale riconoscere che l'accessibilità di una tecnologia non dovrebbe mai compromettere la sicurezza e la preparazione degli utenti.

Una formazione adeguata e una comprensione approfondita sono fondamentali per garantire che l'adozione di nuove tecnologie avvenga in modo sicuro e responsabile, minimizzando i rischi associati. Tuttavia, la risposta politica a questi problemi segue sempre lo stesso schema: inasprire le pene anziché intervenire con una reale educazione preventiva.

L’introduzione di nuovi reati, come lomicidio stradale, o regolamenti formali, come lEU AI Act, sono misure che non risolvono il problema alla radice, ma servono essenzialmente a deresponsabilizzare gli amministratori.

Si impongono norme severe sugli utenti finali, senza mettere in discussione il sistema che ha creato il rischio. Non si previene, si punisce. Non si educa, si criminalizza.

Un modello inquisitorio allo stato puro. Il risultato è che l’utente viene trattato come colpevole a prescindere, mentre chi ha reso la tecnologia accessibile senza formazione si nasconde dietro leggi di facciata che danno l’illusione di controllo. Del resto, l’EU ci ha abituato da tempo a veder normare cose su cui non ha il minimo controllo, l'EU AI Act è un esempio perfetto di una regolamentazione priva di efficacia pratica.

L'Unione Europea sta normando una tecnologia che di fatto non produce, mentre i veri sviluppatori di IA – grandi aziende statunitensi e cinesi – non riconoscono alcuna autorità normativa dell’EU. Il concetto di sicurezza by design, tanto propagandato dal regolamento, non è concepito per aderire alle norme europee, perché i produttori di IA non hanno alcun incentivo a conformarsi a regole che non incidono positivamente sul loro business.

L’unico strumento reale che l’EU può applicare è vietare l’accesso a determinate applicazioni all’interno del suo territorio. Tuttavia, questo tipo di limitazione è facilmente aggirabile con strumenti di uso comune come VPN o mirror online.

 In sostanza, il regolamentonon impedisce lo sviluppo dell’IA, non ne influenza le logiche di addestramento, non ne garantisce un utilizzo etico, ma si limita a bloccare alcuni servizi per il pubblico europeo, senza impedirne l’accesso a chi ha un minimo di competenze informatiche.

L’EU sta tentando di normare qualcosa che non può realmente controllare, così la regolamentazione diventa un esercizio di potere simbolico, come le sanzioni alla Russia, utile solo a giustificare l’inerzia politica davanti a una tecnologia che cresce fuori dal suo perimetro di influenza. Tuttavia, c’è un ulteriore inganno che si aggiunge al problema, l’equivoco generato dalla parola "intelligenza".

L’uso del termine"intelligenza artificiale" crea un’ambiguità profonda, inducendo le persone a pensare che queste macchine possiedano un’intelligenza paragonabile a quella umana, quando in realtà sono solo strumenti computazionali avanzati.

Questa distorsione alimenta false aspettative, spingendo a credere che l’IA possa sviluppare coscienza, comprensione o autonomia decisionale, quando in realtà il suo funzionamento è vincolato a modelli statistici, pattern riconoscibili e addestramenti basati su enormi quantità di dati preesistenti, spesso inattendibili.

Un’IA generativa risponde in base a come viene addestrata, se l’addestratore è incompetente, l’IA sarà altrettanto inefficace. Se l’addestratore è malevolo, l’IA diffonderà intenzionalmente informazioni errate o distorte. Non esiste in essa un'autonomia cognitiva, l’IA generativa non ragiona, ma elabora output statistici in base ai dati ricevuti.

Questa mistificazione si inserisce perfettamente nella moderna strategia pedagogica. Si stanno creando menti computazionali anziché menti critiche, formando generazioni di studenti capaci di eseguire operazioni e interagire con sistemi digitali, ma sempre meno inclini a porsi domande, mettere in discussione le informazioni e sviluppare un pensiero indipendente.

Una società in cui il consumatore è educato a eseguire, ma non a riflettere; a comprare, ma non a dubitare.Questa è la narrazione dominante e la strategia commerciale su cui si basano le grandi aziende tecnologiche.

Il loro scopo non è quello di rendere il cittadino un individuo consapevole e critico, ma un utente fidelizzato, un consumatore abituato a ottenere tutto e subito, senza porsi domande sulla struttura che regge la macchina.

La promessa è un accesso istantaneo al sapere, un mondo in cui l’IA risponde, pensa, crea al posto nostro, e in cui l’unico compito umano è chiedere e ricevere. Questa è la leva edonista, la strategia di marketing perfetta, il godimento immediato e infinito, l’illusione di avere il mondo a portata di mano senza alcuno sforzo.

L’equivoco semantico non è un errore casuale, ma un elemento fondamentale della moderna strategia pedagogica che sta trasformando l’educazione nelle scuole.

Si stanno creando menti computazionali anziché menti critiche, formando generazioni di studenti perfettamente in grado di eseguire operazioni, rispondere a test a risposta multipla e interagire con sistemi digitali, ma sempre meno capaci di porsi domande, mettere in discussione le informazioni e sviluppare un pensiero indipendente in una società in cui il consumatore è perfettamente educato a eseguire, ma non a riflettere, a comprare, ma non a dubitare.

In Italia, questa trasformazione non è avvenuta per caso, ma è stata il risultato di una serie di riforme scolastiche che, progressivamente, hanno ridotto lo spazio del pensiero critico a favore di un’istruzione sempre più finalizzata all’inserimento nel mercato del lavoro e all’adattamento alle richieste del sistema economico.

Le riforme degli ultimi 30 anni hanno contribuito a plasmare un modello educativo in cui la scuola non è più il luogo della crescita intellettuale, ma una fabbrica di competenze standardizzate, un laboratorio per la produzione di consumatori perfettamente allineati al mercato.

La scuola non è più uno spazio di elaborazione autonoma del sapere, ma una palestra di adattabilità tecnologica, dove il valore della conoscenza viene misurato solo in termini di produttività immediata.

Il sistema educativo contemporaneo ha progressivamente adottato un modello basato su crediti e debiti formativi, trasformando il rapporto tra studente e istituzione in una dinamica che riflette logiche economiche.

In questo schema, lo studente accumula "crediti" attraverso il completamento di corsi e attività, mentre eventuali mancanze o insufficienze si traducono in "debiti" da colmare. Questo approccio, sebbene mirato a quantificare e standardizzare il percorso formativo, introduce una mentalità che assimila l'istruzione a una transazione economica, dove l'apprendimento diventa una merce da acquisire e contabilizzare.

Questo modello trova le sue radici nell'ideologia neoliberista, che promuove la mercificazione di vari aspetti della società, inclusa l'istruzione. Il neoliberismo enfatizza l'efficienza, la competizione e la responsabilità individuale, valori che si riflettono nel sistema dei crediti e debiti formativi.

In questo contesto, la scuola non è più vista come un luogo di crescita intellettuale e sviluppo del pensiero critico, ma come un'istituzione che fornisce "servizi" educativi, con gli studenti ridotti a "clienti" che devono accumulare crediti per "acquistare" il proprio futuro professionale.

Questo paradigma educativo funge da strumento di soft power per l'ideologia neoliberista, plasmando le menti dei giovani a conformarsi a una logica di mercato fin dalla tenera età.

Gli studenti imparano a percepirsi come imprenditori di sé stessi, responsabili unici del proprio successo o fallimento, interiorizzando così i principi della competizione e dell'efficienza tipici del mercato. Questo processo di trasformazione della missione dell’istruzione contribuisce a creare una società di individui orientati al consumo e alla produttività, a discapito della solidarietà e del pensiero critico.

Le riforme della seconda repubblica hanno introdotto cambiamenti significativi nel sistema educativo, enfatizzando la valutazione quantitativa delle competenze e l'allineamento dell'istruzione alle esigenze del mercato del lavoro.

Di conseguenza, la formazione scolastica si è sempre più orientata verso la produzione di "capitale umano" funzionale al sistema economico, riducendo lo spazio per lo sviluppo del pensiero critico e della consapevolezza civica. Questo allineamento tra educazione e logiche di mercato dovuto alla trasformazione della scuola in un'istituzione al servizio del consumismo e della conformità sociale.

La perdita della funzione emancipatrice dell'educazione, sostituita da un'istruzione finalizzata a creare "consumatori modello" anziché cittadini consapevoli e critici, coincide con l'adozione del sistema di crediti e debiti nel contesto educativo, rappresentando un chiaro esempio di come l'ideologia neoliberista utilizzi il soft power per influenzare e modellare le strutture sociali e culturali.

Trasformando l'educazione in una merce e gli studenti in consumatori, si promuove una visione del mondo in cui i valori economici prevalgono su quelli umanistici, con implicazioni profonde per la società nel suo complesso.

L'IA è il booster perfetto di questo sistema educativo, perché accelera la standardizzazione del sapere mediocre, elimina la necessità di sviluppare capacità critiche e riduce l’apprendimento a un processo di input-output, in cui la risposta viene generata automaticamente senza che lo studente debba sviluppare un pensiero autonomo.

Con l’uso crescente delle IA nei sistemi educativi, il modello del credere senza comprendere diventa la norma, si passa da una scuola che insegna a ragionare a una scuola che allena a interagire con macchine progettate per dare risposte preconfezionate.

Ma il vero obiettivo di questa trasformazione è ancora più profondo, il percorso scolastico non solo modella il cittadino come consumatore passivo, ma lo prepara all’accettazione del lavoro precario come unica forma possibile di emancipazione.

Il concetto di stabilità lavorativa, un tempo garantito dalle strutture di welfare, viene progressivamente eroso e sostituito da un’idea di impiego flessibile, temporaneo, mobile, adattabile alle esigenze del mercato.

Il sistema educativo non è più uno strumento di emancipazione sociale, ma un meccanismo di addestramento alla precarietà. Questo processo rende il modello italiano progressivamente più simile al modello statunitense, in cui il lavoratore è visto come un imprenditore di sé stesso, privo di tutele collettive e costretto a competere costantemente per garantirsi un posto nel mercato.

Lo smantellamento delle strutture di welfare non è una conseguenza imprevista, ma una strategia deliberata per trasferire sempre più responsabilità dall’apparato statale all’individuo-forma merce prestatrice d’opera, che diventa colpevole della propria precarietà e indigenza, esattamente come lo studente è ritenuto responsabile dei suoi debiti formativi.

In questo contesto, l’IA diventa l’agente perfetto del neoliberismo, perché riduce ulteriormente la necessità di avere in “squadra” un lavoratore consapevole e critico, favorendo invece un individuo che si adatta volentieri alle esigenze del mercato, giustificandole anzi baciandone le catene.

L’illusione della libertà data dalla tecnologia nasconde il fatto che le scelte sono già preconfigurate, le opzioni già stabilite, e il percorso già tracciato. Si può scegliere tra A, B o C, ma non oltre. L’IA non emancipa, normalizza. Non libera, standardizza. Ma questa tecnologia ha anche un altro costo che nessuno sembra voler considerare, un costo che non pagheremo noi, ma le generazioni future.

Oltre il 60% delle interazioni con IA generativa riguarda chat futili, generazione di meme e conversazioni pseudo-empatiche, ovvero con uno psicoterapeuta virtuale o con l’amico immaginario che ti offre una tastiera su cui piangere, una fumeria d’oppio dove riparare dalla solitudine e dal mal di vivere, una fabbrica di Hikikomori (fonte: Pew Research Center).

L’energia consumata per produrre una sola immagine con IA equivale a quella necessaria per caricare tre smartphone per un anno, il peso ambientale è enorme, ma il beneficio è spesso nullo. L’IA è una cambiale che verrà pagata tra venti, trenta, cinquanta anni, quando il suo impatto ambientale, sociale ed economico diventerà impossibile da ignorare.

L’illusione che l’IA sia immateriale è tra le più grandi menzogne del nostro tempo. Ogni interazione con un modello generativo consuma energia, e il costo computazionale dell’intelligenza artificiale cresce in modo esponenziale.

Le server farm che sostengono questi modelli necessitano di una quantità di energia che supera quella di intere città, e più l’IA si espande, più il fabbisogno energetico diventa insostenibile. Le grandi aziende tecnologiche hanno già individuato la loro soluzione immediata, un ritorno massiccio all’energia nucleare.

Microsoft ha puntato alla riattivazione della centrale di Three Mile Island, il sito di uno dei più noti incidenti nucleari della storia, per convertirlo a un impianto che alimenterà i suoi data center, incentivato soprattutto dai crediti d’imposta dedicati al nucleare che giacciono inutilizzati ormai da anni.

Elon Musk spinge anch’egli per il ritorno all’energia atomica, soprattutto in Europa, Donald Trump contemporaneamente incentiva il drilling petrolifero per sostenere la domanda energetica del settore tecnologico, e sia il mining delle terre rare in Ucraina e Serbia, la quale ha i più grandi giacimenti di litio del mondo.

La corsa alle IA non è una corsa all’innovazione, ma una corsa all’accaparramento di risorse giustificata da un movente condiviso dai potenti del pianeta. Eppure, il problema intrinseco del nucleare non è la produzione di energia in modo sicuro, ma lo smaltimento delle scorie.

Non esistono ancora tecnologie adeguate a inertizzare definitivamente i rifiuti radioattivi, e non esistono depositi sicuri da resistere abbastanza a lungo in attesa del tempo di decadimento naturale.

La Germania ha provato a utilizzare ex miniere come siti di stoccaggio, ma queste si sono allagate dopo pochi anni, ed oggi stanno di nuovo traslocando chissà dove. L’Italia, con il suo territorio ad alta sismicità e dissesto idrogeologico, non potrebbe mai ospitare un deposito che sia sicuro per centinaia di anni.

A Chernobyl, la cupola di contenimento costruita dopo il disastro è stata progettata per durare cento anni, ma poi sarà compito delle generazioni future trovare una soluzione, perché oggi ci limitiamo a lasciare loro in eredità il problema. Se non siamo in grado di gestire i rifiuti delle centrali esistenti, pensare che la soluzione per sostenere l’IA sia un’espansione incontrollata del nucleare è pura follia. Il vero nodo, però, non è solo energetico.

Il controllo sulle IA non è solo nelle mani delle Big Tech, ma anche degli Stati che ne stanno facendo un’arma di soft power. La Cina ha sviluppato DeepSeek, un’IA apparentemente potente, ma in realtà costruita per filtrare e censurare l’informazione. Sottoponendola a quesiti più complessi, si è notato come il sistema generi risposte vaghe, eviti di approfondire argomenti e spesso suggerisca di cercare informazioni altrove invece di costruire un’indagine collaborativa tra uomo e macchina.

Se messa sotto pressione concettuale, DeepSeek evita di rispondere o minimizza l’interlocutore con toni provocatori.

Non è progettata per il dialogo critico, ma per ricondurre il pensiero entro confini precisi.

Questo modello non è un’eccezione, ma un’anticipazione di ciò che potrebbe accadere con tutte le IA se il controllo restasse nelle mani delle grandi corporazioni o degli stati autoritari.

Il Libretto Rosso era un testo che ogni cittadino cinese doveva possedere, leggere e interiorizzare come unica fonte di verità politica.

Il suo scopo non era educare, ma condizionare e standardizzare il pensiero della popolazione, eliminando il dissenso attraverso la ripetizione costante di una visione unica e incontestabile della realtà.

DeepSeek opera nello stesso modo, ma in forma digitale, non impone cosa leggere, ma decide cosa rendere accessibile e cosa far sparire nel silenzio digitale. Parallelamente alla narrativa commerciale che presenta l’IA come una benedizione per l’umanità, si è sviluppata una narrativa opposta, altrettanto monolitica e dogmatica, quella della demonizzazione dell’IA.

Questo tipo di narrazione è sostenuto da filosofi e accademici senza una reale esperienza diretta con la tecnologia, classici tipi che, non sapendo sostituire neanche una lampadina (e se ne vantano), si lanciano al galoppo in speculazioni astratte e allarmistiche.

Il problema di questo approccio è che, pur ponendo domande formalmente valide, non offre strumenti critici concreti per comprendere l’IA e il suo impatto. Inoltre, questa narrazione si diffonde attraverso canali accademici di nicchia – riviste scientifiche, pubblicazioni filosofiche, circoli ristretti di intellettuali – che non raggiungono le nuove generazioni, e che forse non ne hanno, fortunatamente, neanche l’intenzione.

Di questo tipo di intellettuale il compianto Leon Max Lederman ne ha fatto più volte involontariamente “coriandoli”, specie nel racconto di un sogno, avvenuto mentre era addormentato su una passerella del Fermilab, durante il quale gli era apparso Democrito, per nulla turbato da quell’enorme e affilatissimo coltello, il quale gli chiese se avesse trovato l’atomo.

Nel frattempo, il mainstream segue la logica commerciale delle grandi corporazioni, rafforzando il divario intergenerazionale e interculturale, da un lato chi vede nell’IA una promessa, dall’altro chi la condanna senza comprenderla. Su tutto questo grava un dato innegabile, cioè che le IA generative oggi accessibili al pubblico derivano da ricerche in ambito militare e scientifico avanzato. Ciò che viene venduto come un prodotto di largo consumo è, in realtà, una versione semplificata di strumenti ben più potenti, sviluppati per strategie belliche e geopolitiche.

Il settore civile si nutre di scarti tecnologici, vera e propria spazzatura spacciata per oro, mentre le applicazioni più avanzate restano riservate ai governi e agli apparati di sicurezza nazionale. L’illusione che l’IA sia una tecnologia nata per migliorare l’umanità si scontra con il fatto che le sue radici affondano in ambiti dove il progresso è valutato in termini di vantaggio strategico di controllo delle risorse, non di beneficio collettivo.

Il debito generato dall’IA non è solo ambientale, è sociale, culturale, etico. Se non troviamo risposte ora, saranno le generazioni future a pagarne il prezzo. Per aspera ad astra.

 

Luigi Speciale

 

Statistiche

Utenti registrati
19
Articoli
3355
Web Links
6
Visite agli articoli
18277280

La registrazione degli utenti è riservata esclusivamente ai collaboratori interni.

Abbiamo 495 visitatori e nessun utente online