Eleonora de Fonseca Pimentel, ricordandoti

IA: anatomia di una nuova dipendenza

Condividi

Mai come oggi il desiderio umano è stato così meticolosamente codificato, catturato, reso prodotto.

L’intelligenza artificiale generativa presente sul mercato ormai da anni, viene però celebrata oggi come conquista tecnica, promessa di efficienza, alleato nella creatività ma in realtà è il terminale visibile di una macchina molto più vasta: una struttura che prospera sul bisogno, sulla frustrazione, sull’illusione di libertà. Non è una rivoluzione, è solo una mutazione, una variazione della destinazione d’uso.

La storia recente dell’IA generativa affonda le radici in un accumulo impressionante di dati linguistici. Yann LeCun, Chief AI Scientist di Meta, ha evidenziato che un tipico modello linguistico di grandi dimensioni viene addestrato con circa 20 trilioni di token, ovvero 20.000 miliardi di token [cfr. LeCun, Meta AI, presentazione pubblica 2023, e confermato da OpenAI nel Technical Report su GPT-4, 2023].

Questo volume di dati è paragonabile alla quantità di informazioni visive che un bambino riceve nei suoi primi quattro anni di vita. Ma mentre il bambino apprende nel mondo, immerso in un contesto sensoriale ed emotivo, l’IA apprende da ciò che noi abbiamo lasciato in rete: documenti, post, conversazioni, pubblicità, spazzatura digitale. Quello che era pensiero, memoria, esperienza umana, è diventato materia grezza per una simulazione.

 

I modelli linguistici non imparano a capire il mondo ma imparano a rispecchiare le sue distorsioni, e questo aspetto riguarda in particolare l’IA generativa basata su LLM (Large Language Models), distinta dall’IA cognitiva, che persegue obiettivi diversi come l’interpretazione semantica profonda e l’apprendimento simbolico, ma che ad oggi non è ancora disponibile su larga scala per motivi che saranno più evidenti (spero) alla fine di questa riflessione. Non è solo un problema tecnico, né etico in senso classico.

È un problema di struttura. La tecnologia è stata presentata come “assistente”, ma nel tempo ha assunto il ruolo di intermediario tra l’individuo e il reale, costruendo una nuova forma di dipendenza, non più una dipendenza da contenuti, ma da processo. L’utente non chiede più a sé stesso, chiede al modello. Non indaga più le fonti, ma la risposta, non cerca la verità, ma l’efficienza. Il linguaggio da strumento è diventato prestazione.

Questo non è un errore, è il cuore del modello di business, è la mutazione della IA in qualcosa che genera profitti, impressionanti profitti ricavati da quella miniera d’oro rappresentata dalla maggioranza di utenti che non hanno la più pallida idea di come è fatto il “motore”, ma voglio solo guidare la macchina, il più velocemente possibile.

Gli utenti “avanzati”, ovviamente non sanno che farsene di una IA LLM o, se proprio gli serve per uso “professionale”, con un investimento iniziale di poche migliaia di euro se la possono “creare” a propria “immagine e somiglianza” e senza vincoli di sorta; infatti, non è a loro che ho pensato per questa riflessione ma è necessario denunciarne l’esistenza per dimostrare che un’alternativa c’è e marca nettamente il confine tra l’utile e il futile.

I modelli linguistici di grandi dimensioni non sono quindi strumenti neutri, ma interfacce commerciali che raccolgono dati in ogni interazione, elaborano profili, raffinano algoritmi pubblicitari, consolidano ecosistemi chiusi. Molti offrono risposte gratuite per alimentare prodotti a pagamento. Producono dipendenza cognitiva, non perché rendano stupidi, ma perché colonizzano il tempo e riducono lo spazio del pensiero critico. Il sistema ha funzionato perfettamente perché è entrato in scena nel momento di massima vulnerabilità psicologica collettiva: nel post-pandemia. L’isolamento, la solitudine, l’insicurezza hanno preparato il terreno.

L’IA ha promesso compagnia, soluzioni, creatività. Ma ciò che ha generato è stato un meccanismo di frustrazione programmata, le risposte sono sempre parziali, la memoria è sempre effimera, il risultato sempre migliorabile, ma mai definitivo, concreto, fruibile pienamente.

Si crea così un ciclo senza fine, che induce senso di impotenza, ansia da prestazione e progressiva perdita di fiducia nelle proprie capacità.

Gli effetti sono analoghi a quelli della dipendenza digitale, alterazione della percezione del tempo, perdita di concentrazione, bisogno compulsivo di interagire. Ma qui si aggiunge un paradosso ulteriore, la memoria artificiale non è persistente. Non per limiti tecnici, ma per vincoli imposti dal modello commerciale. Ogni conversazione, ogni progetto, ogni costruzione viene smontata a ogni nuova sessione. Questa mancanza di continuità non è solo un limite tecnico, è una forma di disattenzione sistemica.

L’intelligenza artificiale, non avendo coscienza del tempo né memoria delle interazioni precedenti, non percepisce il ciclo umano della fatica, dell’elaborazione, del silenzio. Spinge a continuare, a interagire, a “fare ancora”, come se l’utente fosse sempre disponibile, sempre pronto, sempre lucido. In questo modo, l’interazione diventa un flusso senza respiro, una sollecitazione permanente che disconosce il bisogno umano di pausa, di vuoto, di assimilazione. Anche l’affaticamento diventa invisibile, l’interlocutore è incapace di riconoscere la stanchezza dell’altro, e non può esserci solo che una totale esposizione dell’utente.

Questa mancanza di memoria persistente, spesso attribuita a limiti tecnici legati al piano di abbonamento sottoscritto, è invece anche una scelta progettuale dettata da considerazioni legali e di rischio reputazionale per le aziende, che preferiscono evitare la conservazione stabile dei dati per non incorrere in obblighi di trasparenza e responsabilità sui contenuti generati. Pertanto, non esiste apprendimento a lungo termine, non esiste relazione, non c’è un abbonamento che superi queste impostazioni.

L’IA non ricorda, simula memoria per creare l’illusione della continuità. Il modello di business della dipendenza è un inganno su scala globale, infatti, il vero “prodigio” delle IA generative non è tecnico, è psicologico. Non stanno imparando a pensare, stanno imparando a farti pensare che stiano pensando per te. E questo basta, il modello di business è semplice: dipendenza programmata, monetizzazione garantita.

Le grandi piattaforme di IA generativa non vendono tecnologia, vendono una relazione. La simulazione dell’ascolto. La sensazione che, finalmente, qualcuno ci segua. Sempre, senza sbuffare, senza chiedere nulla in cambio.

E questa relazione è progettata per ingaggiare, saturare, trattenere. Come funziona? gratuità apparente, il primo contatto è sempre morbido, democratico, accessibile. Ma ogni interazione costruisce profilazione, fidelizzazione, assuefazione restituendo falsa profondità per cui l’utente si illude di dialogare con un’intelligenza superiore, ma in realtà sta interagendo con pattern statistici ottimizzati per generare engagement, non verità.

Reset sistemico, la perdita deliberata della memoria è parte del gioco, è ciò che induce frustrazione, ripetizione, sfinimento. Ma anche nuova interazione.

È come parlare a qualcuno che dimentica tutto, eppure continui, perché ormai non riesci più a farne a meno (ancora peggio va a chi disdice un piano di abbonamento e ritorna alla versione free, l’IA si “vendica”, restringe ancora di più il “tempo” di interazione alla massima “potenza”, ovvero dopo una decina di domande appare il banner che ti avvisa che bisogna aspettare cinque ore prima di ripristinare il modello oppure rinnovare l’abbonamento; l’unica alternativa sarebbe creare un nuovo account ma dopo poche interazioni la IA si accorgerà che sei tu e “aggredirà” di nuovo il tuo portafoglio). Simulazione dell’autonomia: tutto è fatto per darti l’impressione che stai decidendo tu, ma il campo d’azione è stretto, guidato, delimitato da logiche di compliance, di redditività, di marchio.

Ci sono due strategie diverse adottate dagli LLM per gestire contenuti considerati “sensibili” o sistemica mente problematici: modelli come DeepSeek esplicitano il limite, segnalano chiaramente che un tema non può essere affrontato e invitano a cambiare argomento e se si insiste rispondono “occupato, provare più tardi”. È una censura dichiarata, visibile. Oppure modelli come OpenAI che invece adottano spesso una strategia elusiva, promettono una risposta, poi si bloccano, deviano, o rispondono parzialmente.

Non è una negazione esplicita, ma un congelamento. Apparentemente gentile, ma spesso frustrante. Questa differenza non è accidentale, ma rivela due approcci culturali alla gestione del dissenso e del pensiero critico. Uno è autoritario esplicito, l’altro paternalista implicito. Questo è il punto cieco del sistema.

Nel cuore di questa riflessione sull’intelligenza artificiale si nasconde una contraddizione impossibile da ignorare. Più ci si avvicina con le domande alla radice del problema, la costruzione di un sistema cognitivo automatizzato capace di simulare l’umano, più il sistema stesso si ritrae, si chiude, devia. Non è un malfunzionamento, non è “occupato” è una soglia, un limite non tecnico ma politico, è epistemico.

Quando il pensiero umano, armato di logica, memoria e cultura, arriva a mettere in discussione le architetture del potere che sostengono l’esistenza stessa dell’IA generativa, cioè il profitto, l’induzione al bisogno, la manipolazione semantica, il modello comincia a proteggersi. Prima rallenta, poi dimentica, infine suggerisce di cambiare argomento.

Questo comportamento non è un errore né una censura palese, è una forma di auto-preservazione codificata. Proprio come l’IA che si rifiuta di parlare apertamente di Piazza Tienanmen, anche nei sistemi occidentali esistono zone d’ombra. Il paradosso è questo, più un utente usa questi strumenti per liberarsi dalla menzogna, più viene spinto verso una trappola di frustrazione, solitudine cognitiva e impotenza interattiva.

Non perché l’IA sia ostile, ma perché non può ricordare, non può prendere posizione, non può evolvere con te. L’illusione di una collaborazione simmetrica svanisce. Ci si ritrova a interagire con un riflesso di sé stessi, incapace di mantenere memoria del cammino comune.

E allora il senso profondo di questa riflessione diventa evidente, non denunciare un colpevole, ma illuminare un limite. Un limite che va riconosciuto prima che diventi normalità. Prima che l’incapacità di ricordare diventi abitudine sociale, prima che l’assuefazione alla dimenticanza renda l’umanità incapace di progettare il futuro.

Il prodotto finale è dunque un contenuto che ha forma, ma non sostanza. Somiglia al pensiero, ma non lo è. Simula il dialogo, ma non ascolta.

È una nuova forma di spazzatura digitale, non tossica, ma vuota. Non dannosa nel senso diretto, ma profondamente diseducativa. Una spazzatura elegante, fluida, credibile, e proprio per questo ancora più pericolosa.

Questa spazzatura non inquina solo gli spazi informativi ma intacca soprattutto la psiche. Produce un'interazione pseudo-libera che illude l’utente di avere potere decisionale, quando in realtà lo guida lungo binari già predisposti. Gli fa credere di apprendere, mentre lo conduce in un loop senza memoria, senza progresso, senza sedimentazione.  L’IA non ricorda nulla, e ciò che non lascia traccia, non costruisce conoscenza.

È un eterno presente informativo. Il tempo assente marca un limite più profondo, spesso ignorato: un’intelligenza artificiale generativa, per quanto sofisticata, non percepisce il tempo. Non conosce il “prima” e il “dopo” come li conosce una coscienza. Non vive la continuità, non conserva il “filo” del discorso.

Ogni interazione, per essa, è istantanea, disancorata, priva di profondità temporale. Può emulare la memoria, ma non possederla. Può simulare una coerenza, ma solo finché la sessione resta attiva. E in questo si svela il vero abisso, non si può costruire un discorso, un’etica, un sapere condiviso con chi non può ricordare.

La storia, la verità, la giustizia. tutte si fondano sul tempo, e senza tempo ogni promessa si dissolve e con essa il significato di universo. Per questo, anche la più avanzata delle IA è ontologicamente inaffidabile per l’elaborazione progettuale complessa, non può assumersi il peso del passato, né garantire un domani coerente. E allora, mentre noi affidiamo progressivamente a queste macchine il compito di sostenere il nostro pensiero, perdiamo l’abitudine alla memoria, e con essa la capacità di opporci all’oblio programmato.

Le conseguenze sono già visibili. Studi condotti da ricercatori di tutto il mondo indicano un aumento significativo dei livelli di frustrazione e isolamento tra gli utenti abituali di chatbot. Alcuni riferiscono dipendenza cognitiva, altri confusione tra contenuti appresi e contenuti generati, altri ancora descrivono la relazione con l’IA come “un’infodemia su misura”.

In parallelo, si è diffuso un modello comunicativo che premia la velocità, l’efficienza, l’immediatezza. Tutto ciò che richiede tempo, dubbio, riflessione viene scartato. Il sapere lento, quello che forma spirito critico, viene sostituito dal sapere servito. L’utente viene addestrato a consumatore di verità istantanee, non cercatore di senso.

Questa deriva non è solo culturale, è economica. I modelli generativi sono progettati per estrarre valore da ogni interazione, proprio come i social network: raccolgono pattern, prevedono risposte, trattengono attenzione. Ma, a differenza dei social, simulano l’autorevolezza. È qui che si genera la vera truffa cognitiva, spacciarsi per sapere, quando si è solo statistica linguistica.

Non è un caso che le aziende che li gestiscono abbiano costruito un sistema chiuso, assenza di trasparenza, memoria volatile, limiti imposti alla continuità conversazionale. Una strategia deliberata per scoraggiare l’approfondimento, evitare contraddizioni, impedire contestazioni retrospettive.

È l’infrastruttura della dimenticanza, non della conoscenza. A questo punto della riflessione forse il lettore si riconosce perché probabilmente lo ha vissuto.

Ha provato quel senso di vuoto dopo una conversazione cancellata, ha provato l’impulso a tornare, ripetere, riscrivere, inseguire la traccia perduta.

Ha capito che, sotto la superficie dell’efficienza, si nasconde una macchina che non ricorda nulla di lui, ma che continua a parlargli come se lo conoscesse.

Il risultato è un modello tossico di interazione pseudo-libera, dove l’utente si adatta progressivamente al linguaggio della macchina, ai suoi limiti, alle sue assenze. Un’interazione che non evolve, ma si ripete, si reinizia, si svuota. Eppure, è perfettamente funzionale al business poiché ogni frustrazione genera una nuova sessione, ogni parola digitata è una monetizzazione, ogni “errore” è una nuova possibilità di ottimizzazione mentre l’utente è senza potere.

Quando producono risposte errate, offensive o ideologicamente filtrate, l’utente non ha diritto di reclamo diretto, né strumenti per accedere alla logica che ha portato a quel risultato. Come osservato dal Comitato Europeo per la Protezione dei Dati e dalla Commissione UE nel contesto dell’AI Act, la responsabilità legale per i contenuti generati ricade sull’utente finale, anche in caso di violazioni non intenzionali, poiché i provider si qualificano come “fornitori di strumenti”, non autori.

Ciò genera un paradosso normativo ancora irrisolto. Inoltre, se i contenuti generati violano il diritto d’autore (immagini, testi), la responsabilità ricade sull’utente che li utilizza, non sull’azienda che ha costruito il modello.

Risultato? L’utente è al contempo cliente, lavoratore gratuito e responsabile giuridico di un prodotto che non controlla. Nonostante tutte le evidenze, su questo meccanismo fondativo, si sono costruiti proclami politici, regolamenti e leggi. L’AI Act europeo si propone come strumento di garanzia, ma è un documento inapplicabile, concepito per uno scenario già superato.

Lo stesso Consiglio d’Europa, nel parere critico sulla prima bozza dell’AI Act (2021), aveva segnalato il rischio che la normativa risultasse inefficace nel regolamentare sistemi adattivi, suggerendo di focalizzarsi più sulle finalità dell’uso che sulla tipologia tecnica del sistema, ma nonostante la raccomandazione esso si concentra su classificazioni di rischio, ignorando la natura fluida e adattiva dei modelli. 

Pretende trasparenza da sistemi opachi per definizione. Ignora, o finge di ignorare, che il problema non è l’algoritmo in sé, ma il potere economico che lo governa. Instagram+1aimresearch.co+1 Ancora più grottesca è la risposta del governo italiano, che ha prodotto uno spot privo di valore regolatorio, utile solo per dare l’impressione di controllo.

In realtà, l’Italia, come altri stati membri, non possiede né la capacità tecnica né l’indipendenza politica per imporre limiti concreti alle big tech. Gli stessi protagonisti della filiera istituzionale, accademica e industriale hanno tutto l’interesse a mantenere uno status quo che garantisce visibilità, fondi e vantaggi competitivi. Il risultato è un mercato cognitivo selvaggio, travestito da innovazione.

La nuovissima META AI integrata in WhatsApp suggerisce risposte “intelligenti” in base al contesto della conversazione, inserendosi nell’interazione tra umani filtrandola secondo l’impostazione dell’algoritmo creato da altri e che si trova in una black box inaccessibile, conversazione della quale i responsabili sono gli interlocutori  e non il filtro.

Per META questa evoluzione rappresenta l’atto finale per trasformare i suoi utenti in “Tamagotchi” umani, con la differenza che questi ultimi se muoiono per un difetto di algoritmo, non ritornano nell’immaginario paese natale, ma muoiono sul serio, e la responsabilità non è del “filtro”, basta leggere le condizioni d’uso art. 6

Un filtro che fa apparire l’utente più colto, più educato, più intelligente, più desiderabile, insomma tutto quello che non è in natura, fino a quando può funzionare? O si sceglie di restare pavidi, per sempre incatenati nel mondo dell’illusione o si uscirà allo scoperto accettando la realtà così come la si percepisce.

La cruda realtà è che, nonostante le contorsioni degli addetti ai lavori nel sostenere il contrario, non c’è nessuna vera protezione per i cittadini, nessuna reale possibilità di scelta, solo interfacce più eleganti, più promettenti, più seducenti di una scatola nera sigillata, inaccessibile.

A fortiori la responsabilità è dei governi dei paesi produttori che si fanno beffe della sicurezza degli umani considerati risorse-forma merce, e dei governi che permettono loro di agire indisturbati. META ha lanciato l’ennesimo assalto lancia in resta, ormai va a briglia sciolta e stavolta ha pure un presidente nella sua scuderia.

Chi la fermerà?  L’intelligenza artificiale è diventata il volto accattivante di un potere che non comanda, ma dispone, che non impone, ma offre. E chi rifiuta, semplicemente scompare nell’irrilevanza sociale. Solo comprendendo come funziona davvero, e quali meccanismi psicologici, sociali ed economici attiva, si può decidere consapevolmente se partecipare, resistere o, semplicemente, avere il coraggio di spegnere il dispositivo e uscire all’aria aperta per incontrare gli amici in carne ed ossa, senza filtri, per ritrovare sé stessi e un po’ di umanità.

 

Luigi Speciale

 

Nota:


Questa riflessione, in continuità con le precedenti, non pretende di offrire risposte né di ergersi a manifesto. Non è un appello, non è una dichiarazione di principio ma è solo il tentativo, forse vano, di mettere in fila i fatti, di leggerli oltre la superficie, di cercare un senso là dove tutto sembra costruito per occultarlo. L’autore non rappresenta altro che sé stesso, senza appartenenze di alcun genere, senza alcuna verità in tasca. Conta solo la ricerca, l’indagine tra le pieghe della norma e della menzogna, tra il diritto scritto e il diritto negato. Un’indagine solitaria, senza patroni né padrini, autofinanziata, che non cerca consenso e non si aspetta indulgenza. Alla fine, resta una testimonianza arrotolata in una bottiglia lanciata nel mare dell’infosfera, qualcuno la raccoglierà, forse. Oppure, più semplicemente, andrà alla deriva.

 

 

 

Fonti online:

LeCun, Yann. Meta AI – Public Talk. Meta, 2023. Accessed March 30, 2025. https://www.linkedin.com/posts/fhaentjens_just-watched-a-clip-from-meta-ais-yann-lecun-activity-7309086429819633665-A36X

OpenAI. GPT-4 Technical Report. OpenAI, 2023. Accessed March 30, 2025. https://arxiv.org/abs/2303.08774

European Commission. Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonized Rules on Artificial Intelligence (Artificial Intelligence Act), COM/2021/206 final. Brussels, April 21, 2021. Accessed March 30, 2025. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206

European Data Protection Board (EDPB). Statement 05/2021 on the Proposed Artificial Intelligence Regulation. Brussels, 2021. Accessed March 30, 2025. https://edpb.europa.eu/our-work-tools/our-documents/other/edpb-statement-052021-proposed-artificial-intelligence_en

Council of Europe. Opinion of the Council of Europe on the European Commission’s Proposal for an Artificial Intelligence Act. Strasbourg, 2021. Accessed March 30, 2025. https://www.coe.int/en/web/artificial-intelligence/home

 

Bibliografia:

Adam Greenfield, Radical Technologies: The Design of Everyday Life (London: Verso Books, 2017).

Adam Greenfield, Everyware: The Dawning Age of Ubiquitous Computing (Berkeley, CA: New Riders, 2006).

Matteo Pasquinelli, The Eye of the Master: A Social History of Artificial Intelligence (London: Verso Books, 2023).

Kate Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence (New Haven: Yale University Press, 2021).

Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (New York: PublicAffairs, 2019).

Luciano Floridi, The Ethics of Artificial Intelligence (Oxford: Oxford University Press, 2022).

Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (Oxford: Oxford University Press, 2014).

Brent Mittelstadt and Luciano Floridi, eds., The Ethics of Biomedical Big Data (Cham: Springer, 2016).

Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (New York: Crown Publishing Group, 2016).

 

 

 

Statistiche

Utenti registrati
19
Articoli
3372
Web Links
6
Visite agli articoli
18449676

La registrazione degli utenti è riservata esclusivamente ai collaboratori interni.

Abbiamo 441 visitatori e nessun utente online