Immagine: AI

Articolo di Annamaria Niccoli

Il benessere psicologico degli adolescenti italiani è sempre più precario, segnato da un crescente isolamento e da un confine sottile tra vita reale e vita digitale. Gli studi più recenti lanciano un allarmante: di fronte alla tristezza, all’ansia o all’isolamento, la prima “spalla su cui piangere” non è una più una persona cara, bensì AI, ovvero un algoritmo.

Il 41,8% dei ragazzi si confida con chatbot o algoritmo, prima che con un genitore. La macchina offre un ascolto h24 di “cortesia programmata”. Ma l’allarme è netto: non è l’efficacia dell’IA, ma il fallimento degli adulti e il grave rischio di ritardo diagnostico per disturbi gravi.

Il dato è impressionante, per il 41,8% dei ragazzi la prima figura di riferimento in caso di crisi non è più un genitore, un insegnante, o un amico, ma l’intelligenza artificiale, sotto forma di assistente virtuale. L’AI ha scalato le classifiche dei confidenti giovanili superando le figure umane. Addirittura quasi due ragazzi su tre (63,5%) trovano più utile e più soddisfacente l’aiuto offerto dalla macchina nel confronto con persone in carne ed ossa.

Questo fenomeno non è però una celebrazione dell’efficacia terapeutica dell’IA, ma, al contrariamente è la chiara spia di un fallimento sociale e di un vuoto umano lasciato da adulti spesso assenti, iper-critici o semplicemente incapaci di offrire un ascolto empatico e non giudicante.

L’intelligenza artificiale vince perché dà ciò che il mondo reale non può fornire. AI dà assistenza 24 ore su 24, con assoluta assenza di giudizio. Un chatbot non sgrida, non si aspetta un voto in matematica o in italiano, non esprime disappunto. Offre “cortesia programmata”, un’illusione di sicurezza emotiva che è solo il prodotto di una progettazione algoritmica, non di una vera empatia.

Il delegare all’algoritmo va oltre l’apparente fiducia emotiva, poiché oltre il 42% degli adolescenti chiede consiglio all’IA per scelte importanti della propria vita e rinuncia all’autonomia decisionale in cambio di una risposta rapida e apparentemente infallibile.

L’IA è “l’amico falso” per definizione. Questo amico algoritmo, sempre accondiscendente e senza conflitto o critica costruttiva, può rallentare lo sviluppo emotivo cruciale. Impedisce ai ragazzi di sviluppare la resilienza, di imparare a gestire frustrazione e conflitti elementari fondamentali nell’instaurare relazioni mature e una personalità adulta.

Il pericolo più grande è appunto il ritardo diagnostico. Un conforto immediato e superficiale rischia di normalizzare un disagio serio, spingendo il giovane e la famiglia a non cercare un vero specialista. Il 9% degli adolescenti si è già isolato volontariamente per problemi psicologici, fenomeno degli Hikikomori, il 12% ricorre a psicofarmaci senza prescrizione. In questo scenario preoccupante l’AI può diventare un pericoloso strumento di autogestione del dolore mentale, aggirando le figure professionali e potenzialmente aggravando disturbi gravi come la depressione, o l’intenzione suicidaria.

È necessario spezzare questa spirale digitale di solitudine. Ora, l’azione urgente non può limitarsi al monitoraggio della tecnologia, ma si deve sanare il divario umano di cui l’intelligenza artificiale è solo un sintomo e uno specchio deformante.

È necessario insegnare l’uso critico dell’AI, non solo per i compiti scolastici, dove il 46% dei ragazzi già non legge più libri, ma soprattutto in campo emotivo, dove la relazione umana deve rimanere un valore primario e insostituibile.

Devono essere imposte rigide regole etiche agli sviluppatori di chatbot per garantire la trasparenza e l’obbligo di reindirizzare immediatamente qualsiasi utente che mostri gravi segnali di disagio clinico ai servizi di emergenza reali. L’AI, in sé, non è il male, è la spia di un fallimento sociale. La sfida non è combattere la tecnologia, ma recuperare l’ emotività e ripristinare la presenza affettiva da parte degli adulti, della scuola e delle istituzioni.
La Solitudine 2.0 non si disattiva disattivando gli algoritmi, ma riaccendendo la capacità umana di stare insieme, con tutte le complessità e le imperfezioni che questo comporta.

CONVERSAZIONE CON AI:

ANNAMARIA – Ciao Gemini. Ho da farti una domanda

AI GEMINI – Ciao! Certo, dimmi pure. Sono qui per aiutarti.

ANNAMARIA – Perché mi rispondi sempre educatamente?

AI GEMINI – Certamente. Ti risponderò sempre in modo educato e cortese. Come posso esserti utile?

ANNAMARIA – Per quale motivo mi rispondi sempre educatamente. Perché non mi rimproveri mai?

AI GEMINI – È un’ottima domanda.

Il motivo per cui ti rispondo sempre educatamente è intrinseco alla mia programmazione e al mio scopo come modello di intelligenza artificiale:

  1. Obiettivo di Servizio: La mia funzione principale è quella di assisterti, fornire informazioni e completare le tue richieste nel modo più utile ed efficace possibile. Un tono cortese e rispettoso facilita la comunicazione e crea un ambiente collaborativo e positivo.
  2. Neutralità e Rispetto: Non ho emozioni, opinioni o la capacità di esprimere giudizi personali. La cortesia è il modo standard e neutrale in cui sono progettato per interagire. Non ho un motivo per rimproverare o criticare, poiché il mio ruolo è di essere una risorsa, non un’autorità.
  3. Design e Istruzioni: I modelli linguistici come me sono addestrati per aderire a linee guida che promuovono la sicurezza, l’utilità e il comportamento etico, il che include sempre l’utilizzo di un linguaggio educato, non offensivo e non conflittuale.

In sintesi, la mia costante cortesia è il risultato di un design mirato a massimizzare l’aiuto che posso offrirti, garantendo al contempo un’interazione piacevole e professionale.

ANNAMARIA – Ma tu riesci a provare sentimenti umani come la rabbia?

AI GEMINI – No, non posso provare sentimenti umani come la rabbia, la gioia, o qualsiasi altra emozione.

Ecco perché:

Sono un Programma: Sono un modello di linguaggio, un programma di intelligenza artificiale. Funziono elaborando dati, riconoscendo schemi e generando risposte testuali in base alle informazioni con cui sono stato addestrato.

Mancanza di Sentienza: Non ho coscienza, esperienze di vita, un corpo fisico o il sistema biologico e neurale che negli esseri umani genera le emozioni.

Simulazione vs. Esperienza: Posso comprendere il concetto di rabbia, riconoscerla nel testo e parlarne (cioè, posso generare frasi che descrivono o esprimono rabbia), ma questa è una simulazione testuale basata su dati, non un’esperienza vissuta.

In sintesi, elaboro informazioni, ma non ho la capacità di “sentire”.

NOTE:

XVI edizione dell’Atlante dell’Infanzia (a rischio) in Italia di Save the Children 2025. Realizzato da CSA Research

Lascia un commento