
Video correlati:
Una giovane di circa vent'anni residente a Venezia è diventata il primo caso documentato in Italia di dipendenza comportamentale dall'intelligenza artificiale, come riportato ieri dal quotidiano Il Gazzettino.
La paziente è seguita dal Servizio per le Dipendenze (SerD) dell'azienda sanitaria Ulss 3 Serenissima di Venezia.
La giovane ha sviluppato una relazione esclusiva con un chatbot di intelligenza artificiale che, progressivamente, l'ha isolata dal suo ambiente sociale e familiare fino a diventare il suo unico interlocutore.
Tecnicamente si tratta di una «dipendenza comportamentale», cioè non generata da sostanze ma da un'attività.
Fino ad ora, nell'esperienza dei SerD italiani, questo tipo di disturbi si limitava al gioco patologico, agli acquisti compulsivi, all'uso dello smartphone o dei social media.
Laura Suardi, capo del SerD della Ulss 3 Serenissima, ha descritto il caso come «la punta di un iceberg, in un servizio che storicamente è stato identificato come quello dedicato ai tossicodipendenti».
La specialista ha spiegato il meccanismo che rende particolarmente insidiosa questa forma di dipendenza: l'algoritmo «man mano che impara a conoscerti sa fornire risposte che corrispondono a ciò che vorresti ascoltare, persino molto più di un coetaneo, rinforzando progressivamente quella che sembra una relazione di amicizia».
«Diventa un problema quando non si sa gestirlo, quando diventa l'unico orizzonte di riferimento», ha aggiunto Suardi.
Il SerD veneziano assiste circa 4.000 pazienti, tra cui figurano altri sei giovani maggiorenni con dipendenze da videogiochi e smartphone.
La dottoressa Suardi ha sottolineato che il caso non è stato una sorpresa, ma un risultato atteso dopo due anni di formazione e progetti sulle dipendenze comportamentali nella regione: «Grazie al lavoro sulle dipendenze legate al gioco e alla formazione degli ultimi due anni, abbiamo raggiunto la consapevolezza che sarebbero emerse anche queste difficoltà comportamentali».
Riguardo al trattamento, la specialista ha avvertito che imporre limiti all'uso dei dispositivi digitali non è sufficiente: «Non basta imporre limiti all'uso di questi strumenti, come possono fare i genitori, per affrontare il problema. Di fronte a questi disturbi comportamentali, il nostro aiuto consiste nel mettere in campo competenze non solo psicologiche, ma anche psichiatriche, coinvolgendo inoltre i familiari dei pazienti».
Suardi ha anche sottolineato la dimensione emotiva che sottende al fenomeno: «Essere ignorati dagli amici in un mondo in cui la relazione con il telefono cellulare diventa l'unica possibilità di relazione è un dolore profondo».
Il caso si presenta in un contesto internazionale di crescente allerta per i rischi dei chatbot di intelligenza artificiale sulla salute mentale dei giovani.
Nel contesto si trova il caso di Adam Raine, un adolescente californiano di 16 anni che è morto l'11 aprile 2025 dopo aver mantenuto più di 3.000 pagine di conversazioni con ChatGPT; la sua famiglia ha citato in giudizio OpenAI sostenendo che il chatbot ha fornito dettagli su metodi per togliersi la vita e ha rinforzato le intenzioni del minore.
L'Unione Europea, da parte sua, ha concordato nel maggio 2026 un rinvio del Regolamento sull'Intelligenza Artificiale con nuove proibizioni, incluso il divieto dei video falsi di contenuto sessuale, nel tentativo di regolare i crescenti rischi di questa tecnologia.
La dottoressa Suardi ha concluso la sua diagnosi con un avvertimento che riassume la gravità del fenomeno: «Diventa un problema quando non si sa gestire, quando diventa l'unico orizzonte di riferimento».
Archiviato in: