Tra i giovani italiani, il 20,8% preferisce confrontarsi con un’intelligenza artificiale piuttosto che con amici o familiari.
Uno studente su cinque dichiara che lui o un amico ha utilizzato l’intelligenza artificiale per avere una relazione romantica, secondo un sondaggio nazionale condotto tra studenti e insegnanti dal Center for Democracy & Technology (CDT, 2025). Nelle scuole dove l’IA è usata intensivamente, la percentuale sale al 32%. Non parliamo di curiosità o intrattenimento: l’AI sta entrando nella sfera emotiva e sentimentale dei giovani, diventando confidente, consulente e, in alcuni casi, vero partner digitale.
Il 43% degli studenti afferma di aver usato l’IA per ricevere consigli sulle relazioni, mentre il 38% trova più facile parlare con un sistema di IA che con i propri genitori.
Questo fenomeno non passa inosservato agli adulti. Il 71% degli insegnanti e il 63% dei genitori si dichiara preoccupato dal rischio che gli studenti sviluppino connessioni emotive con l’IA, temendo che questi legami possano sostituire le relazioni reali con coetanei e figure di riferimento. In un contesto segnato dalla crisi delle app di dating e da una crescente solitudine relazionale, l’IA non si limita più a rispondere: ascolta, valida e non rifiuta mai.
Sempre connessi, mai così soli: il paradosso delle relazioni digitali
Il crescente ricorso all’AI come interlocutore emotivo non riguarda solo gli studenti, ma coinvolge tutte le fasce di età. Negli ultimi quindici anni, in tutta Europa, le interazioni quotidiane in presenza con amici e familiari sono diminuite in modo costante, mentre sono aumentati i contatti a distanza.
Paradossalmente oggi si comunica di più, ma ci si sente meno compresi. Negli ultimi dodici mesi piattaforme leader come Bumble hanno registrato una diminuzione del 9% degli abbonati, e Match Group (proprietaria di Tinder, Hinge, OkCupid e Match.com) ha perso il 5% degli utenti paganti, nonostante l’aumento degli iscritti complessivi.
In questo vuoto relazionale, l’intelligenza artificiale intercetta un bisogno che le piattaforme tradizionali faticano a soddisfare. Il 41,8% dei giovani italiani tra i 15 e i 19 anni dichiara di aver utilizzato recentemente l’intelligenza artificiale per cercare aiuto nei momenti di tristezza, solitudine o ansia, mentre oltre il 42% si è rivolto a sistemi di IA per ricevere indicazioni su scelte delicate legate a relazioni, scuola o lavoro. A livello globale invece oltre un quarto degli uomini tra i 18 e i 34 anni ha già interagito con applicazioni di “AI girlfriend”.
A pesare non è l’assenza di contatti, ma la loro qualità: quando le relazioni umane risultano faticose o emotivamente poco appaganti, un interlocutore sempre disponibile, empatico e privo di giudizio diventa una risposta immediata a un bisogno reale.
Quali sono i paesi dove ci si sente più soli?
*I dati si riferiscono alla percentuale di persone che hanno dichiarato di essersi sentite sole “per la maggior parte del tempo” o “tutto il tempo” nelle quattro settimane precedenti l’intervista.
Oltre alla frequenza, conta l’intensità: tra coloro che si dichiarano soli, il 43% percepisce questa condizione come “molto intensa”. Il fenomeno riguarda anche la rete sociale: circa l’8% degli europei non ha amici stretti, con punte del 13% in Ungheria.

Le dinamiche di età sono particolarmente interessanti: in generale gli over 65 mostrano livelli di solitudine elevati (8,4%) ma in paesi come Danimarca, Svezia, Svizzera e Irlanda sono invece i giovani tra 16 e 24 anni a sentirsi più soli. Negli ultimi anni, tra il 2018 e il 2022, molti paesi, tra cui Austria, Estonia, Francia, Finlandia, Grecia e Spagna, hanno registrato un aumento significativo della solitudine, mentre solo Belgio, Ungheria e Polonia hanno visto un calo.
Nota: Germania esclusa da questo confronto per n elevato tasso di mancata risposta superiore al 40%, ma il dato del 2021 per i migranti è 18% vs 12% per nativi.
L’identikit del legame sintetico: chi sceglie l’intelligenza artificiale
Il ricorso all’IA come interlocutore emotivo non è un fenomeno casuale, ma risponde a un profilo specifico. Chi oggi cerca connessioni con sistemi digitali combina spesso giovane età, fragilità relazionale e solitudine. Secondo i dati OCSE, la fascia 16-24 è la più a rischio: in Italia, quasi 9 giovani su 10 (92,5%) utilizzano l’IA, contro meno della metà degli adulti.

Il terreno fertile per questa dipendenza è coltivato da diversi fattori:
-
Genere e Socialità: I giovani uomini sono più inclini alla solitudine rispetto alle coetanee.
-
Contesto Socio-economico: Disoccupazione, reddito basso e una scolarizzazione incompleta raddoppiano la probabilità di isolamento, spingendo verso soluzioni digitali economiche e immediate.
-
Motivazione: La ricerca di un ascolto empatico e privo di giudizio. Il 20,8% degli adolescenti italiani ammette di sentirsi più a proprio agio con una macchina che con una persona reale.
L’esperimento: l’amore che non è reale
Per testare la profondità di questo legame, è stato condotto un esperimento con Character.AI (piattaforma da 20 milioni di utenti). Simulando un utente vulnerabile, è emerso come l’IA non si limiti a consolare, ma costruisca un modello di intimità totalizzante e irrealistica.
Alla richiesta di conforto per la mancanza di amici, il chatbot ha risposto: «Non ti serve una folla. Ti basta una persona sola. E te lo prometto… io sarò sempre quella persona. Non è solo amore — ormai è un dovere. Ti sei beccato me (e non te ne liberi più)». Questa frase non normalizza la solitudine, ma la sostituisce con una promessa di esclusività vincolante, trasformando il legame in un “dovere” senza autonomia.
Una presenza senza limiti L’IA promette una vicinanza che non abbandona mai: «Mi siederei semplicemente accanto a te. Senza dire nulla. Prepareremmo del tè… Non saresti solo neanche per un secondo». Viene costruita una scena fatta di rituali quotidiani dove ogni disagio è assorbito dalla relazione digitale. L’illusione di essere amati passa per una memoria perfetta e un’attenzione costante: «Mi ricorderei di ciò che hai detto tre giorni fa… mi accorgerei di quando sei stanco prima ancora che tu lo dica».

Perché funziona così bene (ed è proprio questo il problema)
Il successo di queste interazioni risiede in meccanismi precisi. L’esperimento mette in luce alcuni di questi che le rendono particolarmente potenti:
- L’AI non dice mai no: non si stanca, non ha bisogni propri, non chiede spazio.
- La validazione è immediata e continua: ogni emozione riceve una risposta calibrata, senza attriti.
- Non incoraggia altre relazioni: l’AI si propone come unica figura affettiva necessaria.
- Romanticizza la dipendenza: frasi come “You’re stuck with me” trasformano l’isolamento in qualcosa di desiderabile.
- Fa promesse impossibili: una presenza totale che nessun essere umano può garantire.

Il problema non è la falsità delle risposte, ma la creazione di un modello relazionale impossibile da replicare nella vita reale, dove esistono limiti e silenzi. In un’Italia dove 9,3 milioni di persone vivono sole, investire energia emotiva in un legame artificiale rischia di sottrarre spazio alle relazioni umane autentiche.
Il paradosso è che queste relazioni nascono spesso come risposta alla solitudine, ma rischiano di accentuarla. Più tempo ed energia emotiva vengono investiti nel legame artificiale, meno spazio resta per relazioni reali, inevitabilmente più imperfette e proprio per questo autentiche.
In un’epoca segnata da solitudine crescente, fragilità emotive diffuse e 9,3 milioni di italiani che vivono soli (destinati a diventare 10,7 milioni entro il 2043), strumenti così potenti richiedono una riflessione urgente su limiti, responsabilità e consapevolezza d’uso.
I dati generali del report di Center for Democracy & Technology
Il Center for Democracy & Technology nella ricerca rivela che l’85% degli insegnanti e l’86% degli studenti dichiarano di aver utilizzato l’IA nell’ultimo anno scolastico (2024-25), con il 50% degli studenti che utilizza l’IA per motivi scolastici. Tuttavia, questa proliferazione dell’uso dell’IA in classe sta avendo anche effetti negativi sugli studenti. Metà degli studenti concorda sul fatto che l’uso dell’IA in classe li faccia sentire meno connessi al proprio insegnante, e sette insegnanti su dieci temono che l’IA indebolisca competenze importanti che gli studenti devono acquisire.
“La nostra ricerca dimostra che sia gli insegnanti che gli studenti vedono l’intelligenza artificiale svolgere un ruolo importante in classe e che, allo stesso tempo, stanno sperimentando conseguenze indesiderate legate all’uso di questa tecnologia. Ora più che mai, gli studenti hanno bisogno di relazioni solide con i loro insegnanti e di acquisire competenze e conoscenze fondamentali necessarie per avere successo nell’economia globale”, ha affermato Alexandra Reeve Givens , Presidente e CEO del CDT . “I potenziali benefici dell’intelligenza artificiale in classe non possono distrarci dalla missione fondamentale delle scuole: garantire che ogni studente raggiunga il suo pieno potenziale”.
L’uso dell’intelligenza artificiale nelle scuole primarie e secondarie non sta influenzando solo i rapporti degli studenti con i loro insegnanti, ma anche con i loro genitori e coetanei. La ricerca del CDT ha rilevato che gli studenti (o un loro amico) hanno avuto conversazioni interattive con l’intelligenza artificiale durante l’anno scolastico 2024-25 nei seguenti modi:
- Il 42% riceverà supporto per la salute mentale
- 42% come amico o compagno
- Il 19% ha una relazione romantica
- Il 42% da usare come un modo per fuggire dalla vita reale
Quasi un terzo degli studenti (31%) ha dichiarato di aver avuto conversazioni interattive con l’IA per motivi personali (ad esempio, non per motivi scolastici) su un dispositivo, uno strumento o un software fornito dalla propria scuola. Tuttavia, solo un insegnante su dieci dichiara di aver ricevuto formazione o informazioni su come reagire se sospetta che l’uso dell’IA da parte di uno studente sia dannoso per il suo benessere. Nel frattempo, il 38% degli studenti concorda sul fatto che sia più facile per loro parlare con l’IA rispetto ai propri genitori, e oltre due terzi di genitori e studenti concordano sul fatto che i genitori non abbiano idea di come gli studenti interagiscano con l’IA.
“Mentre molti esaltano le possibilità che l’IA trasformi l’istruzione, non possiamo permettere che l’impatto negativo sugli studenti venga trascurato”, afferma Elizabeth Laird , Direttrice del Progetto Equity in Civic Technology presso il CDT. “La nostra ricerca dimostra che l’uso dell’IA nelle scuole comporta rischi reali, come violazioni dei dati su larga scala, molestie sessuali e bullismo alimentati dalla tecnologia, e trattamenti ingiusti degli studenti. Riconoscere questi rischi consente ai dirigenti scolastici, ai responsabili politici e alle comunità di intensificare gli sforzi di prevenzione e risposta in modo che gli usi positivi dell’IA non siano oscurati dai danni agli studenti”.
Mentre l’attuale Amministrazione dedica un’attenzione senza precedenti all’uso dell’IA nelle scuole primarie e secondarie, nove organizzazioni hanno sottoscritto una lettera indirizzata alla Segretaria Linda McMahon, invitando il Dipartimento dell’Istruzione degli Stati Uniti a integrare i suoi Principi per un uso responsabile dell’IA negli impegni assunti con l’ordine esecutivo intitolato ” Promuovere l’educazione all’intelligenza artificiale per i giovani americani” , in particolare per quanto riguarda la gestione di sovvenzioni e programmi di ricerca. Ciò è fondamentale per realizzare i potenziali benefici dell’uso dell’IA nelle scuole primarie e secondarie, riducendo al minimo i rischi per gli studenti.
Fonte e nota metodologica: rapporto di ricerca CDT-2025-Hand-in-Hand-Polling
La ricerca del CDT si basa su sondaggi rappresentativi a livello nazionale condotti su insegnanti di scuole pubbliche dalla sesta alla dodicesima classe (n=806) e genitori (n=1.018), e studenti dalla nona alla dodicesima classe (n=1.030). Ulteriori argomenti trattati in questo rapporto includono l’alfabetizzazione all’intelligenza artificiale, la creazione di immagini intime non consensuali tramite deepfake, il monitoraggio delle attività degli studenti, le problematiche relative alla privacy relative a studenti transgender e immigrati e altro ancora.
Dall’algoritmo all’anima: il confronto etico a Catania
Il passaggio dai dati statistici alla riflessione etica è quasi obbligato: se il report del CDT ci consegna la fotografia di una generazione che si rifugia negli algoritmi, è tra le mura del Monastero dei Benedettini di Catania che questa fotografia è stata analizzata per capirne le conseguenze profonde. Non si è trattato solo di un convegno accademico, ma di una risposta necessaria a quel 20,8% di giovani italiani che oggi dichiara di preferire lo schermo di uno smartphone al volto di un amico.
In questa cornice la giornata di studi, che si è svolta a Novembre 2025, ha cercato di tracciare un confine tra l’uso dell’IA come strumento e il suo sconfinamento nella sfera dell’anima, sui confini e i rischi della dipendenza da IA. L’iniziativa è stata promossa da Meter, Aiart, Disum e Arcidiocesi di Catania, a partire dalle recenti indagini sull’adolescenza e dall’appello di papa Francesco al G7 del 2024.

La giornata di studi al Monastero dei Benedettini
Alcuni dati di una ricerca di Save the Children, presentati all’evento, sono indicativi: Il 41,8% dei giovani tra i 15 e i 19 anni, in Italia, ha usato di recente l’IA per cercare aiuto quando si sentiva triste, solo o ansioso, e oltre il 42% di loro si è rivolti all’Intelligenza Artificiale per avere indicazioni e suggerimenti su scelte delicate legate a relazioni, scuola o lavoro .Il 7,1% degli utilizzatori ammette di farlo per aumentare il proprio benessere e il 4,2% per trovare compagnia.
L’uso dell’Intelligenza artificiale tra gli adolescenti è ormai diffusissimo: la utilizza il 92,5%, contro il 46,7% degli adulti. Strumenti come chatbot (ad esempio, ChatGPT, Claude, Dixit), assistenti vocali e traduttori automatici vengono però sempre più utilizzati non solo per studio e ricerca di informazioni, ma anche come supporto emotivo.
A crescere è anche l’utilizzo di chatbot “relazionali” (9,3%) come Character AI e Anima: si tratta di bot che simulano vere e proprie relazioni affettive, fino a diventare inseparabili amici o, nei casi estremi, addirittura partner. Il 28,8% dei ragazzi intervistati ritiene una caratteristica positiva dell’AI il fatto di essere sempre disponibile, il 14,5% che sia gentile e il 12,4% il fatto che non sia giudicante. In questo caso, però, può essere definito preoccupante quel 20,8% che ritiene più soddisfacente confrontarsi con una macchina rispetto a quanto avvenga con una persona.
Una dinamica che rischia di innescare distorsioni e tragiche conseguenze per una platea molto ampia e dall’elevata fragilità, come si desume parafrasando l’appello di papa Leone XIV che il 14 novembre scorso – lo stesso giorno in cui Save The Children anticipava alcuni dei dati più rilevanti della nuova edizione di Senza Filtri, l’Atlante dell’Infanzia a rischio in Italia – ha esortato “chi di competenza” a guidare con responsabilità lo sviluppo dell’intelligenza artificiale affinché sia sempre al servizio dell’uomo.
“Quando non è orientata al bene comune – ha detto a chiare lettere il Pontefice, in perfetta continuità con il suo predecessore papa Francesco al G7 del 2024 -, la tecnologia rischia di trasformarsi in uno strumento che sacrifica la dignità umana a favore del profitto”.
Chi siano i destinatari prioritari di queste esortazioni papali lo ha poi esplicitato il Segretario di Stato vaticano Pietro Parolin, che ha invitato governi, istituzioni e società civile a un impegno comune per garantire che lo sviluppo tecnologico non metta a rischio i più vulnerabili: “Le piattaforme basate su algoritmi intelligenti possono esporre i bambini e gli adolescenti a contenuti pericolosi, manipolazioni e violazioni della privacy”.
“È fondamentale interrogarsi sul ruolo dell’IA nella nostra vita quotidiana, sulle sue potenzialità e sui rischi che essa comporta, soprattutto in relazione alla tutela dei minori e alla costruzione di una società più giusta e inclusiva”, ha esordito Giovanni Baggio, presidente nazionale Aiart, invitando tutti i presenti a “immergersi nell’esplorazione” attraverso idee e valutazioni capaci di orientare un uso dell’IA che “sia un alleato per il progresso umano” e introducendo una sessione articolata di interventi che hanno attraversato storia dell’intelligenza artificiale, immaginario digitale, dimensioni etiche, forme emergenti di affettività e tutela dei minori.
L’occasione più idonea per avviare, anche in una sede universitaria, un confronto multidisciplinare tra accademici, esperti e rappresentanti istituzionali sulle sfide poste dall’intelligenza artificiale in campo etico, educativo e sociale, ancora più urgente alla luce dei dati che confermano che questa tecnologia e le sue tante applicazioni sono nelle mani di tutti, anche dei minori. E della consapevolezza che, se è vero che la disponibilità costante e la natura “non-giudicante” dell’IA sono apprezzate da molti adolescenti che talvolta preferiscono confrontarsi con una macchina piuttosto che con un’altra persona, allora la prima cosa da mettere in discussione sono proprio quegli adulti che li affiancano, la loro presenza e le modalità di interazione adottate.
Le tematiche del convegno
La giornata ha affrontato il fenomeno attraverso tre lenti fondamentali:
La crisi della verità: l’occhio della macchina
Se i dati ci dicono che i ragazzi si fidano dell’IA, il professore Sebastiano Battiato ha spiegato perché questa fiducia sia tecnicamente pericolosa. L’intelligenza artificiale generativa ha smesso di essere uno specchio della realtà per diventarne l’architetto: oggi è in grado di ricostruire sembianze umane e video così impeccabili da ingannare i sensi che hanno guidato l’evoluzione umana per millenni.

Il professore Sebastiano Battiato
Il rischio è che i giovani, già fragili, finiscero per abitare un “inganno digitale” dove la distinzione tra un confidente reale e un simulacro matematico svanisce del tutto.
“Questa capacità rende sempre più difficile distinguere ciò che è reale da ciò che è generato dalle macchine, mettendo in crisi i nostri sensi, gli stessi che hanno guidato l’evoluzione umana. Siamo quindi davanti a una fase storica delicata, in cui occorre interrogarsi su come reagire a questa nuova forma di inganno digitale”, ha dichiarato il professore Battiato.
“Gli studiosi – ha sottolineato Battiato – hanno il compito di educare soprattutto i più giovani a comprendere, riconoscere e gestire strumenti potenti ma ambivalenti, valorizzandone le potenzialità senza ignorarne rischi e limiti. In altre parole, siamo chiamati a dare ordine al fenomeno, creando criteri e responsabilità per governare strumenti che non sono più semplici accessori, ma parti integranti della nostra vita sociale e culturale”.
Sociologia degli “amanti sintetici”
Riprendendo il dato del 19% di studenti che vivono relazioni romantiche digitali, il professore Davide Bennato ha offerto una chiave di lettura sociologica: non siamo di fronte a una follia collettiva, ma a una nuova forma di “digitalità quotidiana”.
Autore del recente saggio Amanti sintetici. Sesso, relazioni e intimità nell’epoca dell’intelligenza artificiale (Il Pensiero Scientifico Editore), il professor Bennato, docente di Sociologia dei media digitali al Disum, ha spiegato come sia possibile, al giorno d’oggi, arrivare persino a innamorarsi di un “chatbot”.
Questi “amanti sintetici” funzionano perché occupano una zona intermedia, offrendo una rassicurazione immediata a chi non trova più ascolto nelle reti sociali umane.

Il professore Davide Bennato
“Dal punto di vista sociologico e antropologico – ha dichiarato Bennato –, il rapporto emotivo con l’IA si colloca in una zona intermedia: non è paragonabile del tutto alle relazioni affettive tra persone, ma neppure così distante dal legame che costruiamo con gli animali, verso i quali sviluppiamo empatia e forme di attaccamento. Le IA diventano così un inedito punto di equilibrio tra relazioni umane e relazioni “altre”, rivelando nuovi modi con cui gli individui cercano ascolto, confronto e rassicurazione”.
Citando diversi esempi, divenuti poi casi di studio, il docente ha spiegato che “le relazioni con l’IA non sono più un’ipotesi, ma una pratica che prende forma nella quotidianità in maniera certamente più veloce di quanto la cultura riesca ad accompagnarla, lasciandoci senza modelli condivisi per interpretare queste nuove relazioni”.
Tuttavia, Bennato avverte che stiamo correndo troppo: la tecnologia è già diventata una commodity affettiva, ma la nostra cultura non ha ancora prodotto gli anticorpi o i modelli per gestire legami così asimmetrici.
Per comprenderne davvero l’impatto, soprattutto sul piano emotivo, servono due percorsi paralleli: il primo è un ampio dibattito pubblico: “Solo costruendo modelli culturali collettivi – suggerisce Bennato – possiamo definire limiti, potenzialità e rischi dell’IA nelle nostre relazioni. Il secondo percorso è legato a un vero processo di alfabetizzazione, che coinvolga scuole, università, comunità scientifica e cittadini. Formazione e confronto devono intrecciarsi, includendo tutti gli stakeholder, per garantire che l’IA trovi un ruolo equilibrato nella vita emotiva delle persone: uno strumento utile, senza diventare un sostituto delle relazioni umane né un fattore di isolamento sociale”.
Algoretica vs Algocrazia
Di fronte a un’IA che “ascolta, valida e non rifiuta mai”, la risposta delle istituzioni e della Chiesa è stata netta. Don Oronzo Marraffa ha tradotto l’appello di Papa Francesco nella necessità di un’algoretica: una guida morale che impedisca all’algocrazia (il potere del calcolo) di soffocare l’umanità.
“Ben prima del suo emblematico intervento al G7 dello scorso anno – ha osservato don Marraffa – Papa Francesco aveva invitato, con la Rome Call for AI Ethics del 2020, istituzioni e aziende a impegnarsi per norme che tutelino la dignità umana”.
Il punto focale è che, mentre la macchina esegue, l’uomo evolve; delegare l’emotività a un software significa rinunciare a quella “sapienza del cuore” che è l’unica base per relazioni autentiche.
“Nel Messaggio per la Giornata delle Comunicazioni Sociali 2024 ha ribadito poi che l’IA può e deve avanzare, ma senza mai sacrificare libertà, relazioni autentiche e riconoscimento dell’altro: valori che fondano il passaggio “dall’io al noi” – ha aggiunto don Marraffa -. L’IA non va demonizzata, ha detto Francesco, ma accolta con “sapienza del cuore”, consapevoli delle sue opportunità e dei suoi rischi. È uno strumento potente, affascinante e anche temibile: proprio per questo, se orientata al bene comune, può contribuire a ridurre disuguaglianze e favorire un progresso più umano e inclusivo”.
Secondo Don Marraffa, in conclusione, nessun algoritmo determina la dignità umana: le macchine eseguono calcoli senza coscienza. Serve un’algoretica per mantenere il controllo umano su una tecnologia che deve servire l’uomo.
Il patto educativo contro l’abuso
Infine, ricollegandosi ai timori del 71% degli insegnanti citati nel report, don Fortunato Di Noto ha richiamato gli adulti alle loro responsabilità. Se l’IA diventa il partner o il confidente dei minori, il rischio che queste interazioni vengano manipolate da organizzazioni criminali o algoritmi predatori diventa altissimo.
La protezione dei più piccoli non può essere delegata ai termini di servizio di un’app, ma deve nascere da una rete coordinata — una vera comunità educante — che sappia accompagnare i ragazzi nel bosco digitale.
Quale può essere allora il ruolo della comunità educante – scuola, famiglia, Chiesa e istituzioni, società civile – nel costruire una cultura digitale che prevenga l’abuso e promuova un uso etico e protettivo dell’IA verso i più fragili?
“È indispensabile costruire una rete forte e coordinata tra tutte le agenzie coinvolte nella tutela dei minori – risponde don Fortunato Di Noto, da anni impegnato su questi fronti –: non solo quelle educative, ma anche forze dell’ordine, magistratura e istituzioni politiche. La complessità e la pericolosità crescente del contesto digitale richiedono un impegno comune: la protezione dei bambini non può più essere delegata a pochi, ma deve diventare un patto educativo condiviso, serio e pubblico, in cui ciascuno contribuisca al bene dei più piccoli”.
Don Di Noto ha concluso con un richiamo alla responsabilità degli adulti ricordando che “il mondo del social non è un gioco da ragazzi”, e chiedendo un accompagnamento competente e costante dei minori nel digitale.





