L’era digitale ha consegnato il potere non più solo a governi e istituzioni, ma a un’infrastruttura sottile e pervasiva: la “Governance Algoritmica”. Questo articolo si addentra nel lato complesso di questo “potere invisibile dei dati”, provando a dimostrare come la sua opacità e l’assenza di un’etica rigorosa stiano causando danni reali, quantificabili e profondi alla sfera sociale e personale.
L’analisi si concentra su due manifestazioni critiche di questo fallimento etico:
-Da un lato, l’”Intelligenza Artificiale Generativa” ha reso l’abuso sulla sfera privata spaventosamente facile: l’emergenza dei deepfake porno illustra un nuovo livello di violenza basata sull’immagine, dove la dignità personale viene violata senza sforzo.
-Dall’altro, l’amplificazione algoritmica dei contenuti sensazionalistici alimenta l’escalation del cyberbullismo, trasformando le piattaforme in ambienti tossici e contribuendo a una vera e propria emergenza giovanile. La correlazione tra la tecnologia non regolamentata e la sofferenza umana è inequivocabile.
La riflessione culmina nel ragionamento che l’interazione costante con un mondo digitale disumanizzato stia portando a una “vita senza sensi ed empatia”, suggerendo che la battaglia per una Governance Algoritmica etica non è solo una lotta per la regolamentazione, ma per la salvaguardia della nostra stessa umanità. È urgente imporre trasparenza e responsabilità prima che il lato opaco del digitale consumi le fondamenta della società.
Il “Potere Invisibile”: la necessità di principi etici solidi
Nel tumulto della trasformazione digitale, tendiamo spesso a celebrare l’innovazione come un progresso lineare e inevitabile. Tuttavia, dietro le promesse di efficienza e connessione, sta crescendo un’ombra proiettata da una forza nuova e pervasiva: la Governance Algoritmica. Sebbene invisibile agli occhi, il suo potere è talmente radicato da plasmare decisioni, comportamenti e perfino le nostre percezioni etiche. Non si tratta più soltanto di sistemi che ci suggeriscono cosa comprare o quale strada percorrere; stiamo assistendo velocemente, con l’evoluzione dei sistemi, alla cessione della sovranità sociale ed economica a un’infrastruttura di dati e algoritmi che agisce come un vero e proprio “potere invisibile“.

Questa è la tesi centrale emersa dal dibattito contemporaneo: il vero pericolo del digitale non è l’Intelligenza Artificiale in sé, ma l’opacità e la mancanza di responsabilità con cui questo potere è esercitato. Quando la Governance Algoritmica non è guidata da principi etici robusti, le sue conseguenze si riversano nella società in forme di danno specifiche e dolorose.
L’algoritmo non è neutrale; è un insieme di scelte codificate che riflettono i valori (o la loro assenza) di chi lo ha creato e, se il profitto e l’engagement prevalgono sulla sicurezza e sulla dignità, l’esito è una crisi.
Esempi Quotidiani del Potere Algoritmico
Per comprendere questo potere, diamo qualche esempio pratico quotidiano della nostra vita, su cui impatta e si manifesta.
Pensiamo a Laura, una studentessa universitaria. Laura ha espresso sui social media il suo interesse per le questioni ambientali. L’algoritmo, intercettando questo dato, non le propone solo contenuti di associazioni green, ma la espone in modo crescente a video molto polarizzati su cospirazioni e teorie estreme relative al cambiamento climatico. Il suo feed si trasforma in una camera d’eco, isolandola progressivamente dalle visioni moderate o scientifiche. Questo non è un caso isolato. L’algoritmo ha deciso, basandosi sull’ottimizzazione del tempo speso sulla piattaforma, che il contenuto estremo è più coinvolgente per Laura.
Ecco un primo esempio di Governance Algoritmica: l’infrastruttura di dati ha influenzato le sue opinioni e la sua visione del mondo senza che lei ne fosse consapevole. Il potere di decidere cosa vediamo, chi ascoltiamo e come percepiamo la realtà è nelle mani di codici opachi.
Un altro esempio riguarda Marco, un libero professionista. Marco sta cercando un mutuo online. Basandosi sulla sua cronologia di navigazione (acquisti fatti, quartieri visitati) e forse su dati meno ovvi (il tipo di telefono che usa, il suo orario di login), gli algoritmi delle banche o delle agenzie di credito potrebbero applicare un punteggio di rischio che non è completamente trasparente. Se i dati indicano che vive in un’area a basso reddito o che ha spesso acquistato prodotti “non essenziali”, l’algoritmo potrebbe offrirgli un tasso di interesse più alto o addirittura negargli il prestito, creando una discriminazione algoritmica basata su correlazioni statistiche piuttosto che su meriti finanziari diretti.
Il vero pericolo, quindi, risiede nell’opacità algoritmica. Non possiamo sapere perché a Marco è stato dato quel tasso o perché Laura è stata radicalizzata nel suo feed. L’assenza di trasparenza rende impossibile richiedere responsabilità e corregge gli errori. Il nostro obiettivo è esplorare queste dinamiche e provare a comprendere la progressione di questa crisi.
Partiremo dall’analisi del sistema di potere invisibile per poi osservare le sue manifestazioni più drammatiche: la violazione della dignità personale attraverso le nuove armi dell’IA, come i deepfake porno; l’amplificazione della violenza sociale tra i giovani tramite l’escalation del cyberbullismo; per culminare in una riflessione più profonda sul costo esistenziale di questo ambiente digitale, che si manifesta nella progressiva perdita di sensi ed empatia.
Il potere dei dati è indiscutibile, ma il modo in cui stiamo permettendo che questo potere venga gestito sta creando una frattura etica e sociale che non possiamo più ignorare. L’algoritmo, progettato per semplificare la vita, è diventato, per milioni di persone, il vettore di una sofferenza profonda e, per la società intera, la causa di una disumanizzazione strisciante.
Il danno alla sfera personale: l’abuso perfetto dell’AI
Se il potere invisibile dei dati è la causa sistemica della crisi etica, la sua manifestazione più cruda e violenta si trova nella sfera della dignità personale, un attacco reso possibile e amplificato dall’Intelligenza Artificiale Generativa.
Il progresso tecnologico, nato con l’ambizione di migliorare la vita, ha prodotto strumenti che, se usati impropriamente, abbattono ogni barriera etica. L’emergenza dei contenuti noti come deepfake porno ne è la prova più schiacciante e allarmante.
L’analisi di come i moderni Large Language Models (LLM) o sistemi generativi possano essere utilizzati per “spogliare le donne” digitalmente con una facilità senza precedenti è un campanello d’allarme globale. Fino a pochi anni fa, la creazione di un falso video realistico richiedeva competenze tecniche avanzate e risorse significative; oggi, basta un software accessibile, a volte gratuito, per manipolare l’immagine di una persona e inserirla in contesti sessuali espliciti senza il suo consenso.
Questa non è solo una violazione della privacy: è una violenza basata sull’immagine, un attacco mirato alla reputazione e alla salute psicologica delle vittime, che nella stragrande maggioranza dei casi sono donne.
I provvedimenti del Garante della Privacy, ad esempio contro app specifiche, testimoniano l’urgenza di questo allarme sociale.
Un esperienza quotidiana: danno reale da un falso perfetto
Con l’evoluzione dell’IA è sorprendente (e terribile) come questa abbia abbassato la soglia per l’abuso a un livello minimo: l’atto di diffamazione e sessualizzazione non consensuale si compie con pochi clic, trasformando una violenza complessa in un gesto alla portata di tutti, moltiplicando esponenzialmente il numero potenziale di aggressori e vittime.
Consideriamo il caso di Giulia, una giovane dipendente di un’azienda. Giulia si è trovata improvvisamente al centro di un incubo quando un collega, mosso da vendetta o noia, ha utilizzato una sua foto profilo pubblica per generare un deepfake pornografico. Il risultato è stato così realistico da ingannare inizialmente amici e colleghi.
Il danno subito da Giulia va ben oltre la semplice reputazione. È stata costretta a giustificarsi, a dimostrare che l’immagine era un falso. Ha dovuto affrontare lo shock di vedere il proprio corpo manipolato e diffuso senza controllo. Sebbene legalmente innocua, l’immagine ha causato la sua esclusione da un progetto di lavoro importante e ha distrutto la fiducia nel suo ambiente sociale.
Qui il danno è duplice.
Da un punto di vista tecnico, l’IA ha reso la menzogna visiva quasi indistinguibile dalla realtà. Questo annulla la fiducia fondamentale che abbiamo nell’immagine come prova documentale, creando un problema di credibilità sistemica.
Da un punto di vista etico, la rapida diffusione di questi strumenti, spesso con la scusa della libertà di espressione tecnologica o dell’innovazione, rivela la profonda disattenzione etica nella fase di progettazione e distribuzione. L’urgenza di portare sul mercato l’ultima innovazione ha superato la cautela necessaria a proteggere la dignità umana.
Questo scenario si ricollega direttamente al tema della Governance Algoritmica. Un sistema che pone la velocità di sviluppo tecnologico al di sopra della responsabilità sociale. La priorità è data al progresso rapido, lasciando all’ultimo posto la mitigazione dei rischi e la protezione delle categorie vulnerabili. Si tratta di una visione del mondo che fallisce nel comprendere che la tecnologia non è mai eticamente neutra; ogni linea di codice ha implicazioni nel mondo reale.
L’impatto sulle vittime è devastante. Essere oggetto di un deepfake porno non è solo un imbarazzo passeggero; significa subire una violenza digitale che può portare a isolamento sociale, depressione, perdita del lavoro e, in casi estremi, al suicidio. L’immagine manipolata vive per sempre online, come una cicatrice digitale non rimovibile, a causa della persistenza del web. La legge e le piattaforme faticano a tenere il passo con questa evoluzione dell’abuso, lasciando spesso le vittime sole nella lotta per ripristinare la loro verità e la loro reputazione.
La facilità con cui la dignità personale può essere annientata da un algoritmo è l’esempio più lampante di ciò che accade quando il potere dei dati non viene bilanciato da un imperativo morale.
L’abuso perfetto dell’IA, rapido, vasto e permanente, ci impone di ripensare non solo le nostre leggi, ma l’intero processo di sviluppo tecnologico, rendendolo, finalmente, etico by design.
L’entità del problema è tale che le autorità nazionali sono state costrette a intervenire con misure d’urgenza. Il Garante per la Protezione dei Dati Personali è intervenuto con provvedimenti espliciti, ad esempio, disponendo il blocco di app che consentono di creare “deep nude” con estrema facilità. Tali azioni non sono solo repressive, ma certificano l’esistenza di un vero e proprio allarme sociale. Il fatto che un’autorità garante debba agire con la procedura d’urgenza (art. 66 GDPR) per limitare la diffusione di strumenti che creano abusi sessuali digitali dimostra quanto la tecnologia abbia superato il confine etico senza controllo.
La diffusione di contenuti falsi crea seri problemi riguardanti il diritto di ogni soggetto di conservare il controllo sulla propria immagine digitale e sulla propria identità. A tal fine il governo italiano, muovendosi sulla scia dell’Europa e della recente approvazione dell’AI Act, ha dato il via libera ad un disegno di legge sull’Intelligenza Artificiale (IA) che va anche a regolamentare l’uso dei deepfake.
La legge italiana sull’Intelligenza Artificiale
Il Senato della Repubblica ha approvato il 25 settembre in via definitiva la legge italiana sull’Intelligenza Artificiale. Si tratta del primo quadro normativo nazionale in Europa che disciplina sviluppo, adozione e governance dei sistemi di IA nel rispetto dei principi costituzionali e dei diritti fondamentali e in piena coerenza con l’AI Act europeo.
La legge si fonda su princìpi di uso antropocentrico, trasparente e sicuro dell’IA, con particolare attenzione a innovazione, cybersicurezza, accessibilità e tutela della riservatezza. Interviene in modo organico su più settori che possono beneficiare di questa nuova tecnologia – sanità, lavoro, pubblica amministrazione e giustizia, formazione e sport – prevedendo garanzie di tracciabilità, responsabilità umana e centralità della decisione finale di una persona fisica.
Sul piano della governance, la norma designa Agenzia per la Cybersicurezza Nazionale (ACN) e Agenzia per l’Italia Digitale (AgID) quali Autorità nazionali competenti: ACN vigila – con poteri ispettivi – sull’adeguatezza e la sicurezza dei sistemi, AgID gestisce le notifiche e promuove casi d’uso sicuri per cittadini e imprese, in un quadro di coordinamento interistituzionale stabile.
Il provvedimento istituisce inoltre un meccanismo di programmazione strategica: la Strategia nazionale per l’IA sarà predisposta e aggiornata con cadenza biennale dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio, con il supporto di ACN e AgID e il coinvolgimento delle principali autorità settoriali. A rafforzarne la trasparenza è previsto un monitoraggio annuale al Parlamento.
Per accelerare competitività e adozione, la legge attiva un programma di investimenti da 1 miliardo di euro a favore di startup e PMI nei campi dell’IA, della cybersicurezza e delle tecnologie emergenti, sostenendo trasferimento tecnologico e filiere strategiche.
Con questo disegno di legge l’Italia si è dotata di un quadro stabile e pro-innovazione, capace di accelerare l’adozione dell’IA a beneficio di cittadini, imprese e pubbliche amministrazioni, allineando il Paese alle migliori pratiche europee e valorizzando le competenze nazionali.
Il danno alla sfera sociale: l’emergenza giovanile
La crisi etica generata dalla Governance Algoritmica non si manifesta solo come attacco alla dignità del singolo, ma si espande in un vero e proprio fenomeno sociale che ha i suoi epicentri nelle piattaforme digitali frequentate dalle nuove generazioni.
Il cyberbullismo è la cartina di tornasole più dolorosa di questa patologia, un sintomo amplificato e reso endemico da un ecosistema digitale che monetizza l’attenzione, anche quella generata dall’odio e dal conflitto.
Alcuni dati ISTAT e del Rapporto ESPAD®Italia (a cura del CNR) infatti, confermano che il fenomeno è in crescita e coinvolge milioni di adolescenti.
I report evidenziano come la vittimizzazione subita online stia raggiungendo livelli record, con una parte significativa dei giovani che dichiara di aver subito atti vessatori con frequenza mensile o più. Queste cifre non solo quantificano l’entità della sofferenza, ma dimostrano che il mondo digitale è diventato, per un numero crescente di ragazzi, un ambiente ostile e dannoso, la cui tossicità è alimentata dal meccanismo della rete.
In particolare i dati dello studio ESPAD® Italia 2024 (Cnr-Ifc) rivelano un’allarmante crescita del cyberbullismo tra gli studenti italiani di 15-19 anni. Oltre un milione di studenti (47%) ha subito episodi di vittimizzazione, con un’inversione di tendenza: nel 2024 sono i ragazzi a essere i più colpiti.
Parallelamente, più di 800.000 studenti (32%) si dichiarano autori di atti di cyberbullismo. Particolarmente preoccupante è la cifra di quasi 600.000 studenti (23%) che ricoprono il duplice ruolo di cyberbulli-vittime, condizione associata a gravi conseguenze psicologiche e comportamenti a rischio.
L’uso dei social media e dei videogiochi amplifica il fenomeno, facilitando attacchi anonimi e l’escalation della violenza anche offline. Il cyberbullismo si intreccia spesso con altri comportamenti problematici come ghosting (rendersi un fantasma, ossia sparire dalle conversazioni online), phubbing (l’atto di ignorare le persone con cui si è fisicamente presenti per concentrarsi sull’uso del proprio smartphone), abuso di sostanze e gioco d’azzardo, aumentando il rischio di isolamento sociale e problemi di salute mentale, fino al fenomeno degli hikikomori, un fenomeno sociale una condizione di estremo isolamento, in cui individui si ritirano dalla vita sociale per lunghi periodi, spesso confinati nella propria stanza.
Questo fenomeno, nato in Giappone, si è diffuso anche in Italia e nel resto del mondo ed è caratterizzato dal rifiuto di andare a scuola o a lavoro e dal rifiuto delle relazioni sociali. Le cause sono complesse e possono includere stress accademico, paura del giudizio, problemi di autostima e bullismo.
Lo studio sottolinea l’urgenza di un impegno collettivo di scuole, famiglie e comunità per promuovere il rispetto reciproco e garantire un ambiente più sicuro e sereno per gli adolescenti.
Le evidenze sono chiare: il cyberbullismo dilaga, trasformando il mondo online da luogo di connessione a palcoscenico di vessazione.
L’anonimato offre un velo protettivo agli aggressori, incoraggiando comportamenti che nella vita reale sarebbero impensabili. Ma l’aspetto più crudele è la sua permanenza: a differenza dell’aggressione fisica o verbale che si conclude, l’atto di cyberbullismo, una volta pubblicato, vive per sempre sul web, come una condanna digitale che la vittima non può scrollarsi di dosso.
L’esempio di Sofia: la viralità dell’umiliazione
L’umiliazione di Sofia non si è limitata al gruppo ristretto. Gli algoritmi di raccomandazione hanno spinto il contenuto a un pubblico più ampio, e il gossip ha rapidamente travalicato l’ambiente scolastico. Sofia ha iniziato a ricevere messaggi offensivi anche da sconosciuti, subendo una pressione psicologica insopportabile.
Il suo esempio mostra come l’algoritmo non sia solo passivo; esso è un moltiplicatore di violenza sociale. I sistemi algoritmici che governano le piattaforme sono progettati per massimizzare l’engagement (il coinvolgimento) degli utenti. E l’engagement è spesso generato in modo più efficace da contenuti estremi, sensazionalistici, o che innescano reazioni forti, tra cui la rabbia e la polarizzazione.
L’algoritmo, in modo del tutto asettico e indifferente alle conseguenze umane, finisce per promuovere contenuti aggressivi o denigratori perché generano più interazioni, più condivisioni e, di conseguenza, più tempo speso sulla piattaforma, traducendosi in maggiori profitti pubblicitari.
In questo circolo vizioso, ecco dove le piattaforme non sono neutrali; esse diventano, per design implicito, moltiplicatori di violenza sociale.
Il dibattito sui contenuti pericolosi online e sul fallimento nel bloccarli efficacemente evidenzia proprio questa tensione: la difficoltà nel proteggere gli utenti è intrinsecamente legata al modello di business che premia l’estremismo. L’algoritmo non è cattivo, ma è cieco all’etica, e in un ambiente sociale, la sua cecità si traduce in un danno.
Per i giovani, che stanno ancora sviluppando la loro identità e la loro resilienza emotiva, l’esposizione costante a un ambiente di giudizio pubblico e aggressività ininterrotta è devastante.
La risposta non può essere solo repressiva. Se da un lato è cruciale affrontare l’urgenza di un’educazione alla cybersecurity che renda i giovani più consapevoli dei rischi, è altrettanto fondamentale imporre una responsabilità strutturale alle aziende che detengono il potere algoritmico. Fino a quando gli incentivi economici spingeranno gli algoritmi a promuovere ciò che è tossico, l’emergenza giovanile non potrà che peggiorare.
La crisi dell’empatia e l’urgenza etica
I capitoli precedenti ci hanno mostrato la catena del danno sociale: da un sistema di potere digitale nascosto, agli attacchi diretti alla dignità (i deepfake), fino alla diffusione della violenza in rete (il cyberbullismo). La riflessione finale deve portarci a comprendere il costo più alto di tutto questo: stiamo perdendo la nostra capacità di sentire e capire gli altri.
L’interazione costante tramite uno schermo ci sta portando, lentamente, a una “vita senza sensazioni e senza vera empatia”. Questo è il lato oscuro del digitale: ci connette, ma ci isola emotivamente.
Questa è la crisi dell’empatia a livello interpersonale: il digitale ci dà l’illusione della connessione, ma erode la nostra capacità di sentire l’altro profondamente.

Vivere in un mondo dove le decisioni importanti sono prese da codici segreti e dove le relazioni sono così superficiali ci fa sentire meno “umani”. Chiedersi se l’Intelligenza Artificiale ci rende stupidi è meno importante che chiederci se ci rende indifferenti. Siamo bombardati da contenuti forti che ci spingono a reagire subito (il famoso like o commento), e questa fretta emotiva ci porta a una specie di anestesia del cuore. Non proviamo più vero dolore o vera gioia per quello che vediamo, perché è tutto decontestualizzato e veloce.
Un esempio di anestesia si manifesta quando vediamo video di incidenti o sofferenze reali che vengono visualizzati e condivisi con la stessa leggerezza di un video divertente. La reiterazione di contenuti forti, decontestualizzati e filtrati dallo schermo, ci desensibilizza.
La nostra reazione non è più dettata dalla preoccupazione per l’altro, ma dal semplice impulso di cliccare e condividere, come vuole l’algoritmo.
Questo è il punto di non ritorno. Se il sistema di potere digitale non ha regole chiare, gli strumenti di IA creano abusi senza freni, e le piattaforme amplificano l’odio sociale, il risultato finale è una società in cui l’empatia, la base della convivenza, sparisce.
Senza empatia, il deepfake non è più un crimine orribile, ma uno scherzo; il cyberbullismo è solo un gioco; e il potere nascosto degli algoritmi non ci preoccupa.

Una delle più urgenti soluzioni da adottare a livello nazionale e globale è imporre un cambiamento etico profondo alla tecnologia. Non basta punire l’abuso dopo che è stato commesso; è necessario imporre regole di sicurezza e di etica fin dalla progettazione del software. Questo significa che l’etica deve essere parte integrante del codice, che gli algoritmi devono essere creati per riconoscere e ridurre i danni sociali e che deve esserci massima trasparenza su come funzionano.
L’innovazione è importante, ma il progresso tecnologico deve servire il benessere delle persone, non dominarlo. La lotta per un’etica digitale è una battaglia per proteggere la nostra dignità, la nostra salute mentale e, in fondo, la nostra capacità di provare sentimenti e di restare umani. Il tempo dell’indifferenza è finito; l’ombra degli algoritmi è cresciuta abbastanza.
Si tratta di agire subito a tutti i livelli istituzionali, politici, economici e sociali per reclamare il controllo etico sul futuro digitale.





