Meta, il Papa “non morto” e i limiti dell’intelligenza artificiale di fronte alla realtà. La notizia della morte di Papa Francesco, avvenuta il 21 aprile 2025, ha fatto rapidamente il giro del mondo, generando un’ondata di reazioni, commemorazioni e approfondimenti sulla figura del Pontefice e sull’impatto del suo pontificato. Le prime pagine dei quotidiani internazionali si sono riempite di titoli solenni, mentre sui social si è moltiplicato un flusso continuo di ricordi, preghiere e analisi.
La stranezza non è passata inosservata. Diversi utenti hanno condiviso schermate delle conversazioni con l’assistente AI, stupiti dalla mancanza di aggiornamento su un evento così eclatante. Alcuni hanno riso, altri si sono interrogati, altri ancora hanno visto in quell’errore un campanello d’allarme su quanto possiamo – o non possiamo – davvero affidarci all’intelligenza artificiale per ricevere informazioni attendibili in tempo reale.
Perché una delle AI più diffuse al mondo ha ignorato la notizia della morte del Pontefice?
Ma soprattutto cosa racconta questo episodio sui limiti strutturali e funzionali delle intelligenze artificiali che stanno entrando sempre più nelle nostre vite?
Inoltre, esistono filtri e barriere preventive molto rigide. Le aziende che sviluppano questi strumenti si muovono in un territorio delicato, nel quale la disinformazione può causare danni enormi. Per questo, spesso, le AI sono programmate per evitare di confermare la morte di una persona pubblica se la notizia non è stata verificata da fonti ufficiali e consolidate.
È un principio prudenziale, nato per evitare falsi annunci e bufale, ma che, in situazioni come questa, mostra il rovescio della medaglia: l’eccesso di cautela diventa disconnessione dalla realtà.
Nel caso di Papa Francesco, la questione si è fatta ancora più spinosa per via dei precedenti. Già negli anni passati, il Papa era stato bersaglio di deepfake e contenuti generati artificialmente – basti pensare alla celebre (e falsa) foto del Papa in piumino bianco, o alle fake news sulla sua salute. Per un algoritmo, distinguere tra verità e finzione in un tale mare di contenuti diventa un’impresa titanica. E in assenza di un chiaro via libera da parte di fonti certificate, meglio tacere o – peggio – continuare a negare l’evidenza.
Ma l’errore di Meta va ben oltre l’episodio in sé.
Solleva un interrogativo più grande: siamo davvero pronti ad affidarci alle intelligenze artificiali per ricevere informazioni attendibili sull’attualità, sul mondo che ci circonda, sulla vita e sulla morte dei suoi protagonisti?
La risposta, oggi, sembra ancora negativa. Le AI si sono dimostrate eccezionali nella rielaborazione dei dati, nella creazione di testi, nell’interazione simulata con gli utenti. Ma quando si tratta di informazione giornalistica – quella vera, fatta di notizie verificate, tempestive, inserite in un contesto – i loro limiti diventano evidenti.
Le AI non aggiornano sé stesse in tempo reale, non leggono le agenzie stampa come farebbe un redattore, non valutano la rilevanza di un evento rispetto a un altro. E anche quando hanno accesso alle fonti, spesso non sanno interpretarle correttamente.
A questa difficoltà si aggiunge un’altra questione fondamentale: il principio della “libertà bestiale” – per riprendere un’espressione cara al pensiero filosofico e politico – che regola l’architettura di molte AI. Una libertà non come capacità razionale e responsabile di scelta, ma come mancanza di limiti, di orientamento, di coscienza.
Le AI non sanno “fare attenzione”, non riconoscono il lutto collettivo, non sentono il dovere di informare in modo rispettoso e adeguato. Si muovono in un universo matematico di probabilità, in cui persino la morte del Papa può passare inosservata se l’algoritmo non ritiene sufficienti le prove disponibili.
Ma cosa si può provare a fare, allora, per migliorare questo scenario?
La risposta non è semplice, ma alcune direzioni appaiono chiare. Innanzitutto, è necessario implementare aggiornamenti in tempo reale nei modelli di AI, con una maggiore integrazione di dati provenienti da fonti certificate, e con protocolli di emergenza per eventi di rilevanza globale.
Serve poi un’evoluzione profonda dei modelli linguistici, che imparino a distinguere il contesto, ad analizzare la qualità delle fonti, a filtrare le fake news con maggiore efficacia.
Ma soprattutto, serve un nuovo patto tra tecnologia e informazione. Le aziende che sviluppano queste AI devono collaborare con redazioni, agenzie stampa, istituzioni pubbliche, università, per costruire un ecosistema informativo affidabile e condiviso.
La “verità” non può essere lasciata a un calcolo statistico.
Il cortocircuito digitale e informativo di Meta Ai su Papa Francesco, insomma, non è stato solo un inciampo tecnico. È stato il segnale di un problema più profondo, che riguarda il rapporto tra intelligenza artificiale e realtà. Una realtà che non può essere semplicemente analizzata in pixel e parole, ma che ha bisogno di occhi, coscienza, responsabilità.
In attesa che le AI imparino – se mai potranno – a “sentire” il mondo, il compito di informare con precisione e umanità resta, per ora, nelle mani dei giornalisti, dei ricercatori, di chi ogni giorno si sporca le mani nel tentativo di raccontare, rimanere il frutto di un processo umano – e umanamente fragile – di verifica, confronto, comprensione di ciò che accade nel mondo.
Anche quando l’algoritmo dice il contrario.