La Rete che doveva democratizzare la conoscenza rischia di trasformarsi nel suo opposto.
Tra fake news che corrono alla velocità della luce ed intelligenza artificiale capace di fabbricare realtà alternative in pochi secondi, le Nazioni Unite hanno deciso di rompere gli indugi. Da parte dell’ONU, due mosse sul tavolo: principi universali per proteggere l’integrità dell’informazione e un framework di governance mondiale per l’AI.
Il paradosso della connessione globale
Internet ci ha regalato un accesso senza precedenti alle informazioni, ma ha anche spalancato le porte a una crisi altrettanto inedita. Le bufale sui vaccini che diventano virali in poche ore, i negazionisti climatici che occupano gli spazi pubblici digitali, le campagne di propaganda orchestrate con metodi industriali.
Il meccanismo è sempre lo stesso: contenuti progettati per scatenare reazioni emotive forti, dall’indignazione alla rabbia, perché sono quelli che generano più clic, più condivisioni, più guadagni pubblicitari.
È qui che si annida il problema strutturale. Le piattaforme digitali non sono neutrali: i loro algoritmi premiano esattamente ciò che crea polarizzazione. Non per cattiveria, ma per business model. L’economia dell’attenzione funziona così, e il risultato è un sistema che amplifica naturalmente odio e menzogne.
L’Intelligenza Artificiale come acceleratore del caos
Se questo scenario era già preoccupante, l’intelligenza artificiale generativa ha tolto ogni freno. Produrre un deepfake convincente o un articolo pieno di informazioni false non richiede più competenze tecniche avanzate. Bastano strumenti accessibili a tutti e qualche minuto di tempo. Il costo della manipolazione è crollato a zero, mentre la capacità di distinguere il vero dal falso è diventata sempre più complessa.
Di fronte a questa deriva, l’ONU ha messo nero su bianco cinque pilastri strategici che dovrebbero guidare l’azione globale.
Ricostruire la fiducia. Senza credibilità delle fonti e delle istituzioni, la democrazia si svuota. Servono sistemi di verifica robusti e comunità informate capaci di resistere alla disinformazione.
Cambiare gli incentivi economici. Il modello pubblicitario che premia i contenuti tossici va ripensato radicalmente. Non bastano aggiustamenti cosmetici: serve un’alternativa strutturale.
Educare e proteggere il pubblico. L’alfabetizzazione digitale non può più essere un optional. Fact-checking, strumenti di tutela online e consapevolezza critica devono entrare nelle politiche pubbliche come priorità assoluta.
Sostenere l’informazione indipendente. Il giornalismo libero e pluralista resta l’antidoto principale alla disinformazione. Ma le redazioni locali sono in crisi, schiacciate dal crollo dei ricavi pubblicitari finiti nelle casse delle big tech. Serve un intervento deciso.
Garantire trasparenza totale. Gli algoritmi che decidono cosa vediamo online non possono restare scatole nere. Ricercatori e società civile devono poter accedere ai dati per studiare come si diffonde l’informazione e dove si annidano i rischi.
Dalle parole ai fatti: chi deve fare cosa ?!?
Il documento delle Nazioni Unite non si limita a enunciare principi. Distribuisce responsabilità precise lungo tutta la filiera digitale.
Le piattaforme devono progettare sicurezza e privacy fin dall’origine, moderare i contenuti in modo uniforme in tutte le lingue e marcare chiaramente ciò che viene generato artificialmente.
Gli sviluppatori di AI hanno l’obbligo di operare in modo trasparente, sottoporsi ad audit esterni e rispettare i diritti fondamentali delle persone.
Gli inserzionisti devono pretendere catene pubblicitarie pulite, evitando che i loro investimenti finanzino ecosistemi di odio.
Gli Stati devono proteggere la libertà di stampa, garantire l’accesso alle informazioni e difendere concretamente giornalisti e ricercatori.
L’intelligenza artificiale tra regole e geopolitica
In parallelo, l’ONU sta lavorando a un organismo di monitoraggio permanente per l’AI, sul modello di quello che esiste per il clima. L’idea è creare standard comuni in un panorama oggi frammentato in cui ogni Paese va per conto suo.
Ma la realtà supera la teoria…
In zone di guerra come l’Ucraina o Gaza sono già operative armi autonome in grado di selezionare e colpire obiettivi senza supervisione umana diretta.
Una macchina non distingue un soldato da un civile, un deposito militare da un ospedale. E se sbaglia, non ne risponde a nessuno. I dilemmi etici sono enormi.
A marzo dello scorso anno, oltre 120 Paesi hanno firmato la prima risoluzione universale sull’intelligenza artificiale. Il testo spinge per uno sviluppo tecnologico sicuro ed etico, pone al centro i diritti umani e sottolinea l’urgenza di colmare il gap digitale tra Paesi ricchi e poveri.
Il problema è che le grandi potenze giocano partite diverse. Washington vuole proteggere il vantaggio tecnologico e favorire le proprie aziende. Pechino punta su cooperazione e diffusione dell’accesso. Bruxelles, con l’AI Act, si è posizionata come capofila normativo imponendo vincoli severi ai sistemi ad alto rischio.
Il rischio concreto è che invece di convergere su regole comuni, il mondo si spacchi in blocchi contrapposti, trasformando l’AI in un nuovo terreno di scontro geopolitico.
Questa è una sfida che riguarda tutti noi…
Le Nazioni Unite hanno messo sul piatto due questioni che non possiamo più rimandare: proteggere l’informazione dall’inquinamento sistematico e governare l’intelligenza artificiale prima che sfugga di mano. Non sono temi astratti da convegno: riguardano il modo in cui leggiamo le notizie ogni mattina, l’affidabilità delle elezioni, la sicurezza nelle guerre future.
Non esistono soluzioni miracolose. Esiste però una strada fatta di trasparenza reale, educazione diffusa, regole condivise e responsabilità distribuite in modo chiaro. L’alternativa è lasciare che il digitale diventi un territorio senza legge dove diritti e democrazie finiscono travolti.
Il futuro della rete può essere più umano ed etico. Ma solo se governi, aziende e cittadini scelgono di affrontare insieme questa sfida. Non è solo tecnologia. È civiltà.






