mercoledì 22 aprile 2026

L'INVISIBILE RECINZIONE DIGITALE

 

L'INVISIBILE RECINZIONE DIGITALE

Mentre decidono il nostro futuro algoritmico senza di noi, stiamo diventando stranieri nel nostro stesso mondo

C'è una recinzione invisibile che si sta alzando intorno alle nostre vite digitali. Non è fatta di fili spinati, ma di algoritmi opachi, standard tecnici incompatibili, leggi frammentate e infrastrutture di calcolo sempre più concentrate in poche mani. E il paradosso è crudele: più la tecnologia avanza, più rischiamo di diventare estranei nel mondo che abitiamo.
Non è fantascienza. È la fotografia di un'epoca in cui l'intelligenza artificiale decide chi ottiene un prestito, i computer quantistici promettono di rompere ogni crittografia attuale, e i robot umanoidi escono dai laboratori per entrare nelle fabbriche e nelle case. Mentre tutto questo accade, noi – cittadini, lavoratori, utenti – siamo ridotti a spettatori passivi di decisioni che ridisegnano i confini del potere globale.
Il ritardo che ci esclude
La sociologia dei media ci ha insegnato a riconoscere le "strutture narrative" che orientano il dibattito pubblico. Ma c'è un fenomeno più sottile e pericoloso: il ritardo comunicativo strutturale. Quando un'innovazione tecnologica emerge, i sistemi di potere – statali e corporate – impiegano tempo per "metabolizzarla", disinnescarne le implicazioni disruptive e rielaborarla in forme compatibili con i propri interessi. Solo allora la presentano al pubblico, già incasellata, già addomesticata.
Nel frattempo, chi non è parte di quei circoli decisionali rimane indietro. Non per incapacità, ma per design. È l'economia dell'appartenenza: la diversità di vocabolario, di accesso, di comprensione non è casuale. È il confine che separa chi governa la tecnologia da chi la subisce.
Prendiamo l'opacità epistemologica dei modelli di IA: anche se avessimo accesso completo ai miliardi di parametri di un sistema, non potremmo ricostruire a ritroso il percorso che ha generato una specifica risposta. Non è solo un segreto commerciale protetto legalmente; è un'insondabilità strutturale. E quando la cybersicurezza viene frammentata in interessi nazionali invece di essere trattata come infrastruttura globale, il risultato è un mondo digitale sempre più balcanizzato, dove la vulnerabilità di un nodo mette a rischio tutti gli altri, ma le soluzioni restano prigioniere di logiche territoriali.
Capire questi meccanismi non è un esercizio accademico. È il primo scudo contro l'emarginazione strutturale: chi non legge le architetture del potere digitale, ne subisce le geometrie senza poterle contestare.
Cosa sta succedendo davvero
Mentre leggiamo queste righe, tre rivoluzioni si stanno consumando in silenzio:
  1. Il calcolo quantistico esce dai laboratori. Il computer quantistico cinese Origin Wukong ha integrato capacità di IA, rendendo il quantum computing accessibile via cloud. In Europa e negli USA, la corsa alla supremazia quantistica accelera. Questi computer non sono solo "più veloci": promettono di rompere gli attuali sistemi crittografici che proteggono banche, ospedali, segreti di Stato.
  2. I robot diventano lavoratori autonomi. Pechino ospiterà nell'agosto 2026 la seconda edizione dei Giochi Mondiali di Robot Umanoidi, con gare che vanno dai 100 metri completamente autonomi alla preparazione di alimenti in contesti reali. Non è spettacolo: è il banco di prova di una forza lavoro che non dorme, non sciopera, non invecchia.
  3. L'IA si fonde con l'infrastruttura critica. Dagli algoritmi che gestiscono le reti elettriche a quelli che allocano risorse sanitarie, l'intelligenza artificiale sta diventando il sistema nervoso delle nostre società. Ma è un sistema nervoso opaco, proprietario, concentrato.
Di fronte a questo scenario, la domanda non è "come ci adattiamo?", ma "chi decide come ci adattiamo?". E la risposta attuale è: non noi.
Quattro pilastri per non diventare irrilevanti
Uscire da questa trappola richiede un salto di paradigma. Non basta chiedere "più trasparenza" o "più etica". Serve ripensare le regole del gioco. Ecco quattro direzioni concrete, già discusse in sedi internazionali, supportate da letteratura accademica e sperimentate in progetti pilota.

1. GIURISPRUDENZA QUANTISTICA: Dal diritto newtoniano all'entanglement normativo

Il problema: Le nostre leggi ragionano ancora in termini "newtoniani": confini netti, giurisdizioni territoriali, cause lineari. Ma il cyberspazio è quantistico: è caratterizzato da entanglement (connessioni indissolubili che rendono ogni nodo responsabile della salute dell'intera rete). Un attacco ransomware a un ospedale in Irlanda può partire da server in Russia, passare per nodi in Ucraina e colpire dati archiviati in cloud americani. Chi è responsabile? Quale legge si applica?
Cosa esiste già:
  • Il GDPR europeo (2016) è stato il primo tentativo di "extraterritorialità digitale": si applica a qualsiasi azienda che tratta dati di cittadini UE, ovunque essa sia. È un embrione di giurisprudenza non territoriale.
  • La Budapest Convention on Cybercrime (2001), ratificata da 68 Stati, cerca di armonizzare le legislazioni penali digitali, ma mostra i suoi limiti di fronte a potenze non firmatarie.
  • Il Tallinn Manual (2013, 2017) tenta di applicare il diritto internazionale umanitario al cyberspazio, ma resta un documento non vincolante.
Come renderla realtà: Serve una giurisprudenza quantistica che riconosca l'interconnessione strutturale del digitale. Questo significa:
  • Standard crittografici universali e immuni da backdoor nazionali (come proposto dall'ENISA per la crittografia post-quantistica).
  • Tribunali digitali sovranazionali con competenza su controversie transfrontaliere, sul modello della Corte Europea dei Diritti dell'Uomo ma specializzata in diritti digitali.
  • Principio di "responsabilità a cascata": chi progetta un'infrastruttura digitale critica è responsabile della sua resilienza globale, non solo locale.
Perché ti riguarda: Se non ci sarà una governance globale della crittografia post-quantistica, i tuoi dati bancari, le tue cartelle cliniche, le tue comunicazioni private potranno essere decifrati da chiunque abbia accesso a un computer quantistico. Comprendere questa transizione è l'unico modo per pretendere tutele prima che la serratura si apra.

2. INGEGNERIA DELLA PARTECIPAZIONE: Dall'utente passivo al nodo attivo

Il problema: La trasparenza del codice open source non basta se l'infrastruttura di calcolo resta concentrata: pochi attori hanno le risorse per eseguire, validare o migliorare sistemi complessi. È la partecipazione senza potere.
Cosa esiste già:
  • L'Algorithmic Accountability Act proposto al Congresso USA richiede alle grandi aziende di valutare l'impatto discriminatorio dei loro sistemi automatizzati.
  • Il Digital Services Act e l'AI Act europei introducono obblighi di trasparenza per le piattaforme e classificano i sistemi di IA per livello di rischio, ma restano top-down.
  • Progetti come Mozilla Rally o le Data Co-op sperimentano modelli di "data union", dove gli utenti mettono in comune i propri dati per negoziare collettivamente.
Come renderla realtà: Serve un'ingegneria della partecipazione che modifichi strutturalmente le dinamiche di potere:
  • Diritto all'audit algoritmico civico: cittadini, università e ONG devono poter accedere (in forma anonima e sicura) ai dati di input/output dei sistemi pubblici per valutarne equità e bias.
  • Consigli di sorveglianza algoritmica con potere vincolante: sul modello dei works councils tedeschi, ma estesi alla governance digitale.
  • Infrastrutture di calcolo partecipative: reti distribuite come Folding@home mostrano che il calcolo può essere democratizzato. Serve portarlo su scala istituzionale.
Perché ti riguarda: Se non avrai potere di audit sugli algoritmi che decidono se ottieni un mutuo, un lavoro o una diagnosi medica, sarai soggetto a decisioni inappellabili emesse da scatole nere. La comprensione tecnica di base non è un optional: è il biglietto per non essere esclusi dal tavolo decisionale.

3. MODELLO CERN PER L'INFRASTRUTTURA DIGITALE CRITICA: La sovranità condivisa

Il problema: IA di frontiera, calcolo quantistico, protocolli di sicurezza globali richiedono investimenti e competenze che superano le capacità delle singole nazioni. Il risultato è una corsa agli armamenti digitali che esclude il resto del mondo.
Cosa esiste già:
  • Il CERN di Ginevra ha dimostrato che la scienza di frontiera può essere collaborativa e aperta, dando al mondo il Web e i touch screen.
  • EuroQCI è un'iniziativa UE per creare una rete quantistica sicura in tutti gli Stati membri entro il 2027.
  • GAIA-X cerca di creare un'infrastruttura cloud europea sovrana, ma mostra i limiti di un approccio frammentato.
  • L'IAEA dimostra che è possibile ispezionare e verificare tecnologie dual-use senza rivelare segreti commerciali.
Come renderla realtà: Serve un'Agenzia Internazionale per l'Infrastruttura Digitale con il mandato di:
  • Sviluppare e certificare modelli fondativi di IA aperti e sicuri, accessibili a ricercatori di tutto il mondo (il progetto BigScience con BLOOM lo ha già dimostrato).
  • Gestire pool di potenza computazionale quantistica accessibili on-demand, per spezzare i monopoli tecnologici.
  • Verificare che le normative di cybersecurity non diventino dazi commerciali mascherati.
Perché ti riguarda: Se il calcolo quantistico e l'IA avanzata resteranno monopoli di 2-3 superpotenze e di poche corporation, il divario globale diventerà un abisso computazionale. I paesi e i cittadini esclusi non potranno sviluppare medicine personalizzate, ottimizzare le proprie reti energetiche, proteggere i propri dati. Saranno colonie digitali. Per evitare che la sovranità computazionale diventi un privilegio geografico, l'accesso a queste infrastrutture deve essere progettato con standard inclusivi: multilingue, accessibili per dispositivi a bassa potenza, e co-progettati con comunità storicamente escluse. Capire la posta in gioco è il primo passo per pretendere che le infrastrutture critiche siano beni comuni, non proprietà privata.

4. DISARMO CIBERNETICO: Dalla militarizzazione del codice alla sicurezza collettiva

Il problema: Gli Stati accumulano vulnerabilità zero-day per usarle come armi offensive. Ma ogni zero-day stockpiled è una bomba a orologeria: prima o poi verrà scoperta e usata da attori malevoli contro infrastrutture civili.
Cosa esiste già:
  • Il Wassenaar Arrangement controlla l'esportazione di tecnologie dual-use, ma è volontario.
  • I gruppi UN GGE e OEWG discutono norme di comportamento responsabile nel cyberspazio, senza risultati vincolanti.
  • La Vulnerabilities Equities Process (VEP) negli USA dovrebbe bilanciare la decisione di rivelare o sfruttare una vulnerabilità, ma è opaca.
Come renderla realtà: Serve un Trattato di Disarmo Cibernetico vincolante che:
  • Obblighi gli Stati a segnalare e patchare le vulnerabilità critiche nelle infrastrutture civili entro un tempo definito, rinunciando al loro uso offensivo.
  • Crei un meccanismo di verifica internazionale per ispezionare i programmi di cyberwarfare e distinguere tra difesa legittima e accumulo offensivo.
  • Stabilisca un principio di non proliferazione per gli strumenti di hacking statali.
Perché ti riguarda: Gli attacchi a Colonial Pipeline o a SolarWinds dimostrano che le armi cibernetiche statali non restano confinate. Si diffondono, vengono rubate, riutilizzate. Il disarmo non è idealismo: è autodifesa collettiva. Ignorare questa dinamica significa accettare di vivere in una casa con le serrature rotte, sperando che i ladri non trovino la chiave.

Non è utopia. È sopravvivenza strutturale
Qualcuno obietterà: "Sono percorsi ingenui, irrealizzabili in un mondo di potenze in competizione". Ma la domanda non è se siano facili. È se abbiamo alternative.
Il modello attuale – frammentazione, opacità, corsa agli armamenti digitali – ci sta portando verso un futuro in cui:
  • La tua identità digitale sarà determinata da algoritmi che non puoi contestare.
  • I tuoi dati saranno ostaggi di giurisdizioni incompatibili.
  • Le infrastrutture critiche da cui dipendi saranno vulnerabili a attacchi che nessuno Stato ha interesse a prevenire.
Non è distopia. È la traiettoria attuale. E comprenderla è l'unica difesa contro l'irrilevanza.
Cosa puoi fare ora
  1. Pretendi trasparenza attiva: Non accontentarti di "leggere" le policy. Chiedi audit indipendenti sugli algoritmi pubblici che ti riguardano. Molte città (Amsterdam, Helsinki, New York) hanno già registri pubblici degli algoritmi.
  2. Sostieni le infrastrutture comuni: Partecipa a progetti di calcolo distribuito, usa software open source, esplora iniziative di data cooperative. La sovranità digitale si costruisce dal basso.
  3. Vota la tecnologia: Nelle elezioni, chiedi posizioni concrete su AI Act, neutralità della rete, diritto alla riparazione digitale, investimenti in infrastrutture pubbliche di calcolo.
  4. Educati senza delegare: Non devi diventare un programmatore quantistico. Ma devi capire abbastanza da non farti raccontare storie. Segui fonti indipendenti (EFF, AlgorithmWatch, Privacy International), leggi oltre i titoli, diffida del determinismo tecnologico.
Il bivio
La recinzione invisibile non si abbatte con il panico, ma con la competenza distribuita. Ogni cittadino che comprende come funzionano i sistemi che lo governano, diventa un nodo di resistenza strutturale. Non serve essere ingegneri per pretendere trasparenza, né diplomatici per esigere standard globali. Serve solo smettere di delegare il futuro a chi lo scrive in codice chiuso. La tecnologia non è un destino. È una scelta collettiva. E la prima scelta è decidere di leggerla.

Riferimenti selezionati per approfondire:
  • Kissinger, Schmidt, Huttenlocher, The Age of AI (2021)
  • Benjamin Bratton, The Stack (2015)
  • Report annuali AI Now Institute (audit algoritmici)
  • Chris Bernhardt, Quantum Computing for Everyone (2019)
  • Documenti UN OEWG sul cyberspazio
  • van Dijck, Poell, de Waal, The Platform Society (2018)

Nessun commento:

Posta un commento