Dalla neutralità alla governance algoritmica: il potere tecnico nell’epoca dell’intelligenza artificiale


Introduzione

Nelle società digitalmente mature, il potere assume forme nuove: non più soltanto istituzionali o economiche, ma tecniche. La pretesa neutralità degli strumenti di calcolo e valutazione — indicatori, standard, algoritmi — costituisce oggi una delle modalità più pervasive della governance contemporanea.
L’intelligenza artificiale, in particolare, si presenta come tecnologia di supporto alla decisione, ma tende progressivamente a diventare tecnologia di governo: non solo elabora i dati, ma li ordina, li interpreta e li trasforma in regole implicite di condotta.

La retorica della neutralità

Ogni sistema tecnico si legittima attraverso la promessa di oggettività. Nelle procedure automatizzate si suppone che la decisione derivi dal calcolo, non dal giudizio; dal dato, non dal valore. Tuttavia, questa promessa produce un effetto paradossale: più gli strumenti appaiono neutrali, più risulta invisibile il potere che incorporano.
Dietro ogni algoritmo vi è un insieme di scelte — linguistiche, matematiche, normative — che definiscono ciò che conta e ciò che resta escluso. La neutralità, dunque, è spesso un linguaggio di copertura per scelte già orientate.

La tecnocrazia della misura

Indicatori, punteggi e ranking governano ormai interi settori della vita pubblica. Nel momento in cui una decisione viene tradotta in metrica, essa cessa di essere politica e diventa amministrativa. La complessità si riduce a un numero, e il numero diventa norma.
L’IA amplifica questa logica: traduce l’incertezza in previsione, la pluralità in classificazione, l’ambiguità in decisione automatica. È un potere che opera per astrazione, sostituendo la discussione con il calcolo, e la deliberazione con l’output.

L’IA come nuovo decisore

Gli algoritmi di intelligenza artificiale non si limitano a eseguire istruzioni: apprendono, interpretano e suggeriscono azioni. Nel fare ciò, introducono una forma di intenzionalità tecnica, spesso invisibile ma operante.
Quando modelli predittivi stabiliscono criteri di rischio, di priorità o di ammissibilità — in ambiti come il credito, la sicurezza, la salute o la giustizia — essi non si limitano a informare la decisione umana: la preconfigurano.
Il decisore politico o amministrativo agisce così entro un orizzonte già plasmato dal codice, dove la scelta è formalmente libera ma sostanzialmente vincolata. L’IA diventa in questo senso un decisore assistito che finisce per assistere se stesso, un governante senza mandato esplicito ma con enorme capacità di orientamento.

Dal bias all’allineamento

Il bias non è solo un errore tecnico: è il riflesso di un ordine culturale incorporato nei dati. Gli algoritmi imparano dal passato, ma in questo modo istituzionalizzano le sue disuguaglianze.
L’attuale dibattito sull’alignment — la coerenza dei modelli rispetto a valori e obiettivi umani — mostra il tentativo di controllare la direzione etica della macchina, ma al tempo stesso rivela un’altra tensione: chi decide quali valori contano, e con quale legittimità?
In un mondo digitalizzato all’estremo, l’allineamento diventa il nuovo campo di conflitto politico, mascherato da problema tecnico.

Per una nuova legittimità del sapere tecnico

La sfida non è respingere la tecnologia, ma ripoliticizzarla: restituire alla società la capacità di discutere i criteri, i modelli, le metriche che la governano.
Serve una forma di trasparenza riflessiva, che non si limiti a rendere visibili i processi, ma ne renda anche discutibile la logica. Solo riconoscendo che ogni codice è una decisione, e ogni algoritmo una forma di norma, sarà possibile preservare una democrazia capace di convivere con l’intelligenza artificiale senza esserne dominata.

Bibliografia essenziale

  • Habermas, J. La scienza e la tecnica come “ideologia”, Laterza, 1973.
  • Foucault, M. Sécurité, territoire, population, Gallimard, 2004.
  • Latour, B. La scienza in azione, Ed. Comunità, 1998.
  • Crawford, K. Atlas of AI, Yale University Press, 2021.
  • O’Neil, C. Weapons of Math Destruction, Crown, 2016.
  • Zuboff, S. The Age of Surveillance Capitalism, PublicAffairs, 2019.