L’illusione della certezza: perché la previsione basata sull’intelligenza artificiale è uno strumento di potere, non un fatto

17

In un recente seminario esecutivo, una studentessa ha offerto un’intuizione provocatoria: utilizza i chatbot basati sull’intelligenza artificiale come “indovini”. Ha affermato che, proprio come leggere le foglie di tè, l’intelligenza artificiale può fornire scorci sorprendentemente accurati del futuro, citando un caso recente in cui ha previsto correttamente un aumento del 2% nel mercato azionario.

Sebbene questa possa sembrare una novità innocua, tocca un cambiamento profondo e pericoloso nel modo in cui funziona la società. Ci stiamo allontanando dai metodi tradizionali di previsione – astronomia, sociologia o economia – e consegniamo le chiavi del futuro a una nuova classe di indovini: scienziati informatici, analisti di dati e ingegneri.

La confusione tra previsione e fatto

C’è un errore logico fondamentale al centro della nostra moderna ossessione per la tecnologia predittiva: le previsioni non sono fatti.

I fatti appartengono strettamente al presente e al passato. Per definizione, il futuro non è avvenuto; quindi, non ci sono fatti a riguardo. Un’affermazione su ciò che potrebbe accadere può essere una stima, un avvertimento o un desiderio, ma non può mai essere una verità fattuale.

Quando trattiamo i risultati dell’intelligenza artificiale come “verità”, cadiamo in una trappola pericolosa. Cominciamo a confondere le probabilità statistiche con realtà inevitabili, dimenticando che questi modelli stanno semplicemente calcolando il passo successivo più probabile sulla base di modelli storici.

La fantasia del “demone di Laplace”

La spinta dietro l’intelligenza artificiale moderna è alimentata da una fantasia scientifica nota come Il demone di Laplace. Proposto da Pierre-Simon Laplace, il concetto suggerisce che se un’intelligenza possedesse una conoscenza completa della posizione e della quantità di moto di ogni particella nell’universo, il futuro sarebbe visibile quanto il passato. In questa prospettiva, l’incertezza è semplicemente una mancanza di dati.

I moderni sostenitori dell’intelligenza artificiale inseguono questo sogno attraverso la “forza bruta”. La logica segue un ciclo incessante:
1. Raccogli tutto: Tieni traccia di ogni movimento, acquisto, interazione sociale e metrica biologica.
2. Elabora tutto: utilizza un’enorme potenza di calcolo per analizzare questi punti dati.
3. Prevedi tutto: utilizza i modelli risultanti per eliminare l’incertezza.

Ciò ha trasformato l’esistenza umana in una merce da “torturare” per i dati. Veniamo quantificati in ogni aspetto della vita, dai nostri ritmi di sonno alle nostre inclinazioni politiche, tutto per soddisfare la fame di accuratezza predittiva della macchina.

Apprendimento automatico: un trionfo di scala, non di scienza

Forse la realtà che fa più riflettere sulla rivoluzione dell’intelligenza artificiale è che non è stata guidata da un’improvvisa scintilla del genio umano o da una svolta fondamentale nella comprensione di come funziona la mente. Invece, come osserva il professore di Oxford Michael Wooldridge, si è trattato di una vittoria di scala sulla scienza.

Per decenni, le reti neurali hanno faticato a produrre risultati significativi. La “svolta” che ha cambiato tutto non è stata un nuovo modo di pensare, ma piuttosto l’arrivo di:
Enormi set di dati: l’enorme volume di informazioni digitali disponibili.
Calcolo aumentato: la potenza hardware (GPU) per elaborare tali informazioni.

L’apprendimento automatico è essenzialmente “previsione sotto steroidi”. Quando un modello linguistico scrive una frase, non sta “pensando”; prevede la parola successiva più statisticamente probabile sulla base di miliardi di esempi precedenti. Quando un algoritmo riconosce un volto, calcola semplicemente la probabilità che determinati pixel corrispondano a uno schema appreso.

Il costo nascosto dell'”Oracolo”

Poiché questi modelli predittivi richiedono immense risorse, il loro sviluppo è indissolubilmente legato al potere e allo sfruttamento. Il metodo della “forza bruta” utilizzato per costruire questi sistemi si è basato su:
– La sorveglianza di massa delle popolazioni globali.
– Lo sfruttamento dei lavoratori vulnerabili per etichettare i dati.
– Un consumo massiccio di risorse naturali.
– La raccolta non autorizzata di proprietà intellettuale.

Inoltre, l’ascesa dei mercati di previsione (come Polymarket) ha trasformato la sofferenza umana e l’instabilità politica in una forma di speculazione gamificata. Quando scommettiamo sull’esito di guerre o disastri naturali, disumanizziamo le vittime e trattiamo le crisi del mondo reale come semplici dati a scopo di lucro.

Conclusione

Il pericolo della previsione dell’intelligenza artificiale risiede nella sua capacità di mascherarsi da verità oggettiva agendo come strumento di controllo. Le previsioni non si limitano a descrivere il futuro; lo modellano piegando il comportamento sociale verso il risultato previsto.

In definitiva, dobbiamo riconoscere che gli algoritmi non sono oracoli di verità, ma strumenti di potere, e coloro che controllano i dati controllano la direzione del mondo.