De illusie van zekerheid: waarom AI-gestuurde voorspelling een instrument van macht is, en geen feit

9

Tijdens een recent managementseminarie kwam een studente met een provocerend inzicht: ze gebruikt AI-chatbots als ‘waarzeggers’. Ze beweerde dat AI, net als het lezen van theebladeren, verrassend nauwkeurige inzichten in de toekomst kan bieden, daarbij verwijzend naar een recent voorbeeld waarin het correct een stijging van de aandelenmarkt met 2% voorspelde.

Hoewel dit misschien klinkt als een onschuldige nieuwigheid, raakt het aan een diepgaande en gevaarlijke verschuiving in de manier waarop de samenleving functioneert. We stappen af van traditionele methoden van voorspellen – astronomie, sociologie of economie – en overhandigen de sleutels van de toekomst aan een nieuwe klasse van waarzeggers: computerwetenschappers, data-analisten en ingenieurs.

De verwarring tussen voorspelling en feit

Er schuilt een fundamentele logische fout in de kern van onze moderne obsessie met voorspellende technologie: voorspellingen zijn geen feiten.

Feiten behoren strikt tot het heden en het verleden. Per definitie heeft de toekomst niet plaatsgevonden; daarom zijn er geen feiten over. Een bewering over wat kan gebeuren kan een schatting, een waarschuwing of een verlangen zijn, maar het kan nooit een feitelijke waarheid zijn.

Wanneer we AI-resultaten als ‘waarheid’ behandelen, lopen we in een gevaarlijke val. We beginnen statistische waarschijnlijkheden te verwarren met onvermijdelijke realiteiten, waarbij we vergeten dat deze modellen alleen maar de meest waarschijnlijke volgende stap berekenen op basis van historische patronen.

De fantasie van “Laplace’s demon”

De drijvende kracht achter moderne AI wordt gevoed door een wetenschappelijke fantasie die bekend staat als Laplace’s Demon. Het concept, voorgesteld door Pierre-Simon Laplace, suggereert dat als een intelligentie volledige kennis zou bezitten van de positie en het momentum van elk deeltje in het universum, de toekomst net zo zichtbaar zou zijn als het verleden. In deze visie is onzekerheid eenvoudigweg een gebrek aan gegevens.

Moderne AI-voorstanders jagen deze droom na met ‘brute kracht’. De logica volgt een meedogenloze cyclus:
1. Verzamel alles: Volg elke beweging, aankoop, sociale interactie en biologische maatstaf.
2. Verwerk alles: Gebruik enorme rekenkracht om deze datapunten te analyseren.
3. Voorspel alles: Gebruik de resulterende patronen om onzekerheid weg te nemen.

Dit heeft het menselijk bestaan ​​tot een handelsartikel gemaakt dat moet worden ‘gemarteld’ voor data. We worden in elk facet van het leven gekwantificeerd – van ons slaappatroon tot onze politieke voorkeuren – allemaal om de honger van de machine naar voorspellende nauwkeurigheid te voeden.

Machine Learning: een triomf van schaal, niet van wetenschap

Misschien wel de meest ontnuchterende realiteit van de AI-revolutie is dat deze niet werd aangedreven door een plotselinge vonk van menselijk genie of een fundamentele doorbraak in het begrijpen van hoe de geest werkt. In plaats daarvan was het, zoals Oxford-professor Michael Wooldridge opmerkt, een overwinning van “schaal op de wetenschap.”

Tientallen jaren lang hadden neurale netwerken moeite om betekenisvolle resultaten te produceren. De ‘doorbraak’ die alles veranderde was niet een nieuwe manier van denken, maar eerder de komst van:
Enorme datasets: De enorme hoeveelheid digitale informatie die beschikbaar is.
Verhoogde rekenkracht: Het hardwarevermogen (GPU’s) om die informatie te verwerken.

Machine learning is in wezen ‘voorspelling op steroïden’. Wanneer een taalmodel een zin schrijft, is dat niet ‘denken’; het voorspelt het meest statistisch waarschijnlijke volgende woord op basis van miljarden eerdere voorbeelden. Wanneer een algoritme een gezicht herkent, berekent het eenvoudigweg de waarschijnlijkheid dat bepaalde pixels overeenkomen met een geleerd patroon.

De verborgen kosten van het “Orakel”

Omdat deze voorspellende modellen enorme hulpbronnen vereisen, is hun ontwikkeling onlosmakelijk verbonden met macht en uitbuiting. De “brute force”-methode die werd gebruikt om deze systemen te bouwen, berustte op:
– Het massale toezicht op de wereldbevolking.
– De uitbuiting van kwetsbare werknemers om gegevens te labelen.
– Een enorme consumptie van natuurlijke hulpbronnen.
– Het ongeoorloofd vergaren van intellectueel eigendom.

Bovendien heeft de opkomst van voorspellingsmarkten (zoals Polymarket) het menselijk lijden en de politieke instabiliteit veranderd in een vorm van gegamificeerde speculatie. Wanneer we wedden op de uitkomst van oorlogen of natuurrampen, ontmenselijken we de slachtoffers en behandelen we crises in de echte wereld slechts als datapunten voor winst.

Conclusie

Het gevaar van AI-voorspellingen ligt in het vermogen ervan om zich voor te doen als objectieve waarheid en tegelijkertijd te fungeren als controlemiddel. Voorspellingen beschrijven niet alleen de toekomst; zij geven er vorm aan door sociaal gedrag in de richting van de voorspelde uitkomst te sturen.

Uiteindelijk moeten we erkennen dat algoritmen geen orakels van de waarheid zijn, maar instrumenten van macht – en degenen die de gegevens controleren, bepalen de richting van de wereld.