Lors d’un récent séminaire pour cadres, une étudiante a offert un aperçu provocateur : elle utilise les chatbots IA comme « diseurs de bonne aventure ». Elle a affirmé que, tout comme la lecture des feuilles de thé, l’IA peut fournir des aperçus étonnamment précis de l’avenir, citant un cas récent où elle a correctement prédit une hausse de 2 % du marché boursier.
Même si cela peut sembler une nouveauté inoffensive, cela implique un changement profond et dangereux dans le fonctionnement de la société. Nous nous éloignons des méthodes traditionnelles de prévision (astronomie, sociologie ou économie) et confions les clés de l’avenir à une nouvelle classe de devins : les informaticiens, les analystes de données et les ingénieurs.
Зміст
La confusion entre prédiction et fait
Il existe une erreur logique fondamentale au cœur de notre obsession moderne pour la technologie prédictive : les prédictions ne sont pas des faits.
Les faits appartiennent strictement au présent et au passé. Par définition, l’avenir n’a pas eu lieu ; il n’existe donc aucun fait à ce sujet. Une affirmation sur ce qui pourrait arriver peut être une estimation, un avertissement ou un désir, mais elle ne peut jamais être une vérité factuelle.
Lorsque nous traitons les résultats de l’IA comme de la « vérité », nous tombons dans un piège dangereux. Nous commençons à confondre les probabilités statistiques avec des réalités inévitables, oubliant que ces modèles calculent simplement la prochaine étape la plus probable sur la base de modèles historiques.
Le fantasme du “Démon de Laplace”
Le moteur de l’IA moderne est alimenté par un fantasme scientifique connu sous le nom de Démon de Laplace. Proposé par Pierre-Simon Laplace, le concept suggère que si une intelligence possédait une connaissance complète de la position et de la dynamique de chaque particule de l’univers, le futur serait aussi visible que le passé. De ce point de vue, l’incertitude est simplement un manque de données.
Les partisans de l’IA moderne poursuivent ce rêve par la « force brute ». La logique suit un cycle implacable :
1. Collectez tout : Suivez chaque mouvement, achat, interaction sociale et mesure biologique.
2. Traitez tout : Utilisez une puissance de calcul massive pour analyser ces points de données.
3. Prédisez tout : Utilisez les modèles résultants pour éliminer l’incertitude.
Cela a transformé l’existence humaine en une marchandise à « torturer » pour obtenir des données. Nous sommes quantifiés dans toutes les facettes de la vie – de nos habitudes de sommeil à nos tendances politiques – tout cela pour nourrir la soif de précision prédictive de la machine.
Machine Learning : un triomphe de l’échelle, pas de la science
La réalité la plus triste de la révolution de l’IA est peut-être qu’elle n’a pas été motivée par une étincelle soudaine du génie humain ou une avancée fondamentale dans la compréhension du fonctionnement de l’esprit. Au lieu de cela, comme le note le professeur d’Oxford Michael Wooldridge, il s’agissait d’une victoire d’échelle sur la science.
Pendant des décennies, les réseaux de neurones ont eu du mal à produire des résultats significatifs. La « percée » qui a tout changé n’était pas une nouvelle façon de penser, mais plutôt l’arrivée de :
– Ensembles de données massifs : Le volume considérable d’informations numériques disponibles.
– Augmentation du calcul : La puissance matérielle (GPU) nécessaire au traitement de ces informations.
L’apprentissage automatique est essentiellement une « prédiction sous stéroïdes ». Lorsqu’un modèle de langage écrit une phrase, il ne s’agit pas de « penser » ; il prédit le mot suivant le plus probable statistiquement sur la base de milliards d’exemples précédents. Lorsqu’un algorithme reconnaît un visage, il calcule simplement la probabilité que certains pixels correspondent à un motif appris.
Le coût caché de “l’Oracle”
Parce que ces modèles prédictifs nécessitent d’immenses ressources, leur développement est inextricablement lié au pouvoir et à l’exploitation. La méthode de « force brute » utilisée pour construire ces systèmes s’est appuyée sur :
– La surveillance massive des populations mondiales.
– L’exploitation des travailleurs vulnérables pour étiqueter les données.
– Une consommation massive de ressources naturelles.
– La récolte non autorisée de propriété intellectuelle.
De plus, l’essor des marchés de prédiction (tels que Polymarket) a transformé la souffrance humaine et l’instabilité politique en une forme de spéculation ludique. Lorsque nous parions sur l’issue de guerres ou de catastrophes naturelles, nous déshumanisons les victimes et traitons les crises du monde réel comme de simples données à but lucratif.
Conclusion
Le danger de la prédiction par l’IA réside dans sa capacité à se faire passer pour une vérité objective tout en agissant comme un outil de contrôle. Les prédictions ne décrivent pas seulement l’avenir ; ils le façonnent en infléchissant le comportement social vers le résultat prévu.
En fin de compte, nous devons reconnaître que les algorithmes ne sont pas des oracles de vérité, mais des instruments de pouvoir, et que ceux qui contrôlent les données contrôlent la direction du monde.
