A ilusão da certeza: por que a previsão baseada em IA é uma ferramenta de poder, não de fato

11

Num seminário executivo recente, uma estudante ofereceu uma visão provocativa: ela usa chatbots de IA como “adivinhos”. Ela afirmou que, tal como a leitura de folhas de chá, a IA pode fornecer vislumbres surpreendentemente precisos do futuro, citando um caso recente em que previu corretamente um aumento de 2% no mercado de ações.

Embora isto possa parecer uma novidade inofensiva, aborda uma mudança profunda e perigosa na forma como a sociedade funciona. Estamos nos afastando dos métodos tradicionais de previsão – astronomia, sociologia ou economia – e entregando as chaves do futuro a uma nova classe de adivinhos: cientistas da computação, analistas de dados e engenheiros.

A confusão entre previsão e fato

Há um erro lógico fundamental no cerne da nossa obsessão moderna com a tecnologia preditiva: previsões não são fatos.

Os fatos pertencem estritamente ao presente e ao passado. Por definição, o futuro não aconteceu; portanto, não há fatos sobre isso. Uma afirmação sobre o que poderia acontecer pode ser uma estimativa, um aviso ou um desejo, mas nunca pode ser uma verdade factual.

Quando tratamos os resultados da IA ​​como “verdades”, caímos numa armadilha perigosa. Começamos a confundir probabilidades estatísticas com realidades inevitáveis, esquecendo que estes modelos estão apenas a calcular o próximo passo mais provável com base em padrões históricos.

A Fantasia do “Demônio de Laplace”

O impulso por trás da IA moderna é alimentado por uma fantasia científica conhecida como Demônio de Laplace. Proposto por Pierre-Simon Laplace, o conceito sugere que se uma inteligência possuísse conhecimento completo da posição e do momento de cada partícula do universo, o futuro seria tão visível quanto o passado. Nesta visão, a incerteza é simplesmente uma falta de dados.

Os proponentes da IA ​​moderna perseguem esse sonho por meio da “força bruta”. A lógica segue um ciclo implacável:
1. Colete tudo: Acompanhe cada movimento, compra, interação social e métrica biológica.
2. Processe tudo: Use enorme poder computacional para analisar esses pontos de dados.
3. Preveja tudo: Use os padrões resultantes para eliminar a incerteza.

Isto transformou a existência humana numa mercadoria a ser “torturada” por dados. Estamos a ser quantificados em todas as facetas da vida – desde os nossos padrões de sono até às nossas tendências políticas – tudo para alimentar a fome da máquina por precisão preditiva.

Aprendizado de máquina: um triunfo de escala, não de ciência

Talvez a realidade mais preocupante da revolução da IA seja que ela não foi impulsionada por uma súbita centelha de génio humano ou por um avanço fundamental na compreensão de como a mente funciona. Em vez disso, como observa Michael Wooldridge, professor de Oxford, foi uma vitória de escala sobre a ciência.

Durante décadas, as redes neurais lutaram para produzir resultados significativos. O “avanço” que mudou tudo não foi uma nova forma de pensar, mas sim a chegada de:
Conjuntos de dados massivos: O grande volume de informações digitais disponíveis.
Maior computação: A potência do hardware (GPUs) para processar essas informações.

O aprendizado de máquina é essencialmente uma “previsão sobre esteróides”. Quando um modelo de linguagem escreve uma frase, não está “pensando”; é prever a próxima palavra estatisticamente mais provável com base em bilhões de exemplos anteriores. Quando um algoritmo reconhece um rosto, ele está simplesmente calculando a probabilidade de certos pixels corresponderem a um padrão aprendido.

O Custo Oculto do “Oráculo”

Como estes modelos preditivos requerem imensos recursos, o seu desenvolvimento está intrinsecamente ligado ao poder e à exploração. O método de “força bruta” utilizado para construir estes sistemas tem-se baseado em:
– A vigilância em massa das populações globais.
– A exploração de trabalhadores vulneráveis ​​para rotular dados.
– Um consumo massivo de recursos naturais.
– A colheita não autorizada de propriedade intelectual.

Além disso, a ascensão dos mercados de previsão (como o Polymarket) transformou o sofrimento humano e a instabilidade política numa forma de especulação gamificada. Quando apostamos no resultado de guerras ou desastres naturais, desumanizamos as vítimas e tratamos as crises do mundo real como meros dados para fins lucrativos.

Conclusão

O perigo da previsão da IA reside na sua capacidade de se disfarçar como verdade objectiva, ao mesmo tempo que actua como uma ferramenta de controlo. As previsões não descrevem apenas o futuro; eles o moldam ao direcionar o comportamento social em direção ao resultado previsto.

Em última análise, devemos reconhecer que os algoritmos não são oráculos da verdade, mas instrumentos de poder – e aqueles que controlam os dados controlam a direção do mundo.