O cérebro é o novo apêndice
ou: como gastamos bilhões criando a dependência e outros tantos medindo o estrago.
Veja você: a Gartner prevê que, até o final de 2026, metade das organizações globais vai exigir avaliações “livres de IA” nos processos seletivos.
A razão oficial: “atrofia das habilidades de pensamento crítico.”
A razão real: descobriram que os funcionários, quando você tira o ChatGPT, ficam olhando para a tela como um golden retriever diante de uma porta de vidro.
Releia a frase acima. Metade das empresas do planeta vai precisar testar se os candidatos ainda sabem pensar.
Estamos criando o antidoping da cognição.
A humanidade passou uns bons milênios tentando construir uma máquina que pensasse por ela.
Filósofos gregos sonharam com isso. Turing formalizou. Silicon Valley monetizou.
E agora que finalmente conseguimos, descobrimos que pensar era justamente o que nos mantinha funcionando.
É o equivalente cognitivo de inventar o carro e depois perceber que as pernas atrofiam. Só que sem pernas você pega um Uber.
Sem cérebro, você pega o quê, exatamente?
A Microsoft (sim, a dona do Copilot, a empresa que vende IA como se fosse oxigênio engarrafado) financiou um estudo com a Carnegie Mellon que concluiu o seguinte: quanto mais você confia na IA, menos você pensa.
É estupefaciente. 62% dos profissionais entrevistados admitiram exercer menos pensamento crítico quando usam ferramentas de IA generativa.
É como a Philip Morris financiar um estudo sobre câncer de pulmão. Com a diferença de que a Philip Morris nunca teve essa coragem.
O estudo cunhou um termo bonito para um fenômeno feio: “convergência mecanizada.”
Significa que todo mundo usando os mesmos prompts chega nas mesmas respostas. A diversidade de pensamento morre.
Imagine uma sala de reunião onde dez pessoas apresentam dez ideias. Agora imagine a mesma sala, só que as dez pessoas pediram as ideias ao ChatGPT. Você tem dez variações da mesma ideia, com a mesma estrutura, os mesmos exemplos, as mesmas ressalvas equilibradas. Polidas, inofensivas e intercambiáveis.
É a versão cognitiva do fast fashion: tudo parece igual, serve para pouco e se desfaz no primeiro uso.
A frase mais honesta do paper da Microsoft merece ser emoldurada: a IA deixa os profissionais “atrofiados e despreparados” para quando as exceções aparecem.
Traduzindo do academês: o sujeito funciona muito bem no piloto automático até o dia em que precisa pilotar de verdade. Aí descobre que esqueceu onde ficam os controles.
Qualquer um que já tenha tentado fazer conta de cabeça após anos usando calculadora entende o mecanismo.
A diferença é que, com a calculadora, você erra a gorjeta. Com IA, você erra o diagnóstico, o parecer jurídico, a análise de crédito.
E vale ressaltar: não é nem a primeira vez que isso acontece.
Quando terceirizamos a navegação para o GPS, o hipocampo (a parte do cérebro responsável por mapas mentais e memória espacial) encolheu. Literalmente.
Pesquisadores de McGill mostraram que motoristas com maior uso de GPS têm memória espacial pior e declínio mais acentuado com o tempo.
E aqui eu confesso: eu ligo o Waze até para ir na padaria. Eu digo que é para saber se porventura teve algum acidente ou algo do gênero no caminho. No fundo, no fundo… você sabe. Eu também sei.
Os Inuit do norte do Canadá, que durante milênios navegaram a tundra ártica usando percepção sensorial, vento e posição das estrelas, perderam essas habilidades em uma geração após adotar GPS.
Milênios de evolução cognitiva, desfeitos em vinte anos por um aplicativo que diz “vire à direita em trezentos metros.”
E diga-se de passagem: antes do Waze, você não tinha a menor ideia de quanto representavam trezentos metros. Agora você sabe que são aproximadamente três quarteirões.
Agora estamos fazendo o mesmo. Só que não é com o hipocampo: é com o neocórtex inteiro.
O Brasil, como de costume, está na vanguarda pelos motivos errados.
Somos o terceiro maior mercado do ChatGPT no mundo, atrás apenas dos Estados Unidos e da Índia. Algo como 5,5% do tráfego global, o que dá coisa de 140 milhões de mensagens por dia (numa estimativa conservadora sobre os 2,6 bilhões de mensagens diárias globais).
Terceirizamos o pensamento na mesma velocidade com que terceirizamos a produção industrial nos anos 90, e com o mesmo entusiasmo acrítico.
A diferença é que, da desindustrialização, pelo menos sobrou emprego no McDonald’s. Já da “descerebralização”, não está claro o que sobra.
No front da educação, a situação beira a comédia involuntária.
Li por aí que um professor de inglês americano com 23 anos de carreira declarou recentemente: “A cola está fora de controle. É o pior que já vi na minha vida.” E acrescentou: “Qualquer coisa que você manda para casa, tem que assumir que vai ser feita por IA.”
A educação voltou à prova presencial, com o professor monitorando as telas dos alunos em tempo real, como um carcereiro digital. Professores estão se aposentando antecipadamente. Outros foram instruídos pelas universidades a corrigir trabalhos escritos por IA como se fossem “tentativas legítimas.”
Mas a melhor história é a seguinte. Um professor da St. Peter’s University pegou um aluno entregando um trabalho escrito por ChatGPT.
O aluno foi se desculpar.
O e-mail de desculpas também tinha sido escrito por ChatGPT.
Tem uma melhor ainda.
Uma aluna usou o ChatGPT para escrever um paper sobre pedagogia crítica de Paulo Freire.
A primeira frase do trabalho: “Em que medida a educação está impedindo a capacidade cognitiva dos estudantes de pensar criticamente?”
O professor que relatou o caso observou que a ironia era “fractalmente perfeita”: a primeira frase do ensaio falso descrevia exatamente o declínio intelectual que o próprio ensaio encarnava.
A aluna, quando confrontada com a ironia, não entendeu bem a pergunta.
Mas eu até ouso dizer que, nesse caso particular, o resultado há de ter sido melhor do que qualquer coisa oriunda da pedagogia freireana.
Jensen Huang, CEO da Nvidia (a empresa mais valiosa do mundo, que fabrica os chips sem os quais nenhuma IA funciona), ofereceu em Davos o seguinte conselho de carreira para a juventude: sejam encanadores. Eletricistas. Metalúrgicos.
Segundo Huang, a construção dos data centers que vão abrigar a IA representa “a maior obra de infraestrutura da história da humanidade,” e vai precisar de centenas de milhares de trabalhadores braçais.
Salários de seis dígitos, sem necessidade de PhD.
É um conselho sincero, possivelmente até correto. Mas a ironia é inescapável: o homem que mais lucra com a substituição do pensamento humano está sugerindo que humanos se dediquem a atividades que a IA não consegue fazer. Tipo apertar parafusos.
Resta saber quando a IA vai substituir Jensen Huang.
O setor financeiro, para quem está lendo isso com algum interesse profissional, é classificado pela Gartner como “alto risco” para atrofia cognitiva. Ao lado de saúde e direito. Os três setores onde errar custa mais caro são, naturalmente, os três onde as pessoas estão mais empolgadas para parar de pensar.
O Goldman Sachs testou IA para criar pitchbooks e cortou 40% das horas de analistas juniores. O JPMorgan tem o SpectrumGPT. O Deutsche Bank batizou o seu de “Socrates” (ironia aparentemente não intencional, já que o Sócrates original achava que o pensamento era a única coisa que importava). Bancos estão considerando reduzir novas contratações de analistas em até dois terços.
O detalhe delicioso que ninguém comenta: um teste independente da Vals AI avaliou 22 modelos de inteligência artificial em tarefas básicas de analista financeiro.
Coisas simples. Rotineiras.
Todos, sem exceção, tiveram menos de 50% de acurácia. O CEO da empresa disse ao Washington Post: “O nível de besteira que a gente vê por aí é absurdo.”
Então recapitulando: Wall Street está substituindo analistas juniores por ferramentas que tiram nota abaixo da média em provas de analista júnior.
É como demitir o estagiário e contratar outro, ainda pior, mas que mente com mais confiança.
Mas espere. Piora. Ainda mais.
Semanas atrás, a OpenAI começou a testar anúncios dentro do ChatGPT.
Publicidade contextual, baseada no conteúdo da sua conversa e no seu histórico de chats anteriores.
A personalização de anúncios vem ativada por padrão. Se você está pesquisando receitas, aparece anúncio de kit de refeição. Se está pesquisando investimentos... bem, use a imaginação.
A OpenAI jura que os anúncios “não influenciam as respostas do ChatGPT.” Jura de pé junto. Antes disso, porém, um relatório do The Information revelou que a empresa explorava formatos de “conteúdo patrocinado” em que os modelos de IA poderiam priorizar informações patrocinadas nas respostas.
Mas não, os anúncios não influenciam nada. Confie.
Vamos montar o quadro completo: primeiro, você parou de pensar por conta própria. Depois, a máquina que pensa por você agora está sendo paga por terceiros para pensar de um jeito específico. Por fim, você, que já não exercita mais o músculo do pensamento crítico, vai avaliar criticamente se a resposta que recebeu foi enviesada por publicidade.
É como pedir a um bêbado para avaliar se o barman errou a dose.
A coisa ficou tão absurda que virou pauta de Super Bowl.
Semanas atrás, a Anthropic (concorrente da OpenAI) comprou espaço no intervalo do jogo mais caro da televisão americana para satirizar a situação.
Num dos comerciais, um sujeito pede ajuda a um “personal trainer” que responde como chatbot e, no meio do conselho de exercícios, enfia uma propaganda de palmilha com código de desconto. O tagline: “Publicidade está chegando à IA. Mas não ao Claude.”
Sam Altman, CEO da OpenAI, escreveu um post de 420 palavras chamando os comerciais de “desonestos” e a Anthropic de “autoritária.”
Se Altman realmente escreveu o post ou se ele foi gerado pelo ChatGPT, nunca saberemos. Mas podemos desconfiar.
Scott Galloway, professor de marketing da NYU, chamou de “momento seminal” na guerra da IA e observou o que todo mundo finge não ver: o principal uso do ChatGPT não é produtividade corporativa. É terapia. As pessoas estão confessando suas ansiedades, medos e crises existenciais para um algoritmo que agora vai tentar lhes vender coisas.
Freud cobraria uma fortuna por essa ironia. O ChatGPT vai cobrar por clique.
Daryl Plummer, VP da Gartner, resumiu a coisa com uma frase que deveria estar em néon na entrada de todo escritório do Vale do Silício: “IA está roubando suas habilidades.” Ele disse isso num palco, para milhares de CIOs, numa conferência patrocinada por empresas que vendem IA. Ninguém achou estranho.
A Gartner prevê que vão surgir plataformas inteiras dedicadas a avaliar se humanos ainda sabem raciocinar sem ajuda de máquina. Um mercado secundário de ferramentas de avaliação “AI-free.”
Estamos literalmente criando uma indústria para medir o estrago que outra indústria está causando.
Se isso não é capitalismo no seu estado mais puro, eu não sei o que é.
Há quem argumente que a IA é só mais uma ferramenta, como a calculadora ou o corretor ortográfico. Que estamos exagerando. Que a humanidade sempre se adaptou.
A diferença é que a calculadora não substituiu a aritmética; apenas a agilizou. O corretor não substituiu a ortografia; apenas tornou sua revisão instantânea.
A IA generativa, por sua vez, está substituindo o raciocínio. Repito: a IA generativa está substituindo o raciocínio. Não é uma habilidade periférica que se terceiriza sem custo. É a habilidade central. É o que nos separa de um algoritmo bem treinado (e, aparentemente, a distância está diminuindo).
Ou já deveríamos dizer separava?
A ironia final é sistêmica e perfeita.
As mesmas empresas que gastaram centenas de bilhões de dólares para colocar IA nas mãos de cada funcionário agora vão gastar outros tantos bilhões para testar se esses funcionários ainda funcionam sem ela.
A Microsoft gasta 80 bilhões em infraestrutura de IA e, simultaneamente, publica pesquisa mostrando que sua IA atrofia o cérebro dos clientes. A
OpenAI constrói o oráculo que substituiu o seu pensamento e agora vende espaço publicitário dentro desse oráculo para quem quiser influenciar o pensamento que você terceirizou.
Não é um bug. É o modelo de negócio. Primeiro você cria a dependência. Depois vende o diagnóstico. Depois vende espaço publicitário dentro do tratamento.
A humanidade inventou uma máquina que pensa por ela. Agora precisa inventar uma máquina que a obrigue a pensar de novo. Se alguém (ainda) enxergar a ironia nisso, por favor, tente descrevê-la com as próprias palavras. Antes que você esqueça como.
-Ricardo Schweitzer
P.S.: Usei IA para pesquisar os dados e referências deste artigo. Também propus à IA que o redigisse. E, francamente, a versão dela ficou melhor escrita que a minha. Bem melhor. Mas resisti: as ideias, os ângulos, as conexões entre os fatos, a escrita e a decisão de publicar são minhas. Pelo menos por enquanto.



