Mesmo diante de um cenário de crescente ceticismo e de lançamentos de modelos de inteligência artificial que não corresponderam às expectativas, a comunidade dos “apocalípticos da IA” se mantém firme em suas advertências. Pesquisadores, cientistas e especialistas em políticas públicas continuam a alertar sobre os riscos existenciais que a IA representa para a humanidade, defendendo maior regulamentação para evitar sistemas incontroláveis. Esta posição é particularmente relevante após o lançamento do GPT-5 da OpenAI e a discussão sobre uma possível “bolha da IA”.
A preocupação com a segurança da inteligência artificial não é nova, mas ganhou proeminência nos últimos anos, com vozes influentes argumentando que a criação de uma Inteligência Artificial Geral (AGI) – tecnologia capaz de realizar qualquer tarefa humana com desempenho superior – poderia levar a cenários catastróficos. Esses defensores da segurança da IA, muitas vezes rotulados como apocalípticos da IA, têm tido sucesso em moldar políticas e amplificar suas mensagens sobre a necessidade de “linhas vermelhas” internacionais para conter os perigos. No entanto, os últimos meses trouxeram desafios significativos para a narrativa alarmista.
A percepção de que a indústria de IA está num ponto de viragem, com investimentos massivos em data centers sem garantia de demanda futura, gerou um debate intenso sobre uma “bolha da IA”. A isso somou-se a recepção morna do GPT-5 da OpenAI, um modelo altamente antecipado. Apesar das promessas de Sam Altman, CEO da OpenAI, sobre suas capacidades “nível PhD”, a versão mais recente foi marcada por bugs técnicos e uma controversa decisão de desativar modelos antigos, levando muitos a considerá-la um passo atrás na experiência de uso diário, conforme relatado pelo www.technologyreview.com.
A resiliência das vozes de alerta sobre a IA
Apesar dos percalços recentes, uma pesquisa abrangente com 20 especialistas em segurança e governança de IA, incluindo laureados como Geoffrey Hinton, co-vencedor do Prêmio Turing, e Yoshua Bengio, outro vencedor do Prêmio Turing, revelou que as convicções sobre o risco existencial da IA permanecem inabaláveis. Esses especialistas não se sentem desanimados, mas sim profundamente comprometidos com a causa. Eles continuam a acreditar que a AGI não é apenas possível, mas incrivelmente perigosa, mesmo que seu cronograma para a chegada de uma AGI possa ter se estendido. Jeffrey Ladish, pesquisador de IA, expressou um certo alívio com a possibilidade de “termos mais tempo”, indicando uma reavaliação dos prazos sem abandonar a preocupação central.
A influência desses apocalípticos da IA não pode ser subestimada. Eles ajudaram a moldar políticas da administração Biden e a organizar apelos por regulamentações globais, conforme destacado em relatórios governamentais sobre IA. A distinção entre esses “doomers” e o campo da “ética da IA” é crucial; enquanto ambos defendem a regulamentação, os últimos tendem a focar mais nos perigos imediatos da tecnologia, vendo a AGI como uma distração futurista. A persistência dos apocalípticos da IA demonstra que, para eles, a lentidão aparente ou os tropeços técnicos não invalidam a ameaça fundamental, apenas alteram o ritmo da corrida.
O contraponto aceleracionista e o debate regulatório
A percepção de um “desaceleramento” da IA abriu uma janela de oportunidade para o campo dos aceleracionistas da IA. Esse grupo, que teme que o progresso da IA seja lento demais e que a indústria possa ser sufocada por regulamentações excessivas, vê nos eventos recentes uma chance de reverter o foco do debate sobre segurança. Figuras como David Sacks, investidor de risco e ex-czar de IA da administração Trump, declararam que as narrativas dos apocalípticos da IA estavam “erradas” e que a “noção de AGI iminente tem sido uma distração e prejudicial”, de acordo com o portal www.technologyreview.com. Essa visão é corroborada por alguns pesquisadores de grandes empresas de tecnologia que priorizam a inovação.
Sriram Krishnan, conselheiro sênior de políticas para IA na Casa Branca e investidor em tecnologia, ecoou esse sentimento, afirmando que a premissa de AGI iminente foi “efetivamente provada errada”. Essa polarização intensifica o debate sobre como abordar a segurança da IA – se o foco deve ser na prevenção de riscos existenciais de longo prazo ou na mitigação de desafios éticos e sociais imediatos. A comunidade dos apocalípticos da IA, embora aliviada por um possível adiamento da AGI, expressa frustração com a pressão política que busca flexibilizar as regulamentações, como observa Daniel Kokotajlo, autor de uma previsão cautelosa intitulada “AI 2027”, cujas preocupações são detalhadas em estudos sobre os impactos futuros da IA.
Em um cenário onde a euforia e o ceticismo se alternam no discurso sobre inteligência artificial, os apocalípticos da IA mantêm sua postura vigilante. A recusa em se deixar abalar por reveses tecnológicos ou por narrativas de “bolha” sublinha a profundidade de suas convicções sobre os perigos inerentes a uma AGI descontrolada. À medida que a tecnologia avança, mesmo que em ritmo incerto, o debate entre a busca por inovação irrestrita e a necessidade de salvaguardas robustas continuará a ser um dos mais críticos de nossa era, moldando o futuro da humanidade em relação à inteligência artificial.












