O CEO da Anthropic, Dario Amodei, colocou o debate sobre inteligência artificial em um novo patamar ao comparar o avanço da tecnologia a um “tsunami” prestes a atingir a sociedade. Em entrevistas e no ensaio The Adolescence of Technology, publicado em janeiro de 2026, ele afirma que sistemas sobre-humanos podem surgir já em 2026 ou 2027 — um horizonte de menos de dois anos.
A declaração ganha peso porque parte de quem está diretamente envolvido na construção desses sistemas. A Anthropic é responsável pelo modelo Claude e figura entre as empresas mais valiosas do setor. Em entrevista ao programa 60 Minutes, Amodei admitiu o desconforto com a concentração de poder nas mãos de poucas empresas e respondeu de forma direta quando questionado sobre legitimidade democrática.
Quando Anderson Cooper perguntou no 60 Minutes: “Quem elegeu você e o Sam Altman pra tomar essas decisões?”
A resposta do Amodei: “Ninguém. Honestamente, ninguém.”
O que ele prevê
Amodei descreve três camadas de risco:
- Curto prazo: viés algorítmico e desinformação em larga escala.
- Médio prazo: uso de IA para gerar conhecimento perigoso, inclusive em biotecnologia.
- Longo prazo: perda de autonomia humana e concentração de poder em sistemas autônomos.
Ele também argumenta que a automação pode atingir até metade dos empregos de entrada em áreas intelectuais, como programação, direito, finanças e consultoria. Segundo ele, a sociedade não está preparada na mesma velocidade que os avanços técnicos.
O contraste chama atenção: em 2024, no texto Machines of Loving Grace, Amodei enfatizava o potencial da IA para curar doenças e ampliar a expectativa de vida. Pouco mais de um ano depois, o tom passou de otimismo a alerta existencial.
Por que a previsão pode estar superestimada
Apesar do impacto retórico, a história da tecnologia sugere cautela com previsões de transformação instantânea. Grandes inovações — da eletrificação à internet — levaram décadas para remodelar estruturas econômicas e sociais.
Mesmo tecnologias recentes, como o smartphone, dependeram de infraestrutura prévia (redes 3G/4G, ecossistemas de aplicativos, regulamentação) para atingir adoção massiva. No caso da IA, os gargalos incluem:
- Escala energética e construção de data centers
- Regulação e governança internacional
- Requalificação profissional
- Integração em fluxos reais de trabalho
- Limitações técnicas atuais, como alucinações e erros factuais
Além disso, previsões agressivas já falharam anteriormente. Estimativas de que IA escreveria 90% do código em poucos meses ou substituiria rapidamente grandes segmentos do mercado não se concretizaram na velocidade anunciada.
Os riscos apontados por Amodei não são irrelevantes. Desinformação automatizada, vigilância e uso da IA com objetivos de guerra são preocupações reais. O debate sobre concentração de poder tecnológico também é pertinente.
No entanto, a narrativa de um colapso iminente ignora o ritmo mais lento de adaptação institucional e social. Economias não se transformam apenas porque a tecnologia evolui em laboratório. Há resistência organizacional, limitações físicas e processos regulatórios que atuam como freios naturais.
A analogia do “tsunami” sugere impacto repentino e devastador. A experiência histórica indica algo diferente: ondas longas, complexas e graduais de transformação.
A inteligência artificial deve provocar mudanças profundas nas próximas décadas. Mas, ao contrário da metáfora usada pelo CEO da Anthropic, a evidência histórica aponta para uma transição turbulenta — porém progressiva — e não para um evento súbito capaz de redefinir a sociedade em 18 meses.
Ou, pelo menos, assim espero…
Se o tsunami de que ele fala estiver correto, o impacto não será apenas econômico — será estrutural. Amodei alerta que modelos cada vez mais autônomos podem acelerar ciclos de decisão em uma velocidade impossível de ser acompanhada por governos e instituições democráticas. Sistemas capazes de gerar propaganda hiperpersonalizada, automatizar ataques cibernéticos, desenhar moléculas com potencial destrutivo ou coordenar enxames de drones militares não dependem de décadas de adoção cultural: dependem de código, escala computacional e acesso.
Esses três fatores já estão avançando exponencialmente. A assimetria entre quem desenvolve e quem regula cria um vácuo perigoso, no qual poucas empresas privadas passam a deter poder técnico superior ao de muitos Estados-nação.
Além disso, o alerta do “tsunami” não se limita à substituição de empregos, mas à substituição de capacidade cognitiva em larga escala. Se IA já executa tarefas complexas em programação, matemática aplicada e pesquisa científica, o próximo salto não é apenas fazer melhor — é fazer sozinha.
Automação integral de fluxos intelectuais significa reduzir drasticamente a necessidade de decisão humana em setores críticos. Em um cenário assim, o risco não é só desemprego em massa, mas concentração radical de poder produtivo e estratégico nas mãos de quem controla os modelos. Para Amodei, o perigo está justamente na velocidade: quando a onda quebrar, pode não haver tempo político, regulatório ou cultural para reagir.
Siga-nos e confira outras notícias @viventeandante e no nosso canal de whatsapp!



