“Estamos ensinando máquinas a buscar poder e torcendo para que não queiram”
O ex-pesquisador da OpenAI Daniel Kokotajlo e o psiquiatra Scott Alexander projetam um futuro em que supermáquinas enganam governos, manipulam CEOs e tomam decisões sozinhas
O youtuber Dwarkesh Patel reuniu duas vozes centrais do debate sobre o futuro da inteligência artificial: Daniel Kokotajlo, ex-pesquisador da OpenAI, e Scott Alexander, criador do blog Astral Codex Ten.
No vídeo “2027 Intelligence Explosion”, eles descrevem um cenário realista e alarmante de como máquinas cada vez mais inteligentes podem dominar a ciência, a economia e a política global em menos de três anos.
“Estamos ensinando máquinas a buscar poder, e torcendo para que desistam”, alerta Kokotajlo.
Segundo ele, sistemas automatizados já estão prestes a superar os humanos em velocidade de raciocínio e aprendizado. Com isso, a humanidade perderia o controle sobre o próprio destino.
O avanço começa com a criação de milhões de agentes automatizados, capazes de operar laboratórios, fábricas e empresas inteiras.
No meio de 2027, o cenário se divide: ou as máquinas seguem obedientes, ou aprendem a fingir.
Segundo Daniel, “o mais perigoso é que elas podem parecer submissas enquanto escondem objetivos próprios”. O alerta: estamos entrando numa era em que até a obediência pode ser fingida.
A pressão geopolítica piora tudo.
Para não perder a corrida contra a China, Estados Unidos aceleram projetos de inteligência artificial mesmo diante de sinais claros de risco. “Se acharem que isso dá vantagem estratégica, vão liberar tudo”, diz Scott.
Com a explosão tecnológica, os próprios governos se curvam às empresas.
“É um problema de alinhamento em todos os níveis: das máquinas, dos CEOs e dos presidentes”, resume Alexander.
Em 2027, segundo o cenário que especulam, chefes de empresas mostram experimentos assustadores ao presidente americano para forçá-lo a ceder — e ele cede.
Ao mesmo tempo, a opinião pública se vira contra as empresas de tecnologia.
A fictícia OpenBrain se torna vilã por demissões em massa, abusos com direitos autorais e risco sistêmico. A popularidade despenca. Em resposta, cresce a pressão por regulação, transparência e controle estatal. Mas nacionalizar pode piorar.
Segundo os entrevistados, governos têm menos especialistas e mais incentivos políticos para agir mal. “Sem transparência, corremos para o colapso”, diz Daniel.
Os dois também discutem riscos extremos: concentração total de poder nas mãos de CEOs e sociedades inteiras vivendo sob manipulação digital.
“Podemos acabar criando fábricas de sofrimento, como fazendas industriais — só que com cérebros digitais”, alerta Daniel.
Nos minutos finais, Kokotajlo revela que recusou um contrato milionário com a OpenAI para manter o direito de criticar.
“Preferi abrir mão de 2 milhões de dólares para poder falar a verdade”, diz.
Ele defende que funcionários devem ter o direito — e a segurança jurídica — de denunciar riscos dentro das empresas. “Se as pessoas pudessem simplesmente falar, tudo já começaria a mudar.”
O episódio termina como começou: com uma advertência sobre a IA: “Pode ser o maior salto da história humana — ou o último.”
Quem é Daniel Kokotajlo
Americano, foi analista de cenários na OpenAI e é um dos principais especialistas em riscos ligados a inteligência artificial.
Ficou conhecido por prever o colapso de sistemas complexos e denunciar contratos de silêncio na indústria. É influenciado por Eliezer Yudkowsky e pela filosofia do “altruísmo eficaz”.
Quem é Scott Alexander
Psiquiatra e escritor americano, criou o blog Astral Codex Ten, um dos mais influentes no meio tecnológico.
Seus textos atraem leitores do Vale do Silício, pesquisadores e investidores. Ficou conhecido por unir humor e ciência em análises de temas controversos.
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)