Para filósofo australiano, humanidade está brincando à beira do precipício
A humanidade lida com uma chance razoável de sofrer uma catástrofe definitiva nos próximos cem anos, impulsionada pelos avanços tecnológicos

A humanidade enfrenta uma probabilidade assustadora de 1 em 6 de sofrer uma catástrofe existencial nos próximos cem anos, impulsionada principalmente pelos avanços tecnológicos. Essa é a conclusão central de Toby Ord em seu livro The Precipice: Existential Risk and the Future of Humanity, obra que pressupõe a mitigação desses riscos como a mais alta prioridade global para o nosso tempo.
A “era do precipício”, velhas e novas ameaças
De acordo com a leitura de Theron Pummer, também filósofo, professor na University of St Andrews, o livro de Ord traça a jornada humana desde suas origens há 200 mil anos até o início da era do “precipício”, marcada simbolicamente pela primeira detonação da bomba atômica em 1945.
Desde então, o desenvolvimento de tecnologias cada vez mais potentes, como armas nucleares, biotecnologia e, agora, inteligência artificial, introduziu riscos de magnitude sem precedentes para a existência a longo prazo da humanidade.
Uma catástrofe existencial é definida na obra como a destruição potencial da humanidade a longo termo, o que pode ocorrer através da extinção, de um colapso irrecuperável da civilização, ou de uma distopia permanente. Riscos existenciais são, portanto, as ameaças que podem levar a tais resultados catastróficos.
Toby Ord categoriza os riscos em diferentes tipos, analisando suas probabilidades. Os riscos naturais, como impactos de asteroides ou erupções supervulcânicas, são considerados relativamente baixos, estimados em menos de 1 em 2.000 por século, com base na nossa sobrevivência histórica. No entanto, as ameaças de origem humana são significativamente maiores.
Riscos antropogênicos tradicionais, como guerra nuclear ou danos ambientais/mudanças climáticas, são calculados individualmente em cerca de 1 em 1.000 nos próximos cem anos para causar uma catástrofe existencial. É importante notar que as mudanças climáticas, embora com maior probabilidade de causar catástrofes não-existenciais, podem aumentar a vulnerabilidade a outros riscos existenciais.
As ameaças mais preocupantes surgem dos riscos futuros, particularmente pandemias de origem humana e inteligência artificial (IA). O risco de pandemias criadas em laboratório causar uma catástrofe existencial nos próximos cem anos é calculado em cerca de 1 em 30.
Theron Pummer argumenta que a pandemia de COVID-19 poderia servir como um “tiro de aviso”, potencialmente aumentando nossa capacidade de resposta a futuras pandemias, sejam elas naturais ou criadas. Ainda mais alarmante é a estimativa de Ord para o risco existencial da IA nos próximos cem anos: assustadores 1 em 10. Este risco deriva da possibilidade de desenvolver um sistema de IA que supere a inteligência humana em todos os aspetos, e cujos objetivos não se alinhem com a prosperidade humana.
Ao combinar estas e outras estimativas, Ord chega à sua conclusão principal: a probabilidade total de uma catástrofe existencial nos próximos cem anos é de 1 em 6.
Além dos números: os dilemas filosóficos e a urgência da reflexão
Diante deste cenário de alto risco, o filósofo australiano propõe uma estratégia a longo termo para a humanidade: a prioridade máxima é sair do “precipício” e alcançar a segurança existencial. Somente depois disso, sugere ele, poderemos entrar na “longa reflexão”, um período dedicado a definir o melhor futuro possível para a humanidade, incluindo alcançar maior certeza ou consenso em questões éticas fundamentais. Noutras palavras: primeiro, evitar o fim; depois, repensar os meios.
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)