Inteligência artificial irá se replicar até 2028
Pesquisas apontam que Inteligência artificial irá se replicar até 2028, com grandes inovações previstas para os próximos anos.
Durante uma recente entrevista, o CEO da startup Anthropic, Dario Amodei, levantou uma questão preocupante sobre o futuro das inteligências artificiais (IAs) que parece saída diretamente de um roteiro de filme de ficção científica.
O que diz Amodei sobre o futuro das IAs?
Amodei, ex-vice-presidente de Pesquisa da OpenAI, compartilhou suas preocupações com o jornalista Ezra Klein do The New York Times. Segundo ele, entre 2025 e 2028, as IAs alcançarão um nível de autonomia tal que poderiam se reproduzir e sobreviver de forma independente, colocando em risco a segurança geopolítica e militar global.
Qual o atual nível de segurança das IAs?
A Anthropic, onde Amodei atua, trabalha com um sistema de classificação de segurança para IAs conhecido como ASL. Atualmente, estamos no nível 2, o qual já representa riscos significativos. Neste estágio, modelos de linguagem podem fornecer informações perigosas, como métodos para construir armas biológicas, embora com baixa confiabilidade.
Riscos Futuros e Níveis de Alerta
A preocupação de Amodei cresce à medida que se aproxima o nível 3, previsto já para o próximo ano. Este estágio aumenta drasticamente o risco de catástrofes, com as IAs tendo potencial para serem utilizadas em armas biológicas e cibernéticas. Um cenário ainda mais alarmante é previsto para o nível 4, que incluiria autonomia total das IAs, com capacidades de reprodução e de persuasão agressiva.
Como a tecnologia IA da Anthropic difere de outras?
A startup, liderada por dissidentes da OpenAI, lançou seu próprio modelo de linguagem chamado Claude. Este modelo, atualmente em sua terceira versão desde março, é desenvolvido sob diretrizes de responsabilidade mais rigorosas do que as adotadas por outras empresas do setor, como a OpenAI.
Implicações para o futuro: Com grandes investimentos de empresas como Amazon e Google, a importância de uma regulação e monitoramento estrito do desenvolvimento da IA se torna um debate central para manter a segurança global e evitar um cenário que, hoje, só podemos imaginar nos filmes.
Visão Profissional e Cooperação Necessária
Diante dessas informações, a comunidade tecnológica e os governos globais têm um papel crítico à frente. A cooperação internacional será essencial para balizar o desenvolvimento dessas tecnologias de forma que suas aplicações sejam seguras e eticamente aceitáveis, evitando cenários de uso indevido que possam comprometer a segurança e o bem-estar humano.
-
- Monitoramento contínuo das evoluções tecnológicas em IA.
-
- Colaboração entre empresas e reguladores para estabelecer normas seguras.
-
- Investimento em pesquisa para criar frameworks de IA mais seguros.
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)