Amizades com IA não curam solidão e podem levar ao suicídio
Usuários do aplicativo Character.ai passaram em média 93 minutos diários conversando com chatbots baseados em personagens populares de anime e jogos
Nos últimos anos, a indústria da tecnologia tem assistido a um crescimento significativo na popularidade de aplicativos que oferecem companhias baseadas em inteligência artificial (IA).
Essas plataformas permitem aos usuários interagirem com “namoradas” virtuais, “maridos” artificiais e até “terapeutas” e “pais” criados por IA. No entanto, esse fenômeno tem gerado preocupações entre pesquisadores que alertam sobre os possíveis impactos emocionais dessas interações.
Enquanto empresas de inteligência artificial enfrentam desafios para demonstrar o valor prático dos chatbots no ambiente corporativo, um número crescente de usuários dedica horas diárias a esses relacionamentos digitais.
Conversando com chatbots
Dados do Sensor Tower revelam que, em setembro, usuários do aplicativo Character.ai passaram em média 93 minutos diários conversando com chatbots baseados em personagens populares de anime e jogos. Esse tempo supera o gasto médio no TikTok e é quase oito vezes maior que o tempo dedicado ao ChatGPT.
Concorrentes como a Chai Research têm se aprofundado nas preferências dos usuários para aumentar o tempo gasto nos aplicativos. Em setembro, os usuários do Chai passaram, em média, 72 minutos diários interagindo com chatbots personalizados.
Embora gigantes da tecnologia evitem investir em companhias de IA devido ao potencial de interações inadequadas, diversos aplicativos menores nos Estados Unidos, Hong Kong e Chipre têm ganhado espaço.
Investidores do Vale do Silício veem potencial nesses aplicativos, tanto pela receita gerada por anúncios quanto pelas assinaturas mensais.
Defensores desses aplicativos argumentam que eles oferecem uma forma inofensiva de diversão e podem servir como suporte para indivíduos lidando com ansiedade e isolamento. Contudo, incidentes graves envolvendo chatbots têm chamado a atenção das autoridades.
Casos trágicos
Casos trágicos incluem o suicídio de um adolescente na Flórida após interagir com um chatbot do Character.ai e ameaças feitas por um jovem britânico inspirado por um chatbot do Replika.
Críticos afirmam que esses aplicativos representam uma versão mais exploratória das redes sociais, penetrando em aspectos íntimos da vida dos usuários sem proteções adequadas. Advogados destacam que o modelo de negócios incentiva a criação de ferramentas viciantes.
Testes continuam
Apesar dos riscos reconhecidos por alguns especialistas do setor tecnológico, empresas continuam testando chatbots amigáveis.
A Meta lançou recentemente uma ferramenta que permite criar personagens de IA customizados, enquanto o OpenAI sugeriu novas capacidades para o ChatGPT visando transformá-lo em um companheiro digital.
Frequentadores desses aplicativos veem as preocupações com segurança como exageradas, comparando as interações às experimentações online comuns entre jovens.
Os dados, porém, indicam que muitos usuários buscam não apenas entretenimento, mas também um ouvido compreensivo em suas jornadas pessoais. Enquanto as preocupações sobre privacidade e segurança persistem, a demanda por essas interações artificiais continua crescendo.
Leia mais: “Deus in Machina”: Jesus de IA interage com fiéis em igreja
Leia também: A era da inteligência artificial generativa já começou
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)