IA sem identificação derruba correspondente alemã em NY
ZDF reconheceu falha editorial após exibir vídeo gerado por inteligência artificial em reportagem sobre operações de imigração nos Estados Unidos
A emissora pública alemã ZDF convocou de volta sua correspondente em Nova York, Nicola Albrecht, 50, após a exibição de um vídeo gerado por inteligência artificial em uma reportagem sobre as operações do ICE (Serviço de Imigração e Alfândega dos Estados Unidos).
O caso veio a público nesta sexta-feira, 20, e expõe uma falha de verificação que a própria emissora classificou como de grande impacto para sua credibilidade.
A reportagem original, transmitida em 13 de fevereiro, não apresentava problemas, segundo a ZDF. A versão atualizada, porém, exibida dois dias depois no principal telejornal noturno da emissora, incorporou dois trechos de vídeo problemáticos: um gerado por IA e outro que, apresentado como atual, registrava na verdade uma prisão ocorrida na Flórida em 2022.
Marca d’água visível e protocolo ignorado
O vídeo gerado por IA trazia a marca d’água do Sora, plataforma da OpenAI voltada à produção de vídeos curtos a partir de comandos de texto – o que tornava a origem sintética do material identificável. Ainda assim, o conteúdo foi ao ar sem qualificação ou aviso ao telespectador.
A editora-chefe da ZDF, Bettina Schausten, disse em comunicado que “os danos causados pelo desrespeito às normas jornalísticas são consideráveis” e que “no fundo, trata-se da credibilidade das nossas reportagens”.
A emissora reconheceu que o material “não deveria ter sido usado sem justificativa jornalística e sem ser categorizado de acordo com as regras internas da ZDF para o uso de material gerado por IA”.
A reportagem tratava do clima de tensão gerado pelas operações do ICE, com foco em crianças. A apresentadora Dunja Hayali introduziu o segmento afirmando que as ações do governo Trump criavam “um clima de medo que não se limita às crianças”.
Padrão que se repete no jornalismo internacional
O episódio não é isolado. Em agosto de 2024, as publicações Wired e Business Insider retiraram de circulação reportagens atribuídas a um jornalista freelancer após suspeitas de que os textos haviam sido produzidos por IA generativa.
Em janeiro de 2025, verificadores de fatos da agência AFP identificaram que uma imagem veiculada pela própria ZDF – que supostamente mostrava o ditador venezuelano Nicolás Maduro após uma suposta captura por soldados americanos – havia sido fabricada por inteligência artificial.
Os três casos têm em comum a ausência de protocolos de verificação aplicados antes da publicação. A velocidade do ciclo informativo e a abundância de conteúdo disponível na internet ampliam a exposição das redações a esse tipo de material.
A ZDF não detalhou as medidas disciplinares aplicadas a Albrecht nem os próximos passos para adequação de seus processos internos. A emissora limitou-se a confirmar o retorno da profissional e a reconhecer publicamente a falha.
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)