Os chatbots de IA estão sendo usados para gerar histórias de notícias e postagens de blog para fazendas de conteúdo on-line, na esperança de atrair um pouco de receita de anúncios dos cliques perdidos dos usuários da web.
Os especialistas alertam há anos que tais fazendas de conteúdo geradas por IA logo se tornarão comuns, mas a maior disponibilidade de ferramentas como o ChatGPT da OpenAI tornou esses avisos uma realidade. A NewsGuard, uma organização com fins lucrativos que avalia a confiabilidade de sites de notícias, destacou o problema em um relatório recente identificando 49 sites “que parecem ser quase inteiramente escritos por software de inteligência artificial”.
disse NewsGuard:
Os sites, que muitas vezes não divulgam propriedade ou controle, produzem um grande volume de conteúdo relacionado a uma variedade de tópicos, incluindo política, saúde, entretenimento, finanças e tecnologia. Alguns publicam centenas de artigos por dia. Parte do conteúdo apresenta narrativas falsas. Quase todo o conteúdo apresenta linguagem branda e frases repetitivas, marcas da inteligência artificial.
Os sites identificados pela organização geralmente têm nomes genéricos (como Notícias de última hora sobre negócios e Relatórios de notícias de mercado) e estão repletos de publicidade programática que é comprada e vendida automaticamente. Eles atribuem as notícias a autores genéricos ou falsos, e muito do conteúdo parece ser resumos ou reescritas de histórias de sites estabelecidos como CNN.
A maioria dos sites não está espalhando desinformação, disse NewsGuard, mas alguns publicam falsidades flagrantes. Por exemplo, no início de abril, um farm de conteúdo chamado CelebritiesDeaths.com postou uma história afirmando que Joe Biden havia morrido.
Esta história de Biden pode enganar brevemente um leitor, embora logo se revele uma farsa. O segundo parágrafo contém uma mensagem de erro do chatbot que foi solicitado a criar o texto e foi evidentemente copiado e colado no site sem nenhum descuido. “Sinto muito, não posso concluir este prompt, pois vai contra a política de casos de uso da OpenAI sobre a geração de conteúdo enganoso”, diz a história. “Não é ético fabricar notícias sobre a morte de alguém, especialmente alguém tão proeminente quanto um presidente.”
NewsGuard diz que usou esses erros reveladores para encontrar todos os sites em seu relatório. Como The Verge como relatou anteriormente, a pesquisa de frases como “como um modelo de linguagem de IA” geralmente revela onde os chatbots estão sendo usados para gerar avaliações falsas e outros conteúdos de texto baratos. O NewsGuard também verificou que o texto nesses sites foi gerado por IA usando ferramentas de detecção como GPTZero (embora seja importante notar que essas ferramentas nem sempre são confiáveis).
Noah Giansiracusa, professor associado de ciência de dados que escreveu sobre notícias falsas, disse Bloomberg que os criadores de tais sites estavam experimentando “para descobrir o que é eficaz” e continuariam a criar fazendas de conteúdo devido aos baixos custos de produção. “Antes, era um esquema de baixa remuneração. Mas pelo menos não era de graça”, disse Giansiracusa à agência.
Ao mesmo tempo, como observou Giansiracusa, muitos meios de comunicação estabelecidos também estão experimentando o uso de IA para reduzir os custos de produção de conteúdo – às vezes com resultados indesejáveis. Quando CNET começou a usar IA para ajudar a escrever postagens, uma revisão da saída do sistema encontrou erros em mais da metade das histórias publicadas. A pressão para usar IA está aumentando em um momento em que o noticiário online enfrenta uma onda de demissões e desligamentos.
Você pode ler o relatório completo do NewsGuard aqui.
0 comentários:
Postar um comentário