O Twitter está expandindo seu programa de verificação de fatos de crowdsourcing para incluir imagens, logo depois que uma imagem falsa se tornou viral, alegando mostrar uma “explosão” perto do Pentágono.
As notas da comunidade, que são geradas pelo usuário e aparecem abaixo dos tweets, foram introduzidas para adicionar contexto ao conteúdo potencialmente enganoso no Twitter. Agora, os colaboradores poderão adicionar informações especificamente relacionadas a uma imagem, e esse contexto será preenchido abaixo de “imagens correspondentes recentes e futuras”. de acordo com a empresa.
No anúncio, o Twitter menciona especificamente imagens falsas geradas por IA, que têm sido uma combinação de confusas, assustadoras e divertidas ao se tornarem virais na plataforma. Por exemplo, uma foto falsa da explosão do Pentágono foi compartilhada por contas com uma marca de verificação azul verificada na semana passada, uma das quais fingiu ser afiliada à Bloomberg News. Em um exemplo menos assustador, a imagem gerada por IA do Papa Francisco, parecendo uma fera do streetwear, circulou e se tornou viral antes que muitas pessoas descobrissem que era falsa.
Os usuários do Twitter Community Notes poderão especificar se estão adicionando contexto ao próprio tweet ou à imagem apresentada nele. Até agora, o recurso se aplica apenas a imagens únicas, embora a empresa diga que está trabalhando para expandi-lo. a vídeos e postagens com várias imagens. O Twitter adverte que as notas provavelmente não aparecerão abaixo de todas as imagens correspondentes, pois inicialmente “errará do lado da precisão”.
0 comentários:
Postar um comentário