“Ocasionalmente pode gerar informações incorretas.”
Este é o aviso que a OpenAI coloca na página inicial de seu AI chatbot ChatGPT – um ponto entre nove que detalham as capacidades e limitações do sistema.
“Poderia ocasionalmente gerar informações incorretas.”
É um aviso que você pode colocar em praticamente qualquer fonte de informação, da Wikipédia ao Google até a primeira página do O jornal New York Times, e seria mais ou menos correto.
“Pode ocasionalmente gerar incorreta Informação.”
Porque quando se trata de preparar as pessoas para usar uma tecnologia tão poderosa, sensacionalista e incompreendida quanto o ChatGPT, fica claro que o OpenAI não está fazendo o suficiente.
A natureza incompreendida do ChatGPT ficou clara pela enésima vez neste fim de semana, quando surgiram notícias de que o advogado norte-americano Steven A. Schwartz havia recorrido ao chatbot para encontrar argumentos de apoio em um processo que ele movia contra a companhia aérea colombiana Avianca. O problema, claro, é que nenhum dos casos sugeridos pelo ChatGPT existe.
Schwartz afirma que “não estava ciente da possibilidade de que [ChatGPT’s] o conteúdo pode ser falso”, embora as transcrições de sua conversa com o bot mostrem que ele era suspeito o suficiente para verificar sua pesquisa. Infelizmente, ele o fez perguntando ao ChatGPT e, novamente, o sistema o enganou, assegurando-lhe que seu histórico de caso fictício era legítimo:
Schwartz merece muita culpa neste cenário, mas a frequência com que casos como este estão ocorrendo – quando os usuários do ChatGPT tratam o sistema como uma fonte confiável de informações – sugere que também é necessário um cálculo mais amplo.
Nos últimos meses, houve inúmeros relatos de pessoas sendo enganadas pelas falsidades do ChatGPT. A maioria dos casos são triviais e tiveram pouco ou nenhum impacto negativo. Normalmente, o sistema compõe uma notícia ou um trabalho acadêmico ou um livro, então alguém tenta encontrar essa fonte e perde seu tempo ou parece um tolo (ou ambos). Mas é fácil ver como a desinformação do ChatGPT pode levar a consequências mais sérias.
Em maio, por exemplo, um professor da Texas A&M usou o chatbot para verificar se as redações dos alunos foram ou não escritas com a ajuda da IA. Sempre prestativo, ChatGPT disse, sim, todos as redações dos alunos foram geradas por IA, embora não tenha capacidade confiável para fazer essa avaliação. O professor ameaçou reprovar a turma e reter seus diplomas até que seu erro fosse apontado. Então, em abril, um professor de direito contou como o sistema gerou notícias falsas acusando-o de má conduta sexual. Ele só soube quando um colega, que fazia pesquisas, o alertou para o fato. “Foi muito assustador”, disse o professor O Washington Post. “Uma alegação desse tipo é incrivelmente prejudicial.”
Não acho que casos como esses invalidem o potencial do ChatGPT e de outros chatbots. No cenário certo e com as proteções certas, fica claro que essas ferramentas podem ser extraordinariamente úteis. Também acho que esse potencial inclui tarefas como recuperar informações. Há todo tipo de pesquisa interessante sendo feita que mostra como esses sistemas podem e serão feitos de forma mais factual no futuro. O ponto é, agora, não é suficiente.
Isso é parcialmente culpa da mídia. Muitos relatórios sobre o ChatGPT e bots semelhantes retratam esses sistemas como inteligências humanas com emoções e desejos. Freqüentemente, os jornalistas falham em enfatizar a falta de confiabilidade desses sistemas – para deixar clara a natureza contingente das informações que eles oferecem.
As pessoas usam o ChatGPT como um mecanismo de pesquisa. A OpenAI precisa reconhecer isso e avisá-los com antecedência
Mas, como espero que o início deste artigo tenha deixado claro, o OpenAI certamente também pode ajudar. Embora os chatbots estejam sendo apresentados como um novo tipo de tecnologia, é claro que as pessoas os utilizam como mecanismos de busca. (E muitos são lançados explicitamente como motores de busca, então é claro que eles ficam confusos.) Isso não é surpreendente: uma geração de usuários da Internet foi treinada para digitar perguntas em uma caixa e receber respostas. Mas enquanto fontes como o Google e o DuckDuckGo fornecem links que convidam ao escrutínio, os chatbots confundem suas informações em texto regenerado e falam no tom animado de um assistente digital onisciente. Uma ou duas frases como aviso não são suficientes para anular esse tipo de preparação.
Curiosamente, acho que o chatbot do Bing (que é desenvolvido com a mesma tecnologia do ChatGPT) se sai um pouco melhor nesses tipos de tarefas de apuração de fatos; principalmente, ele tende a pesquisar na web em respostas a consultas factuais e fornece aos usuários links como fontes. ChatGPT pode pesquise na web, mas apenas se estiver pagando pela versão Plus e usando os plug-ins beta. Sua natureza independente o torna mais propenso a enganar.
As intervenções não precisam ser complexas, mas precisam ser lá. Por que, por exemplo, o ChatGPT simplesmente não reconhece quando está sendo solicitado a gerar citações factuais e alertar o usuário para “verificar minhas fontes”? Por que não pode responder a alguém perguntando “este texto é gerado por IA?” com um claro “Sinto muito, não sou capaz de fazer esse julgamento”? (Entramos em contato com a OpenAI para comentar e atualizaremos esta história se recebermos uma resposta.)
O OpenAI definitivamente melhorou nessa área. Desde o lançamento do ChatGPT, em minha experiência, ele se tornou muito mais direto sobre suas limitações, muitas vezes apresentando respostas com aquele lema de IA: “Como um modelo de linguagem de IA…” Mas também é inconsistente. Esta manhã, quando perguntei ao bot “você consegue detectar texto gerado por IA?” ele alertou que “não era infalível”, mas quando alimentei um pedaço dessa história e fiz a mesma pergunta, ele simplesmente respondeu: “Sim, este texto foi gerado por IA”. Em seguida, pedi que me desse uma lista de recomendações de livros sobre o tema da medição (algo que conheço um pouco). “Certamente!” disse antes de oferecer 10 sugestões. Era uma boa lista, atingindo muitos dos clássicos, mas dois títulos foram totalmente inventados e, se eu não tivesse verificado, não teria notado. Tente você mesmo testes semelhantes e você qencontrar erros rapidamente.
Com esse tipo de desempenho, um aviso de isenção de responsabilidade como “Ocasionalmente pode gerar informações incorretas” simplesmente não parece preciso.
0 comentários:
Postar um comentário