OpenAI oferece recompensa de bug para ChatGPT - mas nenhuma recompensa por jailbreak de seu chatbot

A OpenAI lançou uma recompensa por bugs, incentivando o público a encontrar e divulgar vulnerabilidades em seus serviços de IA, incluindo o ChatGPT. As recompensas variam de US$ 200 para “descobertas de baixa gravidade” a US$ 20.000 para “descobertas excepcionais”, e os relatórios podem ser enviados por meio da plataforma de segurança cibernética de crowdsourcing Bugcrowd.

Notavelmente, a recompensa exclui recompensas por jailbreak do ChatGPT ou por fazer com que ele gere código ou texto malicioso. “Problemas relacionados ao conteúdo dos prompts e respostas do modelo estão estritamente fora do escopo e não serão recompensados”, diz a página Bugcrowd da OpenAI.

O jailbreak do ChatGPT geralmente envolve a inserção de cenários elaborados no sistema que permitem contornar seus próprios filtros de segurança. Isso pode incluir encorajar o chatbot a interpretar como seu “gêmeo do mal”, permitindo que o usuário obtenha respostas proibidas, como discurso de ódio ou instruções para fazer armas.

A OpenAI diz que tais “problemas de segurança do modelo não se encaixam bem em um programa de recompensas de bugs, pois não são bugs individuais e discretos que podem ser corrigidos diretamente”. A empresa observa que “resolver essas questões geralmente envolve pesquisas substanciais e uma abordagem mais ampla” e relatórios para tais problemas devem ser enviados por meio da página de feedback do modelo da empresa.

Embora tais jailbreaks demonstrem as vulnerabilidades mais amplas dos sistemas de IA, eles provavelmente são menos problemáticos diretamente para o OpenAI em comparação com as falhas de segurança tradicionais. Por exemplo, no mês passado, um hacker conhecido como rez0 conseguiu revelar 80 “plugins secretos” para a API do ChatGPT — complementos ainda não lançados ou experimentais para o chatbot da empresa. (Rez0 observou que a vulnerabilidade foi corrigida um dia depois de divulgada no Twitter.)

como um usuário respondeu para o tópico do tweet: “Se eles tivessem apenas um programa #BugBounty pago – tenho certeza de que a multidão poderia ajudá-los a capturar esses casos extremos no futuro:)”






https://www.jobclas.com/openai-oferece-recompensa-de-bug-para-chatgpt-mas-nenhuma-recompensa-por-jailbreak-de-seu-chatbot.html
Share on Google Plus

Sobre Anônimo

Esta é uma breve descrição no blog sobre o autor. Editá-lo, No html e procurar esse texto
    Blogger Comment
    Facebook Comment

0 comentários:

Postar um comentário

Postagem mais recente Postagem mais antiga Página inicial