A política do Departamento de Defesa americano já proíbe a inteligência artificial de lançar armas nucleares de forma autônoma. Mas em meio aos crescentes temores de IA estimulados por uma infinidade de ameaças potenciais, um grupo bipartidário de legisladores decidiu garantir que não pode.
“Em todos os casos, os Estados Unidos manterão um humano ‘no circuito’ para todas as ações críticas para informar e executar as decisões do presidente para iniciar e encerrar o emprego de armas nucleares.”
O projeto de lei, da mesma forma, diz que nenhum sistema autônomo sem supervisão humana significativa pode lançar uma arma nuclear ou “selecionar ou engajar alvos” com a intenção de lançar uma. “Qualquer decisão de lançar uma arma nuclear não deve ser tomada por inteligência artificial”, diz o texto.
Se isso já é proibido, por que apresentar o projeto de lei? Seus patrocinadores observam que um relatório da Comissão de Segurança Nacional sobre Inteligência Artificial de 2021 recomendou a afirmação da proibição de lançamentos de armas nucleares autônomas, não apenas para impedir que isso aconteça dentro do governo dos EUA, mas para estimular compromissos semelhantes da China e da Rússia. A divulgação do projeto de lei chama a atenção para os perigos potenciais dos sistemas autônomos de inteligência artificial da geração atual, uma preocupação constante no Congresso e no mundo da tecnologia. E, conforme indicado pelo comunicado de imprensa, oferece uma chance de destacar os outros esforços de não-proliferação nuclear dos patrocinadores – como um projeto de lei recente que restringe o poder do presidente de declarar guerra nuclear unilateralmente. Eu vou deixar você fazer o óbvio Jogos de guerra brinque com você mesmo.
0 comentários:
Postar um comentário