EUA propõem exigir relatórios para desenvolvedores de IA avançada 

A intenção é garantir que as tecnologias sejam seguras e possam resistir a ataques cibernéticos

Na segunda-feira, o Departamento de Comércio dos EUA anunciou uma proposta para exigir requisitos de relatórios detalhados para desenvolvedores de inteligência artificial avançada e provedores de computação em nuvem. O objetivo é garantir que essas tecnologias sejam seguras e possam resistir a ataques cibernéticos.

A proposta, apresentada pelo Bureau de Indústria e Segurança do departamento, estabeleceria a obrigatoriedade de relatórios ao governo federal sobre atividades relacionadas ao desenvolvimento de modelos de IA de “fronteira” e clusters de computação.

A proposta também incluiria a exigência de relatórios sobre medidas de segurança cibernética, bem como os resultados dos esforços de “red-teaming”. Esses testes avaliam capacidades perigosas, como a habilidade de auxiliar em ataques cibernéticos ou a redução de barreiras para não especialistas no desenvolvimento de armas químicas, biológicas, radiológicas ou nucleares.

O conceito de “red-teaming” tem sido utilizado há anos em segurança cibernética para identificar novos riscos e se refere às simulações da Guerra Fria dos EUA, onde o inimigo era designado como “red team”.

A IA generativa, que tem a capacidade de criar texto, fotos e vídeos em resposta a solicitações abertas, tem gerado entusiasmo, mas também levantado preocupações sobre a possibilidade de tornar alguns empregos obsoletos, prejudicar eleições e, em casos extremos, até mesmo dominar os humanos, além de causar efeitos catastróficos.

O Departamento de Comércio afirmou que as informações coletadas sob a nova proposta serão “vitais para garantir que essas tecnologias atendam a padrões rigorosos de segurança e confiabilidade, possam resistir a ataques cibernéticos e apresentem um risco limitado de uso indevido por adversários estrangeiros ou atores não estatais.”

Em outubro de 2023, o presidente Joe Biden assinou uma ordem executiva que exige que os desenvolvedores de sistemas de IA que representem riscos à segurança nacional, economia, saúde pública ou segurança dos EUA compartilhem os resultados dos testes de segurança com o governo dos EUA antes de divulgá-los ao público.

4o mini

Sair da versão mobile