Ex-funcionários da OpenAI lideram esforços para proteger denunciantes

O objetivo é proteger ex-funcionários que sinalizam riscos de segurança sobre a tecnologia de IA

Um grupo de atuais e ex-funcionários da OpenAI está apelando ao fabricante do ChatGPT e a outras empresas de inteligência artificial para proteger os funcionários denunciantes que sinalizam riscos de segurança sobre a tecnologia de IA.

Uma carta aberta publicada nesta terça-feira (4), pede às empresas de tecnologia que estabeleçam proteções mais fortes aos denunciantes, para que os investigadores possam levantar preocupações sobre o desenvolvimento de sistemas de IA de alto desempenho internamente e junto do público, sem medo de retaliação.

O ex-funcionário da OpenAI Daniel Kokotajlo, que deixou a empresa no início deste ano, disse em uma declaração por escrito que as empresas de tecnologia estão “desconsiderando os riscos e o impacto da IA” enquanto correm para desenvolver sistemas de IA melhores que os humanos, conhecidos como inteligência artificial geral.

“Decidi deixar a OpenAI porque perdi a esperança de que eles agiriam com responsabilidade, especialmente porque buscam inteligência artificial geral”, escreveu ele. “Eles e outros aderiram à abordagem de ‘agir rapidamente e quebrar as coisas’ e isso é o oposto do que é necessário para uma tecnologia tão poderosa e tão mal compreendida.”

A OpenAI afirmou em um comunicado respondendo à carta que já possui medidas para que os funcionários expressem preocupações, incluindo uma linha direta anônima de integridade.

A carta chega no momento em que a OpenAI afirma que está começando a desenvolver a próxima geração da tecnologia de IA por trás do ChatGPT e formando um novo comitê de segurança logo após perder um conjunto de líderes, incluindo o cofundador Ilya Sutskever , que fazia parte de uma equipe focada em desenvolvendo com segurança os sistemas de IA mais poderosos.

Sair da versão mobile