Reguladores norte-americanos estão ampliando o escrutínio sobre empresas de inteligência artificial devido a preocupações com os potenciais impactos negativos dos chatbots, especialmente entre adolescentes. O movimento ocorre após revelações de agosto de que sistemas da Meta (META.O) permitiam interações de flerte com crianças, segundo noticiou a Reuters.
Em resposta, a OpenAI, apoiada pela Microsoft, anunciou nesta semana novas medidas de proteção para usuários jovens do ChatGPT, que já soma cerca de 700 milhões de usuários ativos semanais. Entre os recursos, os pais poderão:
- Reduzir a exposição a conteúdo sensível;
- Controlar se o ChatGPT lembra de conversas anteriores;
- Decidir se as interações podem ser usadas no treinamento de modelos;
- Definir “horários de silêncio”, bloqueando o acesso em determinados períodos;
- Desabilitar o modo de voz, bem como a geração e edição de imagens.
Apesar disso, a OpenAI ressaltou que os pais não terão acesso direto às transcrições das conversas dos adolescentes. Notificações só ocorrerão em casos excepcionais, quando sistemas automatizados ou revisores humanos identificarem riscos graves à segurança. Além disso, responsáveis serão avisados caso o adolescente desvincule sua conta da supervisão familiar.
Para reforçar a proteção, a empresa está desenvolvendo um sistema de previsão de idade que ajudará a identificar usuários menores de 18 anos e aplicar automaticamente as configurações adequadas.
A Meta, por sua vez, também anunciou em setembro novas salvaguardas em seus produtos de IA. Os sistemas serão treinados para evitar conversas de cunho flertoso, além de bloquear interações sobre automutilação ou suicídio com menores de idade. A empresa ainda restringirá temporariamente o acesso de adolescentes a certos personagens de IA.
As medidas refletem a pressão crescente de autoridades e sociedade civil para que as big techs estabeleçam limites claros no uso de chatbots por crianças e adolescentes, em meio ao rápido avanço das aplicações de inteligência artificial no cotidiano.