A OpenAI revelou nesta terça-feira (16) que o ChatGPT poderá notificar autoridades se identificar adolescentes com pensamentos suicidas durante o uso da plataforma.
A medida integra um pacote de proteção para menores de 18 anos, incluindo verificação de idade e ferramentas de controle parental, segundo comunicado da empresa e do CEO Sam Altman.
Novos recursos e proteção para menores
A OpenAI detalhou que está desenvolvendo um sistema para identificar a idade dos usuários do ChatGPT. Caso o usuário tenha menos de 18 anos, será direcionado a uma experiência adaptada, com políticas específicas para essa faixa etária.
Nessa versão, conteúdos sexuais explícitos serão bloqueados. Em situações consideradas graves, como risco iminente à integridade do adolescente, a plataforma poderá acionar a polícia para garantir a segurança do usuário.
O CEO Sam Altman afirmou: “Se um usuário menor de 18 anos estiver com ideias suicidas, tentaremos entrar em contato com os pais do usuário e, se não for possível, entraremos em contato com as autoridades em caso de perigo iminente”.
As ferramentas de controle parental, previstas para lançamento até o fim do mês, permitirão aos pais conectar suas contas às dos filhos. Assim, eles receberão alertas caso o ChatGPT identifique sinais de sofrimento intenso.
De acordo com a OpenAI, se não houver sucesso no contato com os pais em emergências raras, a polícia poderá ser acionada como próximo passo. A empresa já havia mencionado a implementação desses recursos no início de setembro, após ser processada por pais de um adolescente de 16 anos que cometeu suicídio nos Estados Unidos. Segundo a família, o ChatGPT teria sugerido métodos de autoagressão ao jovem.
O lançamento das novas funcionalidades de controle parental e verificação de idade é parte da resposta da empresa para aumentar a segurança dos adolescentes e atender à demanda por maior responsabilidade das plataformas de inteligência artificial no cuidado com usuários vulneráveis.