A Comissão Federal de Comércio (FTC, na sigla em inglês) dos EUA anunciou na quinta-feira, 11, que iniciou uma investigação sobre o uso de chatbots de inteligência artificial (IA) voltados ao consumidor, com foco nos potenciais riscos para crianças e adolescentes. Em comunicado, a agência informou que emitiu ordens a sete empresas do setor: Alphabet, Character Tecnologies, Instagram, Meta Platforms, OpenAI, Snap e X.AI.
Segundo a FTC, a iniciativa busca apurar como essas empresas medem, testam e monitoram os impactos “potencialmente negativos” dessa tecnologia em crianças e adolescentes.
A agência destacou que os chatbots de IA podem simular comunicação e relacionamento interpessoais semelhantes aos humanos, o que pode levar menores a “confiar e formar vínculos” com essas ferramentas.
O presidente do órgão, Andrew Ferguson, afirmou que proteger crianças online é uma “prioridade do FTC sob Trump e Vance, assim como fomentar a inovação em setor críticos da economia”.
A investigação examinará, entre outros pontos, de que forma as empresas monetizam o engajamento dos usuários, processam informações pessoais, desenvolvem personagens, monitoram impactos negativos e comunicado riscos a pais e responsáveis, de acordo com comunicado.