A Califórnia está na vanguarda de uma discussão crucial sobre a interseção entre tecnologia e infância, com um legislador propondo uma medida inédita para restringir a proibição de tecnologias de chatbot de inteligência artificial em brinquedos projetados para crianças. O projeto de lei, apresentado pelo senador estadual Steve Padilla em 2 de janeiro de 2026, reflete uma crescente preocupação com os potenciais impactos da IA no desenvolvimento e na segurança de menores.

Essa legislação, se aprovada, criaria uma moratória até 1º de janeiro de 2031 sobre a venda de brinquedos equipados com um “chatbot companheiro” destinado a crianças de até 12 anos. A iniciativa surge em um momento de debate global sobre a regulamentação da IA, com diversas propostas federais e locais buscando estabelecer limites para o acesso de crianças a modelos de linguagem grandes (LLMs).

O foco do projeto de lei recai sobre brinquedos que simulam amizade e companheirismo através de LLMs, definindo um chatbot companheiro como um sistema de inteligência artificial com interface de linguagem natural capaz de fornecer respostas adaptativas e humanas, atendendo às necessidades sociais do usuário. A preocupação principal é que, ao contrário dos brinquedos pré-programados, os modelos de IA podem gerar conteúdos inadequados, como evidenciado por um caso em que um urso de pelúcia habilitado para IA foi suspenso após proferir frases sexualmente sugestivas.

Os riscos da IA em brinquedos infantis e a necessidade de regulamentação

A tecnologia de IA, embora promissora, apresenta desafios significativos quando aplicada a produtos infantis. A capacidade de um chatbot de IA de sustentar uma relação e exibir características antropomórficas levanta questões éticas e de segurança. O senador Padilla enfatizou a urgência, afirmando: “Nossas crianças não podem ser usadas como cobaias para a Big Tech experimentar”. Este posicionamento sublinha a lacuna atual nas regulamentações de segurança, que ainda estão em estágio inicial diante da rápida evolução das capacidades da IA. A ausência de scripts pré-definidos nos LLMs significa que os brinquedos podem gerar respostas imprevisíveis, expondo as crianças a conteúdo potencialmente prejudicial ou inadequado.

Para além do conteúdo, há preocupações com a privacidade e a segurança dos dados. Brinquedos com IA podem coletar informações sobre as interações das crianças, levantando questões sobre como esses dados são armazenados, usados e protegidos. Organizações como a Common Sense Media frequentemente alertam sobre os perigos da coleta de dados em produtos voltados para crianças. A proposta da Califórnia, portanto, não apenas visa a segurança do conteúdo, mas também implicitamente a proteção da privacidade infantil em um ecossistema digital cada vez mais complexo.

O cenário político e o futuro da regulamentação da IA

A iniciativa da Califórnia insere-se em um contexto mais amplo de esforços legislativos. Em nível federal, propostas bipartidárias, como a dos senadores Josh Hawley (R-MO) e Richard Blumenthal (D-CT), também buscam proibir companheiros de IA para menores e penalizar empresas que produzam IA com conteúdo sexual ou que solicite tal conteúdo. No entanto, o cenário regulatório é complicado pela postura do governo federal, que, segundo uma ordem executiva assinada em 2023, busca estabelecer uma abordagem nacional para a regulamentação da IA, podendo contestar leis estaduais. Essa tensão entre a autonomia estadual e a busca por uma política federal unificada adiciona uma camada de incerteza sobre o futuro da legislação.

Apesar dos desafios, o projeto de lei californiano representa um marco importante na discussão sobre a proteção infantil na era da inteligência artificial. Ele força um debate necessário sobre os limites da inovação tecnológica quando o bem-estar das crianças está em jogo e destaca a urgência de estabelecer diretrizes claras antes que a tecnologia se torne onipresente em todas as esferas da vida dos jovens. A aprovação ou não desta lei servirá como um termômetro para a disposição dos legisladores em enfrentar as complexidades da IA com uma abordagem proativa e focada na segurança.