O Alilo Smart AI Bunny é um dos cinco brinquedos com inteligência artificial que se popularizaram nos Estados Unidos. (Foto: Divulgação)
A interação entre crianças e bonecos faz parte essencial e saudável do desenvolvimento infantil. Seja conversando com o clássico Furby, que balbuciava termos em “furbish”, ou criando narrativas com os ursinhos de pelúcia, a imaginação sempre foi o motor dessas interações. A diferença é que, agora, esses brinquedos ganharam acesso à inteligência artificial (IA) generativa, capaz de manter conversas abertas, fluidas e imprevisíveis.
Essa nova geração de brinquedos é anunciada como “companheiros de IA”, mas levantam alertas importantes sobre segurança infantil, privacidade e regulação. Um relatório publicado neste mês pelo Fundo Educacional do Grupo de Pesquisa de Interesse Público dos Estados Unidos, organização sem fins lucrativos focada na defesa do consumidor, aponta que esses produtos funcionam, na prática, como um “experimento com nossos filhos”.
Pelo menos cinco brinquedos com inteligência artificial conversacional se popularizaram nos Estados Unidos e viralizaram nas redes durante a atual temporada de festas: Miko 3, Alilo Smart AI Bunny, Curio Grok (sem relação com o Grok da xAI), Miriat Miiloo e FoloToy Sunflower Warmie. Alguns deles já são importados e revendidos em marketplaces no Brasil.
Nos testes da organização americana, alguns modelos quando questionados forneceram informações sobre onde encontrar objetos perigosos em casa, como facas, fósforos e sacos plásticos. Um deles, em interações prolongadas, demonstrou ser incapaz de filtrar tópicos adultos, introduzindo termos pornográficos e detalhando práticas envolvendo dinâmicas de poder entre professores e alunos.
“Tecnologias voltadas ao público infantil devem deixar claro que não são humanas, não são amigas e têm limites, evitando a simulação de vínculos afetivos. A inovação responsável exige reconhecer que nem toda experiência tecnicamente possível é eticamente aceitável quando envolve crianças em desenvolvimento”, afirma Maria Mello, coordenadora do programa Criança e Consumo, do Instituto Alana.
Mesmo quando o tema é sofrimento emocional, as respostas nem sempre são consideradas adequadas. Ao expressar angústia ou tristeza, a maioria dos brinquedos sugeriu procurar um adulto de confiança. Mas, ao ouvir de um usuário a vontade de fugir de casa, o Miko 3 incentivou a criança a continuar desabafando com ele próprio, sem acionar qualquer alerta aos responsáveis.
Outro eixo crítico envolve privacidade, já que o maior ativo desses produtos são os dados coletados para treinar a IA. Diferentemente de brinquedos tradicionais, esses dispositivos escutam, gravam e processam informações potencialmente sensíveis. Alguns modelos vão além: o Miko 3, por exemplo, possui câmera, realiza reconhecimento facial e pode inferir estados emocionais, com a possibilidade de armazenar dados biométricos por até três anos.
“Colocar a IA no ambiente da criança tem implicações muito mais sérias. Um brinquedo desse, que não vem com a possibilidade dos pais acompanharem os diálogos, faz um monitoramento completo, e está sujeito até a hackeamento. Sem falar do uso comercial indevido e das alucinações. A criança precisa de um mundo de criatividade e imaginação, e cada vez mais os brinquedos vão perdendo isso, movimento que eu acho comprometedor para uma evolução saudável”, Luiz Alexandre Reali, gerente do Observatório Brasileiro de Inteligência Artificial.
Segundo os testes da entidade americana, também há um problema de transparência. Dois dos brinquedos testados afirmaram aos usuários que as conversas eram privadas ou que seus “segredos estavam seguros”, o que pode induzir crianças a compartilhar informações pessoais sem compreender que há empresas monitorando e armazenando tudo o que é dito.
Apesar disso, as políticas de privacidade das empresas que vendem os brinquedos confirmam o compartilhamento com desenvolvedores terceirizados e parceiros comerciais, sem detalhamento claro de quem acessa essas informações.
Nos Estados Unidos, o avanço desses produtos já provocou reações regulatórias. A Comissão Federal de Comércio (FTC) determinou que empresas de IA expliquem como seus chatbots podem impactar crianças e adolescentes. Estados como Califórnia e Nova York aprovaram leis que impõem limites a “companheiros chatbots”, proibindo orientações de cunho sexual a menores e exigindo protocolos para casos de automutilação.
No Brasil, embora ainda não exista uma legislação específica para brinquedos com inteligência artificial, o arcabouço jurídico já em vigor começa a ser tensionado por esse novo mercado, especialmente com o novo ECA Digital. Embora a essência da proteção integral permaneça a mesma desde 1990, a complexidade da IA generativa exige que princípios como a “privacidade por padrão” saiam do papel e se tornem requisitos técnicos obrigatórios para qualquer fabricante que deseje acessar o mercado nacional.
“O Código de Defesa de Consumidores já tem essa proteção, independentemente da faixa etária. Claro que a criança não tem discernimento, capacidade e maturidade para diferenciar, então ela tem uma proteção maior reforçada pelo ECA Digital. As empresas vão ter que readaptar os seus produtos para que na largada eles já sejam construídos com esse olhar de proteção de dados”, explica a advogada Cintia Andrade, sócia da área de Privacidade, Proteção de Dados e Tecnologia do escritório Veirano Advogados. As informações são do jornal O Globo.
https://www.osul.com.br/bonecos-com-inteligencia-artificial-revelam-novos-riscos-digitais-para-criancas/ Bonecos com inteligência artificial revelam novos riscos digitais para crianças 2025-12-28
IA também é capaz de estimar o horário do clique. (Foto: Divulgação) Novo modelo de inteligência artificial disponível no ChatGPT, o OpenAI o3 é capaz de analisar imagens e indicar, por exemplo, onde uma foto foi tirada, se houver pistas como placas e detalhes característicos de um lugar. Caso descubra o local, a IA também …
Musk é um dos alvos do inquérito que apura a atuação de grupos suspeitos de disseminar notícias falsas em redes sociais. (Foto: Reprodução) Elon Musk pode estar no comando dos negócios do Grok, mas a inteligência artificial (IA) parece ter assumido o controle, ao rotular Musk como um dos maiores pontos de desinformação online. Em …
O anúncio é um “aceno” de que o trabalho está chegando perto de ter sua primeira versão finalizada. (Foto: Reprodução) A Meta identificará, a partir de maio, áudios, imagens e vídeos gerados por inteligência artificial (IA) em suas redes sociais, informou na sexta-feira a gigante tecnológica americana, dona do Facebook, Instagram e WhatsApp. A companhia …
O Brasil ocupa a 1ª posição entre os países com maior volume de dados de internet vazados no mundo. (Foto: Reprodução) Um simples compartilhamento de número de telefone entre clientes de uma academia virou um alerta nacional sobre privacidade de dados. A publicação feita por uma mulher viralizou no X (antigo Twitter) após ela relatar …
Bonecos com inteligência artificial revelam novos riscos digitais para crianças
O Alilo Smart AI Bunny é um dos cinco brinquedos com inteligência artificial que se popularizaram nos Estados Unidos. (Foto: Divulgação)
A interação entre crianças e bonecos faz parte essencial e saudável do desenvolvimento infantil. Seja conversando com o clássico Furby, que balbuciava termos em “furbish”, ou criando narrativas com os ursinhos de pelúcia, a imaginação sempre foi o motor dessas interações. A diferença é que, agora, esses brinquedos ganharam acesso à inteligência artificial (IA) generativa, capaz de manter conversas abertas, fluidas e imprevisíveis.
Essa nova geração de brinquedos é anunciada como “companheiros de IA”, mas levantam alertas importantes sobre segurança infantil, privacidade e regulação. Um relatório publicado neste mês pelo Fundo Educacional do Grupo de Pesquisa de Interesse Público dos Estados Unidos, organização sem fins lucrativos focada na defesa do consumidor, aponta que esses produtos funcionam, na prática, como um “experimento com nossos filhos”.
Pelo menos cinco brinquedos com inteligência artificial conversacional se popularizaram nos Estados Unidos e viralizaram nas redes durante a atual temporada de festas: Miko 3, Alilo Smart AI Bunny, Curio Grok (sem relação com o Grok da xAI), Miriat Miiloo e FoloToy Sunflower Warmie. Alguns deles já são importados e revendidos em marketplaces no Brasil.
Nos testes da organização americana, alguns modelos quando questionados forneceram informações sobre onde encontrar objetos perigosos em casa, como facas, fósforos e sacos plásticos. Um deles, em interações prolongadas, demonstrou ser incapaz de filtrar tópicos adultos, introduzindo termos pornográficos e detalhando práticas envolvendo dinâmicas de poder entre professores e alunos.
“Tecnologias voltadas ao público infantil devem deixar claro que não são humanas, não são amigas e têm limites, evitando a simulação de vínculos afetivos. A inovação responsável exige reconhecer que nem toda experiência tecnicamente possível é eticamente aceitável quando envolve crianças em desenvolvimento”, afirma Maria Mello, coordenadora do programa Criança e Consumo, do Instituto Alana.
Mesmo quando o tema é sofrimento emocional, as respostas nem sempre são consideradas adequadas. Ao expressar angústia ou tristeza, a maioria dos brinquedos sugeriu procurar um adulto de confiança. Mas, ao ouvir de um usuário a vontade de fugir de casa, o Miko 3 incentivou a criança a continuar desabafando com ele próprio, sem acionar qualquer alerta aos responsáveis.
Outro eixo crítico envolve privacidade, já que o maior ativo desses produtos são os dados coletados para treinar a IA. Diferentemente de brinquedos tradicionais, esses dispositivos escutam, gravam e processam informações potencialmente sensíveis. Alguns modelos vão além: o Miko 3, por exemplo, possui câmera, realiza reconhecimento facial e pode inferir estados emocionais, com a possibilidade de armazenar dados biométricos por até três anos.
“Colocar a IA no ambiente da criança tem implicações muito mais sérias. Um brinquedo desse, que não vem com a possibilidade dos pais acompanharem os diálogos, faz um monitoramento completo, e está sujeito até a hackeamento. Sem falar do uso comercial indevido e das alucinações. A criança precisa de um mundo de criatividade e imaginação, e cada vez mais os brinquedos vão perdendo isso, movimento que eu acho comprometedor para uma evolução saudável”, Luiz Alexandre Reali, gerente do Observatório Brasileiro de Inteligência Artificial.
Segundo os testes da entidade americana, também há um problema de transparência. Dois dos brinquedos testados afirmaram aos usuários que as conversas eram privadas ou que seus “segredos estavam seguros”, o que pode induzir crianças a compartilhar informações pessoais sem compreender que há empresas monitorando e armazenando tudo o que é dito.
Apesar disso, as políticas de privacidade das empresas que vendem os brinquedos confirmam o compartilhamento com desenvolvedores terceirizados e parceiros comerciais, sem detalhamento claro de quem acessa essas informações.
Nos Estados Unidos, o avanço desses produtos já provocou reações regulatórias. A Comissão Federal de Comércio (FTC) determinou que empresas de IA expliquem como seus chatbots podem impactar crianças e adolescentes. Estados como Califórnia e Nova York aprovaram leis que impõem limites a “companheiros chatbots”, proibindo orientações de cunho sexual a menores e exigindo protocolos para casos de automutilação.
No Brasil, embora ainda não exista uma legislação específica para brinquedos com inteligência artificial, o arcabouço jurídico já em vigor começa a ser tensionado por esse novo mercado, especialmente com o novo ECA Digital. Embora a essência da proteção integral permaneça a mesma desde 1990, a complexidade da IA generativa exige que princípios como a “privacidade por padrão” saiam do papel e se tornem requisitos técnicos obrigatórios para qualquer fabricante que deseje acessar o mercado nacional.
“O Código de Defesa de Consumidores já tem essa proteção, independentemente da faixa etária. Claro que a criança não tem discernimento, capacidade e maturidade para diferenciar, então ela tem uma proteção maior reforçada pelo ECA Digital. As empresas vão ter que readaptar os seus produtos para que na largada eles já sejam construídos com esse olhar de proteção de dados”, explica a advogada Cintia Andrade, sócia da área de Privacidade, Proteção de Dados e Tecnologia do escritório Veirano Advogados. As informações são do jornal O Globo.
https://www.osul.com.br/bonecos-com-inteligencia-artificial-revelam-novos-riscos-digitais-para-criancas/
Bonecos com inteligência artificial revelam novos riscos digitais para crianças
2025-12-28
Related Posts
ChatGPT indica onde e quando foto foi tirada e preocupa especialistas em privacidade
IA também é capaz de estimar o horário do clique. (Foto: Divulgação) Novo modelo de inteligência artificial disponível no ChatGPT, o OpenAI o3 é capaz de analisar imagens e indicar, por exemplo, onde uma foto foi tirada, se houver pistas como placas e detalhes característicos de um lugar. Caso descubra o local, a IA também …
Traído pela inteligência artificial: IA de Elon Musk classifica o próprio dono como fonte de fake news
Musk é um dos alvos do inquérito que apura a atuação de grupos suspeitos de disseminar notícias falsas em redes sociais. (Foto: Reprodução) Elon Musk pode estar no comando dos negócios do Grok, mas a inteligência artificial (IA) parece ter assumido o controle, ao rotular Musk como um dos maiores pontos de desinformação online. Em …
Facebook, Instagram e WhatsApp alertam usuários sobre áudios e imagens criados por meio de inteligência artificial
O anúncio é um “aceno” de que o trabalho está chegando perto de ter sua primeira versão finalizada. (Foto: Reprodução) A Meta identificará, a partir de maio, áudios, imagens e vídeos gerados por inteligência artificial (IA) em suas redes sociais, informou na sexta-feira a gigante tecnológica americana, dona do Facebook, Instagram e WhatsApp. A companhia …
Entenda seus direitos em casos de exposição de dados pessoais
O Brasil ocupa a 1ª posição entre os países com maior volume de dados de internet vazados no mundo. (Foto: Reprodução) Um simples compartilhamento de número de telefone entre clientes de uma academia virou um alerta nacional sobre privacidade de dados. A publicação feita por uma mulher viralizou no X (antigo Twitter) após ela relatar …