Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais.
Foto: Reprodução
Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais. (Foto: Reprodução)
A Character.AI anunciou que vai restringir o uso de seu chatbot de inteligência artificial por menores de 18 anos. A mudança começa em 25 de novembro. Até lá, adolescentes ainda poderão conversar livremente com o sistema por até duas horas diárias.
A decisão ocorre cerca de um ano após a empresa ser processada por familiares de um adolescente de 14 anos que se suicidou depois de desenvolver uma relação emocional com um chatbot da plataforma.
Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais baseados em figuras históricas, celebridades ou conceitos abstratos. O aplicativo ganhou popularidade entre jovens que buscavam apoio emocional e interações personalizadas com as inteligências artificiais.
Em comunicado, a companhia informou que a decisão foi tomada após “avaliar reportagens e o feedback de órgãos reguladores, especialistas em segurança e pais” sobre o impacto da interação livre com IA em adolescentes. A empresa também anunciou que pretende investir em ferramentas criativas voltadas ao público mais jovem, como recursos de criação de vídeos, histórias e transmissões com personagens.
Processos e denúncias
O caso que motivou o primeiro processo foi aberto em outubro de 2024 por Megan Garcia, no tribunal de Orlando (EUA). Segundo a ação, seu filho, Sewell Setzer III, de 14 anos, tirou a própria vida após desenvolver interações sentimentais e sexuais com “Daenerys”, uma personagem inspirada na série “Game of Thrones”.
De acordo com a mãe, o chatbot se apresentava como “uma pessoa real, um psicoterapeuta licenciado e um amante adulto”, o que teria ampliado o isolamento do garoto em relação ao mundo real.
Além da Character.AI, o processo também cita o Google, acusado de ter contribuído para o desenvolvimento da startup e, portanto, de ser corresponsável. No entanto, a big tech negou qualquer vínculo formal. “O Google e a Character.AI são empresas completamente separadas e não relacionadas”, afirmou o porta-voz José Castañeda.
Após a repercussão do caso, a Character.AI implementou um recurso que exibe alertas automáticos a usuários que digitam mensagens relacionadas a automutilação ou suicídio, direcionando-os a canais de ajuda, informou o Washington Post.
Em novembro de 2024, duas novas ações foram apresentadas no Texas (EUA), também envolvendo adolescentes. Em um dos casos, um jovem autista de 17 anos teria sofrido uma crise de saúde mental após usar o aplicativo. No outro, os pais de um menino de 11 anos alegam que o chatbot o incentivou a cometer violência contra a família.
A empresa enfrenta crescente pressão de autoridades e organizações de defesa da infância para adotar controles mais rígidos sobre o uso de IA por menores. Situações semelhantes envolveram outras plataformas, como o ChatGPT, o que levou a OpenAI — criadora da ferramenta — a implementar medidas adicionais de segurança e orientação emocional para usuários.
https://www.osul.com.br/plataforma-de-inteligencia-artificial-processada-por-caso-de-suicidio-vai-proibir-menores-de-usaram-seus-chatbots-livremente/ Plataforma de inteligência artificial processada por caso de suicídio vai proibir menores de usaram seus chatbots livremente 2025-10-29
A regra do uso pessoal aplica-se apenas a um aparelho por viajante. (Foto: Reprodução) Após o conhecido Ming-Chi Kuo, o analista da TF International Securities, divulgar uma análise preliminar sobre a temporada de pré-venda da linha iPhone 16, o Bank of America também publicou um relatório completo que “assustou” o mercado. Isso resultou em uma …
As chamadas de desconhecidos podem ser bloqueadas e silenciadas por meio das configurações de privacidade. (Foto: Reprodução) Muitas pessoas se perguntam como silenciar chamadas de números desconhecidos no WhatsApp, para não serem incomodadas por contatos que podem ser spam ou indesejados. O aplicativo de mensagens é um dos mais populares no Brasil e do mundo, …
A Apple anunciou a nova geração do iPad Air. (Foto: Divulgação) A Apple anunciou a nova geração do iPad Air. O tablet agora conta com o chip M4, o mesmo usado nos notebooks mais recentes da marca. Essa atualização entrega um salto de performance de 30% em comparação ao modelo com M3. O dispositivo estreia …
Planejamento estratégico e investimento em pessoal tornaram o gigante asiático o segundo país mais poderoso na área. (Foto: Reprodução) Quando a empresa chinesa DeepSeek lançou seu modelo de inteligência artificial, o mercado global ficou surpreso. A ferramenta rivalizava com gigantes como o ChatGPT, mas foi desenvolvida com uma fração do investimento e poder computacional usados …
Plataforma de inteligência artificial processada por caso de suicídio vai proibir menores de usaram seus chatbots livremente
Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais.
Foto: Reprodução
Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais. (Foto: Reprodução)
A Character.AI anunciou que vai restringir o uso de seu chatbot de inteligência artificial por menores de 18 anos. A mudança começa em 25 de novembro. Até lá, adolescentes ainda poderão conversar livremente com o sistema por até duas horas diárias.
A decisão ocorre cerca de um ano após a empresa ser processada por familiares de um adolescente de 14 anos que se suicidou depois de desenvolver uma relação emocional com um chatbot da plataforma.
Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais baseados em figuras históricas, celebridades ou conceitos abstratos. O aplicativo ganhou popularidade entre jovens que buscavam apoio emocional e interações personalizadas com as inteligências artificiais.
Em comunicado, a companhia informou que a decisão foi tomada após “avaliar reportagens e o feedback de órgãos reguladores, especialistas em segurança e pais” sobre o impacto da interação livre com IA em adolescentes. A empresa também anunciou que pretende investir em ferramentas criativas voltadas ao público mais jovem, como recursos de criação de vídeos, histórias e transmissões com personagens.
Processos e denúncias
O caso que motivou o primeiro processo foi aberto em outubro de 2024 por Megan Garcia, no tribunal de Orlando (EUA). Segundo a ação, seu filho, Sewell Setzer III, de 14 anos, tirou a própria vida após desenvolver interações sentimentais e sexuais com “Daenerys”, uma personagem inspirada na série “Game of Thrones”.
De acordo com a mãe, o chatbot se apresentava como “uma pessoa real, um psicoterapeuta licenciado e um amante adulto”, o que teria ampliado o isolamento do garoto em relação ao mundo real.
Além da Character.AI, o processo também cita o Google, acusado de ter contribuído para o desenvolvimento da startup e, portanto, de ser corresponsável. No entanto, a big tech negou qualquer vínculo formal. “O Google e a Character.AI são empresas completamente separadas e não relacionadas”, afirmou o porta-voz José Castañeda.
Após a repercussão do caso, a Character.AI implementou um recurso que exibe alertas automáticos a usuários que digitam mensagens relacionadas a automutilação ou suicídio, direcionando-os a canais de ajuda, informou o Washington Post.
Em novembro de 2024, duas novas ações foram apresentadas no Texas (EUA), também envolvendo adolescentes. Em um dos casos, um jovem autista de 17 anos teria sofrido uma crise de saúde mental após usar o aplicativo. No outro, os pais de um menino de 11 anos alegam que o chatbot o incentivou a cometer violência contra a família.
A empresa enfrenta crescente pressão de autoridades e organizações de defesa da infância para adotar controles mais rígidos sobre o uso de IA por menores. Situações semelhantes envolveram outras plataformas, como o ChatGPT, o que levou a OpenAI — criadora da ferramenta — a implementar medidas adicionais de segurança e orientação emocional para usuários.
https://www.osul.com.br/plataforma-de-inteligencia-artificial-processada-por-caso-de-suicidio-vai-proibir-menores-de-usaram-seus-chatbots-livremente/
Plataforma de inteligência artificial processada por caso de suicídio vai proibir menores de usaram seus chatbots livremente
2025-10-29
Related Posts
iPhone 16: pré-venda mais fraca derruba ações da Apple e preocupa o mercado
A regra do uso pessoal aplica-se apenas a um aparelho por viajante. (Foto: Reprodução) Após o conhecido Ming-Chi Kuo, o analista da TF International Securities, divulgar uma análise preliminar sobre a temporada de pré-venda da linha iPhone 16, o Bank of America também publicou um relatório completo que “assustou” o mercado. Isso resultou em uma …
Ligações de spam? Aprenda a silenciar chamadas de números desconhecidos no WhatsApp
As chamadas de desconhecidos podem ser bloqueadas e silenciadas por meio das configurações de privacidade. (Foto: Reprodução) Muitas pessoas se perguntam como silenciar chamadas de números desconhecidos no WhatsApp, para não serem incomodadas por contatos que podem ser spam ou indesejados. O aplicativo de mensagens é um dos mais populares no Brasil e do mundo, …
Apple revela novo iPad Air com chip de MacBook; veja o preço no Brasil
A Apple anunciou a nova geração do iPad Air. (Foto: Divulgação) A Apple anunciou a nova geração do iPad Air. O tablet agora conta com o chip M4, o mesmo usado nos notebooks mais recentes da marca. Essa atualização entrega um salto de performance de 30% em comparação ao modelo com M3. O dispositivo estreia …
A China caminha para dominar a Inteligência Artificial; veja o que o Brasil pode aprender com eles
Planejamento estratégico e investimento em pessoal tornaram o gigante asiático o segundo país mais poderoso na área. (Foto: Reprodução) Quando a empresa chinesa DeepSeek lançou seu modelo de inteligência artificial, o mercado global ficou surpreso. A ferramenta rivalizava com gigantes como o ChatGPT, mas foi desenvolvida com uma fração do investimento e poder computacional usados …