Empresas processam big techs nos Estados Unidos por respostas falsas da inteligência artificial com conteúdo difamatório que não foi criado por seres humanos
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos.
Foto: Reprodução
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos. (Foto: Reprodução)
Representantes de vendas da Wolf River Electric, empresa de energia solar em Minnesota, notaram no fim do ano passado um aumento incomum no número de contratos cancelados. Ao buscar explicações com os antigos clientes, receberam respostas inesperadas: muitos disseram ter desistido do serviço após encontrar, em buscas no Google, informações de que a companhia teria firmado um acordo judicial com o procurador-geral do estado por práticas comerciais enganosas — algo que jamais ocorreu.
A preocupação aumentou quando os próprios executivos da empresa verificaram os resultados. No topo da página de buscas, o Gemini, sistema de inteligência artificial do Google, exibia respostas falsas mencionando um suposto acordo judicial. Além disso, a referência aparecia automaticamente na caixa de pesquisa ao digitar “Wolf River Electric”. Sem conseguir reverter o problema pelas ferramentas da plataforma e diante do impacto direto nos negócios, a empresa decidiu processar o Google por difamação.
“Investimos muito tempo e energia para construir uma boa reputação”, afirmou Justin Nielsen, fundador da Wolf River, criada em 2014 e hoje a maior empresa de energia solar de Minnesota. “Quando os clientes veem um alerta como esse, é quase impossível reconquistá-los.”
O caso da Wolf River se soma a pelo menos seis ações semelhantes abertas nos Estados Unidos nos últimos dois anos, todas relacionadas a conteúdo gerado por ferramentas de inteligência artificial que produzem informações falsas e prejudiciais. Os autores alegam que as empresas responsáveis pelos modelos não apenas permitiram a publicação das informações, como também seguiram exibindo o conteúdo mesmo após serem notificadas sobre os erros.
Um dos primeiros casos desse tipo foi aberto em 2023, na Geórgia. Mark Walters, apresentador de rádio e defensor do direito ao porte de armas, afirmou que o ChatGPT prejudicou sua reputação ao responder a uma pergunta de um jornalista com a falsa alegação de que ele teria sido acusado de desvio de dinheiro. A ação tentava responsabilizar a OpenAI, criadora do modelo.
“Frankenstein não pode criar um monstro que sai por aí matando pessoas e depois alegar que não tem nada a ver com isso”, disse o advogado de Walters, John Monroe. O processo foi arquivado meses depois. A juíza responsável destacou que o jornalista não acreditou na alegação e rapidamente verificou que ela era falsa — fator decisivo, já que a caracterização de difamação exige que terceiros considerem a informação plausível.
Nenhum caso de difamação por IA nos EUA chegou a julgamento, mas um deles terminou em acordo. Robby Starbuck, influenciador de direita, processou a Meta após encontrar na rede X uma imagem gerada pelo Llama, chatbot da empresa, com informações falsas afirmando que ele esteve no Capitólio em 6 de janeiro de 2021 e que tinha ligações com a teoria conspiratória QAnon. Starbuck disse que estava em casa, no Tennessee.
A Meta encerrou o caso em agosto, sem responder formalmente à queixa. Como parte do acordo, contratou Starbuck como consultor para trabalhar em políticas de moderação de IA. A empresa afirmou, em comunicado, que avançou na melhoria da precisão de seus sistemas e na redução de vieses. Os termos adicionais do acordo não foram divulgados.
https://www.osul.com.br/empresas-processam-big-techs-nos-estados-unidos-por-respostas-falsas-da-inteligencia-artificial-com-conteudo-difamatorio-que-nao-foi-criado-por-seres-humanos/ Empresas processam big techs nos Estados Unidos por respostas falsas da inteligência artificial com conteúdo difamatório que não foi criado por seres humanos 2025-12-08
Dez dos 11 ministros já votaram, com um placar de oito votos a dois para aumentar a responsabilização. (Foto: Gustavo Moreno/SCO/STF) O presidente do Supremo Tribunal Federal (STF), Luís Roberto Barroso, afirmou nesse domingo (23) que ferramentas de inteligência artificial (IA) apresentam “potencialidades ótimas”, mas que a possibilidade de “massificação da desinformação” por meio da …
Projeto Moohan, da Samsung: funcionalidades para o dia a dia. (Foto: Divulgação) Durante anos, o Google tentou – e falhou – fazer com que os consumidores usassem telas na frente do rosto. Agora, a gigante de buscas está tentando novamente. A empresa revelou uma nova versão do seu software Android, chamada Android XR e desenvolvida …
A plataforma anunciou a nova medida no dia em que entrou em vigor o Estatuto da Criança e do Adolescente (ECA) Digital. (Foto: Reprodução) O YouTube anunciou que menores de 16 anos não mais poderão ter canais na plataforma sem a supervisão dos pais. A partir de agora, quando a empresa identificar que se trata …
Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais. Foto: Reprodução Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais. (Foto: Reprodução) A Character.AI anunciou que vai restringir o uso de seu chatbot de inteligência artificial por menores de 18 anos. …
Empresas processam big techs nos Estados Unidos por respostas falsas da inteligência artificial com conteúdo difamatório que não foi criado por seres humanos
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos.
Foto: Reprodução
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos. (Foto: Reprodução)
Representantes de vendas da Wolf River Electric, empresa de energia solar em Minnesota, notaram no fim do ano passado um aumento incomum no número de contratos cancelados. Ao buscar explicações com os antigos clientes, receberam respostas inesperadas: muitos disseram ter desistido do serviço após encontrar, em buscas no Google, informações de que a companhia teria firmado um acordo judicial com o procurador-geral do estado por práticas comerciais enganosas — algo que jamais ocorreu.
A preocupação aumentou quando os próprios executivos da empresa verificaram os resultados. No topo da página de buscas, o Gemini, sistema de inteligência artificial do Google, exibia respostas falsas mencionando um suposto acordo judicial. Além disso, a referência aparecia automaticamente na caixa de pesquisa ao digitar “Wolf River Electric”. Sem conseguir reverter o problema pelas ferramentas da plataforma e diante do impacto direto nos negócios, a empresa decidiu processar o Google por difamação.
“Investimos muito tempo e energia para construir uma boa reputação”, afirmou Justin Nielsen, fundador da Wolf River, criada em 2014 e hoje a maior empresa de energia solar de Minnesota. “Quando os clientes veem um alerta como esse, é quase impossível reconquistá-los.”
O caso da Wolf River se soma a pelo menos seis ações semelhantes abertas nos Estados Unidos nos últimos dois anos, todas relacionadas a conteúdo gerado por ferramentas de inteligência artificial que produzem informações falsas e prejudiciais. Os autores alegam que as empresas responsáveis pelos modelos não apenas permitiram a publicação das informações, como também seguiram exibindo o conteúdo mesmo após serem notificadas sobre os erros.
Um dos primeiros casos desse tipo foi aberto em 2023, na Geórgia. Mark Walters, apresentador de rádio e defensor do direito ao porte de armas, afirmou que o ChatGPT prejudicou sua reputação ao responder a uma pergunta de um jornalista com a falsa alegação de que ele teria sido acusado de desvio de dinheiro. A ação tentava responsabilizar a OpenAI, criadora do modelo.
“Frankenstein não pode criar um monstro que sai por aí matando pessoas e depois alegar que não tem nada a ver com isso”, disse o advogado de Walters, John Monroe. O processo foi arquivado meses depois. A juíza responsável destacou que o jornalista não acreditou na alegação e rapidamente verificou que ela era falsa — fator decisivo, já que a caracterização de difamação exige que terceiros considerem a informação plausível.
Nenhum caso de difamação por IA nos EUA chegou a julgamento, mas um deles terminou em acordo. Robby Starbuck, influenciador de direita, processou a Meta após encontrar na rede X uma imagem gerada pelo Llama, chatbot da empresa, com informações falsas afirmando que ele esteve no Capitólio em 6 de janeiro de 2021 e que tinha ligações com a teoria conspiratória QAnon. Starbuck disse que estava em casa, no Tennessee.
A Meta encerrou o caso em agosto, sem responder formalmente à queixa. Como parte do acordo, contratou Starbuck como consultor para trabalhar em políticas de moderação de IA. A empresa afirmou, em comunicado, que avançou na melhoria da precisão de seus sistemas e na redução de vieses. Os termos adicionais do acordo não foram divulgados.
https://www.osul.com.br/empresas-processam-big-techs-nos-estados-unidos-por-respostas-falsas-da-inteligencia-artificial-com-conteudo-difamatorio-que-nao-foi-criado-por-seres-humanos/
Empresas processam big techs nos Estados Unidos por respostas falsas da inteligência artificial com conteúdo difamatório que não foi criado por seres humanos
2025-12-08
Related Posts
Presidente do Supremo diz ver potencialidade da inteligência artificial, mas afirma que a massificação da desinformação preocupa
Dez dos 11 ministros já votaram, com um placar de oito votos a dois para aumentar a responsabilização. (Foto: Gustavo Moreno/SCO/STF) O presidente do Supremo Tribunal Federal (STF), Luís Roberto Barroso, afirmou nesse domingo (23) que ferramentas de inteligência artificial (IA) apresentam “potencialidades ótimas”, mas que a possibilidade de “massificação da desinformação” por meio da …
Google e Samsung miram lançamento de óculos inteligentes
Projeto Moohan, da Samsung: funcionalidades para o dia a dia. (Foto: Divulgação) Durante anos, o Google tentou – e falhou – fazer com que os consumidores usassem telas na frente do rosto. Agora, a gigante de buscas está tentando novamente. A empresa revelou uma nova versão do seu software Android, chamada Android XR e desenvolvida …
YouTube veta canal para menor de 16 anos sem a supervisão dos pais
A plataforma anunciou a nova medida no dia em que entrou em vigor o Estatuto da Criança e do Adolescente (ECA) Digital. (Foto: Reprodução) O YouTube anunciou que menores de 16 anos não mais poderão ter canais na plataforma sem a supervisão dos pais. A partir de agora, quando a empresa identificar que se trata …
Plataforma de inteligência artificial processada por caso de suicídio vai proibir menores de usaram seus chatbots livremente
Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais. Foto: Reprodução Criada por ex-engenheiros do Google, a Character.AI permite que usuários criem e conversem com personagens virtuais. (Foto: Reprodução) A Character.AI anunciou que vai restringir o uso de seu chatbot de inteligência artificial por menores de 18 anos. …