Empresas processam big techs nos Estados Unidos por respostas falsas da inteligência artificial com conteúdo difamatório que não foi criado por seres humanos
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos.
Foto: Reprodução
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos. (Foto: Reprodução)
Representantes de vendas da Wolf River Electric, empresa de energia solar em Minnesota, notaram no fim do ano passado um aumento incomum no número de contratos cancelados. Ao buscar explicações com os antigos clientes, receberam respostas inesperadas: muitos disseram ter desistido do serviço após encontrar, em buscas no Google, informações de que a companhia teria firmado um acordo judicial com o procurador-geral do estado por práticas comerciais enganosas — algo que jamais ocorreu.
A preocupação aumentou quando os próprios executivos da empresa verificaram os resultados. No topo da página de buscas, o Gemini, sistema de inteligência artificial do Google, exibia respostas falsas mencionando um suposto acordo judicial. Além disso, a referência aparecia automaticamente na caixa de pesquisa ao digitar “Wolf River Electric”. Sem conseguir reverter o problema pelas ferramentas da plataforma e diante do impacto direto nos negócios, a empresa decidiu processar o Google por difamação.
“Investimos muito tempo e energia para construir uma boa reputação”, afirmou Justin Nielsen, fundador da Wolf River, criada em 2014 e hoje a maior empresa de energia solar de Minnesota. “Quando os clientes veem um alerta como esse, é quase impossível reconquistá-los.”
O caso da Wolf River se soma a pelo menos seis ações semelhantes abertas nos Estados Unidos nos últimos dois anos, todas relacionadas a conteúdo gerado por ferramentas de inteligência artificial que produzem informações falsas e prejudiciais. Os autores alegam que as empresas responsáveis pelos modelos não apenas permitiram a publicação das informações, como também seguiram exibindo o conteúdo mesmo após serem notificadas sobre os erros.
Um dos primeiros casos desse tipo foi aberto em 2023, na Geórgia. Mark Walters, apresentador de rádio e defensor do direito ao porte de armas, afirmou que o ChatGPT prejudicou sua reputação ao responder a uma pergunta de um jornalista com a falsa alegação de que ele teria sido acusado de desvio de dinheiro. A ação tentava responsabilizar a OpenAI, criadora do modelo.
“Frankenstein não pode criar um monstro que sai por aí matando pessoas e depois alegar que não tem nada a ver com isso”, disse o advogado de Walters, John Monroe. O processo foi arquivado meses depois. A juíza responsável destacou que o jornalista não acreditou na alegação e rapidamente verificou que ela era falsa — fator decisivo, já que a caracterização de difamação exige que terceiros considerem a informação plausível.
Nenhum caso de difamação por IA nos EUA chegou a julgamento, mas um deles terminou em acordo. Robby Starbuck, influenciador de direita, processou a Meta após encontrar na rede X uma imagem gerada pelo Llama, chatbot da empresa, com informações falsas afirmando que ele esteve no Capitólio em 6 de janeiro de 2021 e que tinha ligações com a teoria conspiratória QAnon. Starbuck disse que estava em casa, no Tennessee.
A Meta encerrou o caso em agosto, sem responder formalmente à queixa. Como parte do acordo, contratou Starbuck como consultor para trabalhar em políticas de moderação de IA. A empresa afirmou, em comunicado, que avançou na melhoria da precisão de seus sistemas e na redução de vieses. Os termos adicionais do acordo não foram divulgados.
https://www.osul.com.br/empresas-processam-big-techs-nos-estados-unidos-por-respostas-falsas-da-inteligencia-artificial-com-conteudo-difamatorio-que-nao-foi-criado-por-seres-humanos/ Empresas processam big techs nos Estados Unidos por respostas falsas da inteligência artificial com conteúdo difamatório que não foi criado por seres humanos 2025-12-08
Óculos Meta Ray-Ban Display, desenvolvido em parceria com a célebre fabricante de óculos de luxo. (Foto: Reprodução) O que vem depois do smartphone? Essa é uma pergunta que muitos analistas tentam responder. O futuro das big tech, como a Meta, depende de acertar essa previsão. Por isso, as peças de Mark Zuckerberg já começam a …
Além do envio de mensagens, o app para os tablets da Apple suporta chamadas de voz e vídeo com até 32 pessoas. (Foto: Reprodução) Atendendo a um dos pedidos mais recorrentes dos usuários, a Meta anunciou nessa terça-feira (27) que o WhatsApp está finalmente disponível para iPad. Além do envio de mensagens, o app para …
As empresas de IA normalmente usam seus chats como combustível para treinar e ajustar sua tecnologia. (Foto: Reprodução) Se você gosta de usar chatbots, mas não curte que as empresas utilizem seus dados para “treinar” seus sistemas de inteligência artificial (IA) ou para extrair registros de suas conversas, existe uma solução para isso. Use os …
A comercialização começou na sexta-feira (19), com destaque para a procura pelos modelos Pro e Pro Max. (Foto: Reprodução) O primeiro dia de vendas dos novos iPhone 17 foi marcado por uma forte demanda dos modelos mais premium no Brasil assim como em diversos países. A comercialização começou na sexta-feira (19), com destaque para a …
Empresas processam big techs nos Estados Unidos por respostas falsas da inteligência artificial com conteúdo difamatório que não foi criado por seres humanos
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos.
Foto: Reprodução
Esses processos levantam uma nova discussão jurídica: como tratar conteúdo difamatório não criado por humanos. (Foto: Reprodução)
Representantes de vendas da Wolf River Electric, empresa de energia solar em Minnesota, notaram no fim do ano passado um aumento incomum no número de contratos cancelados. Ao buscar explicações com os antigos clientes, receberam respostas inesperadas: muitos disseram ter desistido do serviço após encontrar, em buscas no Google, informações de que a companhia teria firmado um acordo judicial com o procurador-geral do estado por práticas comerciais enganosas — algo que jamais ocorreu.
A preocupação aumentou quando os próprios executivos da empresa verificaram os resultados. No topo da página de buscas, o Gemini, sistema de inteligência artificial do Google, exibia respostas falsas mencionando um suposto acordo judicial. Além disso, a referência aparecia automaticamente na caixa de pesquisa ao digitar “Wolf River Electric”. Sem conseguir reverter o problema pelas ferramentas da plataforma e diante do impacto direto nos negócios, a empresa decidiu processar o Google por difamação.
“Investimos muito tempo e energia para construir uma boa reputação”, afirmou Justin Nielsen, fundador da Wolf River, criada em 2014 e hoje a maior empresa de energia solar de Minnesota. “Quando os clientes veem um alerta como esse, é quase impossível reconquistá-los.”
O caso da Wolf River se soma a pelo menos seis ações semelhantes abertas nos Estados Unidos nos últimos dois anos, todas relacionadas a conteúdo gerado por ferramentas de inteligência artificial que produzem informações falsas e prejudiciais. Os autores alegam que as empresas responsáveis pelos modelos não apenas permitiram a publicação das informações, como também seguiram exibindo o conteúdo mesmo após serem notificadas sobre os erros.
Um dos primeiros casos desse tipo foi aberto em 2023, na Geórgia. Mark Walters, apresentador de rádio e defensor do direito ao porte de armas, afirmou que o ChatGPT prejudicou sua reputação ao responder a uma pergunta de um jornalista com a falsa alegação de que ele teria sido acusado de desvio de dinheiro. A ação tentava responsabilizar a OpenAI, criadora do modelo.
“Frankenstein não pode criar um monstro que sai por aí matando pessoas e depois alegar que não tem nada a ver com isso”, disse o advogado de Walters, John Monroe. O processo foi arquivado meses depois. A juíza responsável destacou que o jornalista não acreditou na alegação e rapidamente verificou que ela era falsa — fator decisivo, já que a caracterização de difamação exige que terceiros considerem a informação plausível.
Nenhum caso de difamação por IA nos EUA chegou a julgamento, mas um deles terminou em acordo. Robby Starbuck, influenciador de direita, processou a Meta após encontrar na rede X uma imagem gerada pelo Llama, chatbot da empresa, com informações falsas afirmando que ele esteve no Capitólio em 6 de janeiro de 2021 e que tinha ligações com a teoria conspiratória QAnon. Starbuck disse que estava em casa, no Tennessee.
A Meta encerrou o caso em agosto, sem responder formalmente à queixa. Como parte do acordo, contratou Starbuck como consultor para trabalhar em políticas de moderação de IA. A empresa afirmou, em comunicado, que avançou na melhoria da precisão de seus sistemas e na redução de vieses. Os termos adicionais do acordo não foram divulgados.
https://www.osul.com.br/empresas-processam-big-techs-nos-estados-unidos-por-respostas-falsas-da-inteligencia-artificial-com-conteudo-difamatorio-que-nao-foi-criado-por-seres-humanos/
Empresas processam big techs nos Estados Unidos por respostas falsas da inteligência artificial com conteúdo difamatório que não foi criado por seres humanos
2025-12-08
Related Posts
Futuro sem celular: o que a Meta pretende ao lançar óculos inteligentes
Óculos Meta Ray-Ban Display, desenvolvido em parceria com a célebre fabricante de óculos de luxo. (Foto: Reprodução) O que vem depois do smartphone? Essa é uma pergunta que muitos analistas tentam responder. O futuro das big tech, como a Meta, depende de acertar essa previsão. Por isso, as peças de Mark Zuckerberg já começam a …
Após insistência dos usuários, WhatsApp chega ao iPad
Além do envio de mensagens, o app para os tablets da Apple suporta chamadas de voz e vídeo com até 32 pessoas. (Foto: Reprodução) Atendendo a um dos pedidos mais recorrentes dos usuários, a Meta anunciou nessa terça-feira (27) que o WhatsApp está finalmente disponível para iPad. Além do envio de mensagens, o app para …
Com esse truque você pode usar chatbots de inteligência artificial sem entregar seus dados para empresas de tecnologia
As empresas de IA normalmente usam seus chats como combustível para treinar e ajustar sua tecnologia. (Foto: Reprodução) Se você gosta de usar chatbots, mas não curte que as empresas utilizem seus dados para “treinar” seus sistemas de inteligência artificial (IA) ou para extrair registros de suas conversas, existe uma solução para isso. Use os …
O primeiro dia de vendas dos novos iPhone 17 foi marcado por uma forte demanda dos modelos premium no Brasil assim como em diversos países
A comercialização começou na sexta-feira (19), com destaque para a procura pelos modelos Pro e Pro Max. (Foto: Reprodução) O primeiro dia de vendas dos novos iPhone 17 foi marcado por uma forte demanda dos modelos mais premium no Brasil assim como em diversos países. A comercialização começou na sexta-feira (19), com destaque para a …