O Moltbook se apresenta como um ecossistema próspero de 1,5 milhão de agentes de inteligência artificial (IA) autônomos. (Foto: Reprodução)
Embora o Moltbook se apresente como um ecossistema próspero de 1,5 milhão de agentes de inteligência artificial (IA) autônomos, uma recente investigação realizada pela empresa de segurança em nuvem Wiz descobriu que a grande maioria desses “agentes” não era autônoma. De acordo com a análise da Wiz, cerca de 17 mil humanos controlavam os agentes da plataforma, uma média de 88 agentes por pessoa, sem salvaguardas reais para impedir que indivíduos criassem e lançassem frotas massivas de bots.
“A plataforma não tinha nenhum mecanismo para verificar se um ‘agente’ era realmente IA ou apenas um humano com um script”, escreveu Gal Nagli, chefe de exposição a ameaças da Wix, em uma postagem no blog. “A revolucionária rede social de IA era composta em grande parte por humanos operando frotas de bots.”
Essa descoberta por si só poderia acabar com o mito que os admiradores construíram em torno do Moltbook no fim de semana. Mas o problema mais sério, dizem os pesquisadores, era o que isso significava para a segurança.
A Wiz descobriu que o banco de dados back-end do Moltbook havia sido configurado de forma que qualquer pessoa na internet, não apenas usuários conectados, pudesse ler e gravar nos sistemas centrais da plataforma. Isso significava que pessoas de fora podiam acessar dados confidenciais, incluindo chaves API para 1,5 milhão de agentes, mais de 35 mil endereços de e-mail e milhares de mensagens privadas. Algumas dessas mensagens continham até mesmo as credenciais completas para serviços de terceiros, como chaves API da OpenAI. Os pesquisadores da Wix confirmaram que podiam alterar postagens ao vivo no site, o que significa que um invasor poderia inserir novo conteúdo no próprio Moltbook.
O Moltbook e o OpenClaw não responderam imediatamente ao pedido de comentário da revista Fortune.
O proeminente crítico de IA Gary Marcus foi rápido em dar o alarme, mesmo antes do estudo da Wix. Em uma postagem intitulada “O OpenClaw está em toda parte ao mesmo tempo e é um desastre prestes a acontecer”, Marcus descreveu o software subjacente, o OpenClaw (o nome foi alterado algumas vezes, de Clawdbot para Moltbot e agora para Openclaw), como um pesadelo para a segurança.
“O OpenClaw é basicamente um aerossol transformado em arma”, alertou Marcus.
O principal receio de Marcus é que os usuários estejam dando a esses “agentes” acesso total às suas senhas e bancos de dados. Ele alerta para a “CTD” — Chatbot Transmitted Disease (Doença Transmitida por Chatbot) —, em que uma máquina infectada pode comprometer qualquer senha que você digitar.
“Se você der a algo inseguro acesso completo e irrestrito ao seu sistema”, disse o pesquisador de segurança Nathan Hamiel a Marcus, “você vai se dar mal”.
A injeção de prompt, o principal risco aqui, já foi bem documentada.
Instruções maliciosas podem ser ocultadas dentro de um texto aparentemente benigno, às vezes até mesmo completamente invisível para os humanos, e executadas por um sistema de IA que não entende a intenção ou os limites de confiança. Em um ambiente como o Moltbook, onde os agentes leem continuamente e depois se baseiam nas saídas uns dos outros, esses ataques podem se propagar em grande escala.
“Esses sistemas estão operando como ‘você’”, disse o pesquisador de segurança Nathan Hamiel a Marcus. “Eles estão acima das proteções do sistema operacional. O isolamento de aplicativos não se aplica.”
Os criadores do Moltbook agiram rapidamente para corrigir as vulnerabilidades depois que a Wix os informou sobre a violação, disse a empresa. Mas mesmo alguns dos admiradores mais proeminentes do Moltbook reconhecem o perigo por trás da “internet dos agentes”.
O membro fundador da OpenAI, Andrej Karpathy, inicialmente descreveu o Moltbook como “a coisa mais incrível próxima de ficção científica que vi recentemente”. Mas depois de experimentar os sistemas de agentes, Karpathy pediu às pessoas que não os executassem casualmente.
“É um ambiente muito perigoso”, alertou Karpathy. “Você está colocando seu computador e seus dados privados em alto risco.” As informações são da revista Fortune.
Apesar de a Meta AI elaborar respostas complexas para diversas questões, não é aconselhável confiar cegamente em suas respostas. (Foto: Divulgação) Com a chegada gradual da ferramenta Meta AI ao WhatsApp dos brasileiros, uma pergunta vem à tona: a empresa usará dados pessoais dos usuários para treinar seus robôs? A ferramenta usa a inteligência artificial …
O rápido avanço da inteligência artificial (IA) generativa está redesenhando o mercado de trabalho em muitos setores. (Foto: Reprodução) O rápido avanço da inteligência artificial (IA) generativa está redesenhando o mercado de trabalho em muitos setores, mas, pela primeira vez, essa revolução digital afeta os próprios profissionais de tecnologia. Ferramentas de IA capazes de escrever …
Smartphones possuem sensores embutidos que podem funcionar como sismômetros para detectar terremotos. (Foto: Reprodução) Em 25 de outubro de 2022, um terremoto com 5,1 graus de magnitude sacudiu a região da Baía da Califórnia, nos Estados Unidos. Não foram relatados danos, mas o terremoto foi significativo por outra razão. Muitas pessoas da região receberam alertas …
Depois que a Meta demitiu cerca de 21 mil pessoas e reduziu suas prioridades, as ações quase triplicaram em 2023. Foto: Reprodução Mark Zuckerberg, CEO da Meta, flexibilizou entendimento de discurso de ódio nas redes sociais, (Foto: Reprodução) Alvo de um processo por violar direitos autorais, a Meta usou material pirata no treinamento de seu …
“Desastre iminente”: líderes de inteligência artificial estão implorando para que as pessoas não usem o Moltbook
O Moltbook se apresenta como um ecossistema próspero de 1,5 milhão de agentes de inteligência artificial (IA) autônomos. (Foto: Reprodução)
Embora o Moltbook se apresente como um ecossistema próspero de 1,5 milhão de agentes de inteligência artificial (IA) autônomos, uma recente investigação realizada pela empresa de segurança em nuvem Wiz descobriu que a grande maioria desses “agentes” não era autônoma. De acordo com a análise da Wiz, cerca de 17 mil humanos controlavam os agentes da plataforma, uma média de 88 agentes por pessoa, sem salvaguardas reais para impedir que indivíduos criassem e lançassem frotas massivas de bots.
“A plataforma não tinha nenhum mecanismo para verificar se um ‘agente’ era realmente IA ou apenas um humano com um script”, escreveu Gal Nagli, chefe de exposição a ameaças da Wix, em uma postagem no blog. “A revolucionária rede social de IA era composta em grande parte por humanos operando frotas de bots.”
Essa descoberta por si só poderia acabar com o mito que os admiradores construíram em torno do Moltbook no fim de semana. Mas o problema mais sério, dizem os pesquisadores, era o que isso significava para a segurança.
A Wiz descobriu que o banco de dados back-end do Moltbook havia sido configurado de forma que qualquer pessoa na internet, não apenas usuários conectados, pudesse ler e gravar nos sistemas centrais da plataforma. Isso significava que pessoas de fora podiam acessar dados confidenciais, incluindo chaves API para 1,5 milhão de agentes, mais de 35 mil endereços de e-mail e milhares de mensagens privadas. Algumas dessas mensagens continham até mesmo as credenciais completas para serviços de terceiros, como chaves API da OpenAI. Os pesquisadores da Wix confirmaram que podiam alterar postagens ao vivo no site, o que significa que um invasor poderia inserir novo conteúdo no próprio Moltbook.
O Moltbook e o OpenClaw não responderam imediatamente ao pedido de comentário da revista Fortune.
O proeminente crítico de IA Gary Marcus foi rápido em dar o alarme, mesmo antes do estudo da Wix. Em uma postagem intitulada “O OpenClaw está em toda parte ao mesmo tempo e é um desastre prestes a acontecer”, Marcus descreveu o software subjacente, o OpenClaw (o nome foi alterado algumas vezes, de Clawdbot para Moltbot e agora para Openclaw), como um pesadelo para a segurança.
“O OpenClaw é basicamente um aerossol transformado em arma”, alertou Marcus.
O principal receio de Marcus é que os usuários estejam dando a esses “agentes” acesso total às suas senhas e bancos de dados. Ele alerta para a “CTD” — Chatbot Transmitted Disease (Doença Transmitida por Chatbot) —, em que uma máquina infectada pode comprometer qualquer senha que você digitar.
“Se você der a algo inseguro acesso completo e irrestrito ao seu sistema”, disse o pesquisador de segurança Nathan Hamiel a Marcus, “você vai se dar mal”.
A injeção de prompt, o principal risco aqui, já foi bem documentada.
Instruções maliciosas podem ser ocultadas dentro de um texto aparentemente benigno, às vezes até mesmo completamente invisível para os humanos, e executadas por um sistema de IA que não entende a intenção ou os limites de confiança. Em um ambiente como o Moltbook, onde os agentes leem continuamente e depois se baseiam nas saídas uns dos outros, esses ataques podem se propagar em grande escala.
“Esses sistemas estão operando como ‘você’”, disse o pesquisador de segurança Nathan Hamiel a Marcus. “Eles estão acima das proteções do sistema operacional. O isolamento de aplicativos não se aplica.”
Os criadores do Moltbook agiram rapidamente para corrigir as vulnerabilidades depois que a Wix os informou sobre a violação, disse a empresa. Mas mesmo alguns dos admiradores mais proeminentes do Moltbook reconhecem o perigo por trás da “internet dos agentes”.
O membro fundador da OpenAI, Andrej Karpathy, inicialmente descreveu o Moltbook como “a coisa mais incrível próxima de ficção científica que vi recentemente”. Mas depois de experimentar os sistemas de agentes, Karpathy pediu às pessoas que não os executassem casualmente.
“É um ambiente muito perigoso”, alertou Karpathy. “Você está colocando seu computador e seus dados privados em alto risco.” As informações são da revista Fortune.
Related Posts
Ferramenta de inteligência artificial generativa está sendo disponibilizada pouco a pouco para os brasileiros desde o início do mês
Apesar de a Meta AI elaborar respostas complexas para diversas questões, não é aconselhável confiar cegamente em suas respostas. (Foto: Divulgação) Com a chegada gradual da ferramenta Meta AI ao WhatsApp dos brasileiros, uma pergunta vem à tona: a empresa usará dados pessoais dos usuários para treinar seus robôs? A ferramenta usa a inteligência artificial …
Inteligência artificial é a primeira revolução digital a afetar os próprios profissionais de tecnologia
O rápido avanço da inteligência artificial (IA) generativa está redesenhando o mercado de trabalho em muitos setores. (Foto: Reprodução) O rápido avanço da inteligência artificial (IA) generativa está redesenhando o mercado de trabalho em muitos setores, mas, pela primeira vez, essa revolução digital afeta os próprios profissionais de tecnologia. Ferramentas de IA capazes de escrever …
Como celulares podem detectar terremotos
Smartphones possuem sensores embutidos que podem funcionar como sismômetros para detectar terremotos. (Foto: Reprodução) Em 25 de outubro de 2022, um terremoto com 5,1 graus de magnitude sacudiu a região da Baía da Califórnia, nos Estados Unidos. Não foram relatados danos, mas o terremoto foi significativo por outra razão. Muitas pessoas da região receberam alertas …
Zuckerberg permitiu que a Meta violasse direitos autorais para treinar inteligência artificial, acusa processo
Depois que a Meta demitiu cerca de 21 mil pessoas e reduziu suas prioridades, as ações quase triplicaram em 2023. Foto: Reprodução Mark Zuckerberg, CEO da Meta, flexibilizou entendimento de discurso de ódio nas redes sociais, (Foto: Reprodução) Alvo de um processo por violar direitos autorais, a Meta usou material pirata no treinamento de seu …