Como o sistema ainda não foi disponibilizado ao público, as avaliações se baseiam na documentação oficial e em testes conduzidos pelos parceiros.
Foto: Freepik
Como o sistema ainda não foi disponibilizado ao público, as avaliações se baseiam na documentação oficial e em testes conduzidos pelos parceiros. (Foto: Freepik)
Representantes de governos, bancos e do mercado financeiro dos Estados Unidos, Reino Unido e Canadá demonstraram preocupação nos últimos dias com o Claude Mythos, novo modelo de inteligência artificial (IA) da Anthropic. Apontado pela própria empresa como sua “IA mais poderosa”, o sistema também levanta dúvidas sobre o quanto desses avanços representam riscos reais ou fazem parte de uma estratégia de comunicação da companhia liderada por Dario Amodei.
Na documentação técnica, a Anthropic afirma que o modelo é capaz de identificar e explorar falhas de forma autônoma em sistemas operacionais, navegadores e softwares, tanto de código aberto quanto fechado. Segundo a empresa, até engenheiros sem formação específica em segurança conseguiram usar a IA para encontrar vulnerabilidades complexas em pouco tempo, o que, na prática, poderia ampliar o alcance de ataques cibernéticos.
O tema repercutiu no setor financeiro. A diretora-gerente do Fundo Monetário Internacional (FMI), Kristalina Georgieva, afirmou que “não temos capacidade coletiva de proteger o sistema monetário internacional contra riscos cibernéticos de grande magnitude”.
Antes disso, o secretário do Tesouro dos Estados Unidos, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, convocaram executivos de grandes bancos, como JPMorgan Chase, Bank of America, Citigroup, Goldman Sachs, Morgan Stanley e Wells Fargo, para discutir os possíveis impactos da tecnologia. Reguladores do Reino Unido adotaram medidas semelhantes.
Como o sistema ainda não foi disponibilizado ao público, as avaliações se baseiam na documentação oficial e em testes conduzidos pelos parceiros. Para especialistas, há indícios de avanços relevantes. O professor de inteligência artificial Edney Souza, da ESPM e do Insper, afirma que “o Mythos tem resultados que sustentam a narrativa de risco”. Segundo ele, em um teste chamado Cybench, o modelo atingiu 100% de sucesso na exploração de vulnerabilidades reais e identificou uma falha antiga no sistema FreeBSD.
O Cybench é um conjunto de 40 desafios públicos voltados à avaliação de capacidades de IA em cibersegurança. Após atingir o limite do teste, a Anthropic informou que busca novas métricas para medir o desempenho de seus modelos.
O AI Security Institute (AISI), ligado ao governo britânico, também avaliou o sistema e concluiu que “o Mythos representa um avanço em relação aos modelos anteriores, em um cenário de rápida evolução do desempenho cibernético”. O instituto destacou a capacidade do modelo de operar de forma autônoma e resolver etapas complexas de ataques simulados, como no teste “The Last Ones”.
Outro ponto observado é que o desempenho da IA tende a melhorar conforme processa mais dados. Para Fabio Assolini, diretor de pesquisa da Kaspersky, “modelos desse tipo permitem analisar grandes volumes de código de forma contínua, sem as limitações humanas, o que amplia a capacidade de encontrar falhas”.
Especialistas alertam que, em mãos mal-intencionadas, a tecnologia pode facilitar ataques cibernéticos, inclusive por usuários com menor conhecimento técnico. Ao mesmo tempo, parte do setor avalia que o desenvolvimento controlado pode ajudar na preparação de empresas e governos. Para Fernando de Falchi, da Check Point Software, “faz sentido preparar o mercado para o que está por vir”, diante do potencial de impacto dessas ferramentas.
Ainda não está claro como a legislação da UE vai tratar outras questões importantes envolvendo o uso de IA, como disseminação de desinformação. Foto: Shutterstock Ainda não está claro como a legislação da UE vai tratar outras questões importantes envolvendo o uso de IA, como disseminação de desinformação. (Foto: Shutterstock) As empresas de tecnologia terão …
Aprenda a liberar o armazenamento. (Foto: Reprodução) Ficar sem espaço no celular é um dos problemas mais frustrantes. De um dia para o outro, a memória interna parece se esgotar e o dispositivo começa a funcionar devagar. Os aplicativos demoram para abrir, as fotos não podem ser salvas, as atualizações falham e, em muitos casos, …
Página de suporte já reforça a mudança para Google Cast. Foto: Reprodução Página de suporte já reforça a mudança para Google Cast. (Foto: Reprodução) O Google decidiu mudar o nome de um dos seus serviços mais uma vez: o sistema de transmissão de mídias para TVs e alto-falantes conhecido como Chromecast built-in (ou Chromecast integrado) …
A indústria de tecnologia nos diz que chatbots e ferramentas de pesquisa de IA irão impulsionar a maneira como aprendemos e prosperamos. (Foto: Reprodução) No primeiro semestre, Shiri Melumad, professora da Wharton School, da Universidade da Pensilvânia, deu a um grupo de 250 pessoas uma tarefa simples de redação: compartilhar conselhos com um amigo sobre …
Entenda o quão perigoso é o Mythos, modelo de inteligência artificial da Anthropic
Como o sistema ainda não foi disponibilizado ao público, as avaliações se baseiam na documentação oficial e em testes conduzidos pelos parceiros.
Foto: Freepik
Como o sistema ainda não foi disponibilizado ao público, as avaliações se baseiam na documentação oficial e em testes conduzidos pelos parceiros. (Foto: Freepik)
Representantes de governos, bancos e do mercado financeiro dos Estados Unidos, Reino Unido e Canadá demonstraram preocupação nos últimos dias com o Claude Mythos, novo modelo de inteligência artificial (IA) da Anthropic. Apontado pela própria empresa como sua “IA mais poderosa”, o sistema também levanta dúvidas sobre o quanto desses avanços representam riscos reais ou fazem parte de uma estratégia de comunicação da companhia liderada por Dario Amodei.
Na documentação técnica, a Anthropic afirma que o modelo é capaz de identificar e explorar falhas de forma autônoma em sistemas operacionais, navegadores e softwares, tanto de código aberto quanto fechado. Segundo a empresa, até engenheiros sem formação específica em segurança conseguiram usar a IA para encontrar vulnerabilidades complexas em pouco tempo, o que, na prática, poderia ampliar o alcance de ataques cibernéticos.
O tema repercutiu no setor financeiro. A diretora-gerente do Fundo Monetário Internacional (FMI), Kristalina Georgieva, afirmou que “não temos capacidade coletiva de proteger o sistema monetário internacional contra riscos cibernéticos de grande magnitude”.
Antes disso, o secretário do Tesouro dos Estados Unidos, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, convocaram executivos de grandes bancos, como JPMorgan Chase, Bank of America, Citigroup, Goldman Sachs, Morgan Stanley e Wells Fargo, para discutir os possíveis impactos da tecnologia. Reguladores do Reino Unido adotaram medidas semelhantes.
Como o sistema ainda não foi disponibilizado ao público, as avaliações se baseiam na documentação oficial e em testes conduzidos pelos parceiros. Para especialistas, há indícios de avanços relevantes. O professor de inteligência artificial Edney Souza, da ESPM e do Insper, afirma que “o Mythos tem resultados que sustentam a narrativa de risco”. Segundo ele, em um teste chamado Cybench, o modelo atingiu 100% de sucesso na exploração de vulnerabilidades reais e identificou uma falha antiga no sistema FreeBSD.
O Cybench é um conjunto de 40 desafios públicos voltados à avaliação de capacidades de IA em cibersegurança. Após atingir o limite do teste, a Anthropic informou que busca novas métricas para medir o desempenho de seus modelos.
O AI Security Institute (AISI), ligado ao governo britânico, também avaliou o sistema e concluiu que “o Mythos representa um avanço em relação aos modelos anteriores, em um cenário de rápida evolução do desempenho cibernético”. O instituto destacou a capacidade do modelo de operar de forma autônoma e resolver etapas complexas de ataques simulados, como no teste “The Last Ones”.
Outro ponto observado é que o desempenho da IA tende a melhorar conforme processa mais dados. Para Fabio Assolini, diretor de pesquisa da Kaspersky, “modelos desse tipo permitem analisar grandes volumes de código de forma contínua, sem as limitações humanas, o que amplia a capacidade de encontrar falhas”.
Especialistas alertam que, em mãos mal-intencionadas, a tecnologia pode facilitar ataques cibernéticos, inclusive por usuários com menor conhecimento técnico. Ao mesmo tempo, parte do setor avalia que o desenvolvimento controlado pode ajudar na preparação de empresas e governos. Para Fernando de Falchi, da Check Point Software, “faz sentido preparar o mercado para o que está por vir”, diante do potencial de impacto dessas ferramentas.
(Com O Globo)
Related Posts
União Europeia apresenta regra para grandes sistemas de inteligência artificial
Ainda não está claro como a legislação da UE vai tratar outras questões importantes envolvendo o uso de IA, como disseminação de desinformação. Foto: Shutterstock Ainda não está claro como a legislação da UE vai tratar outras questões importantes envolvendo o uso de IA, como disseminação de desinformação. (Foto: Shutterstock) As empresas de tecnologia terão …
O erro frequente que enche a memória do celular e que muitas pessoas desconhecem
Aprenda a liberar o armazenamento. (Foto: Reprodução) Ficar sem espaço no celular é um dos problemas mais frustrantes. De um dia para o outro, a memória interna parece se esgotar e o dispositivo começa a funcionar devagar. Os aplicativos demoram para abrir, as fotos não podem ser salvas, as atualizações falham e, em muitos casos, …
Google muda de novo e Chromecast integrado agora se chama Google Cast
Página de suporte já reforça a mudança para Google Cast. Foto: Reprodução Página de suporte já reforça a mudança para Google Cast. (Foto: Reprodução) O Google decidiu mudar o nome de um dos seus serviços mais uma vez: o sistema de transmissão de mídias para TVs e alto-falantes conhecido como Chromecast built-in (ou Chromecast integrado) …
Impacto neurológico: estudo mostra como inteligência artificial e redes sociais contribuem para o declínio cognitivo
A indústria de tecnologia nos diz que chatbots e ferramentas de pesquisa de IA irão impulsionar a maneira como aprendemos e prosperamos. (Foto: Reprodução) No primeiro semestre, Shiri Melumad, professora da Wharton School, da Universidade da Pensilvânia, deu a um grupo de 250 pessoas uma tarefa simples de redação: compartilhar conselhos com um amigo sobre …