Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana.
Foto: CES/Reprodução
Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana. (Foto: CES/Reprodução)
Dois dos maiores nomes da inteligência artificial (IA) da atualidade estão em desacordo sobre o que poderá ser a próxima evolução na tecnologia. Em um evento, durante a Consumer Electronics Show (CES) 2025, Yann LeCun, cientista-chefe de IA da Meta, afirmou que não teremos uma inteligência artificial geral (AGI, na sigla em inglês), em um futuro próximo e que afirmação de Sam Altman, CEO da OpenAI, de que já sabe como construir tecnologia é “loucura”.
No início da semana, Sam Altman escreveu em seu blog pessoal que a OpenAI já teria o conhecimento necessário para construir uma AGI dentro da empresa. AGI é um tipo de inteligência artificial que pode ultrapassar a capacidade do cérebro humano. De acordo com Altman, ainda em 2025 será possível ver agentes de IA “se juntarem à força de trabalho” e se tornar uma ferramenta semelhante a uma AGI.
LeCun, no entanto, criticou a postura do dono do ChatGPT, afirmando que a definição de AGI pode variar de acordo, mas que igualar o conceito a, simplesmente, alcançar o nível de inteligência humano é muito simplório.
“Acho que é uma definição terrível”, explicou o cientista. “Antes de mais nada, isso depende. O que você quer dizer com AGI? Sinceramente, não gosto da expressão porque as pessoas a usam essencialmente para designar uma inteligência que está no nível da inteligência humana, e a inteligência humana é muito especializada. Achamos que temos uma inteligência geral, mas não temos, somos superespecializados, portanto, a frase sobre AGI (de Altman), na minha opinião, é loucura”.
“É como se todo mundo criasse referências para a inteligência de nível humano e dissesse, por exemplo, que se você tivesse conseguido essa referência, teria alcançado a inteligência de nível humano. As pessoas estão cometendo os mesmos erros há 70 anos”, afirmou na conversa.
O chefe de IA da Meta também acredita que a regulação da inteligência artificial deve ser aplicada apenas na camada de aplicação da tecnologia e não no desenvolvimento dos modelos. A empresa de Mark Zuckerberg é dona de um dos modelos mais famosos do setor, o Llama, um código aberto que alimenta diversos aplicativos de IA. Para LeCun, regular o processo de pesquisa e desenvolvimento dessas ferramentas é um risco para a autonomia de criação das empresas. O cientista não comentou o novo posicionamento da gigante em relação à moderação de conteúdo.
“Como isso pode ser feito? Como isso faz sentido? O risco de regulamentar pesquisa e desenvolvimento é que você dirá à comunidade que está assumindo um risco de responsabilidade. Ao liberar a modelagem e a fonte, que empresas não correrão esse risco?”, questionou o cientista. “Se houver algum tipo de responsabilidade em cascata será como (autorizar) processar a empresa porque alguém em algum lugar do mundo usou alguma personalização para fazer algo ruim”.
(Estadão conteúdo)
https://www.osul.com.br/ideia-de-superinteligencia-artificial-da-openai-e-loucura-afirma-cientista-chefe-da-meta/ Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista-chefe da Meta 2025-01-09
Empresa norueguesa Opera enviou requerimento ao órgão acusando gigante americana de favorecer seu navegador próprio, o Edge. (Foto: Reprodução) A Microsoft alertou que hackers estavam ativamente atacando usuários de seu software de gerenciamento de documentos, o SharePoint. Especialistas de segurança ressaltaram o risco de possíveis violações em larga escala ao redor do mundo. Vulnerabilidades no …
Especialistas concordam que esses aparelhos podem comprometer o sono das crianças. Foto: Reprodução Especialistas concordam que esses aparelhos podem comprometer o sono das crianças. (Foto: Reprodução) Qual é a idade “certa” para dar um smartphone ao seu filho? A dúvida divide muitos pais, pressionados pelos pedidos insistentes de pré-adolescentes e alertados por pesquisadores sobre possíveis …
O País está entre os três maiores mercados da startup de inteligência artificial. (Foto: Reprodução) Os brasileiros enviam 140 milhões de mensagens diariamente para o ChatGPT, revelou a OpenAI em documento inédito sobre o mercado nacional. O relatório divulgado nessa terça-feira (12) reforça a marca já registrada por pesquisas independentes: o País está entre os …
O modelo de IA apresentado pela startup chinesa se destaca por ser uma alternativa viável e mais barata de inteligência artificial. Foto: Reprodução O modelo de IA apresentado pela startup chinesa se destaca por ser uma alternativa viável e mais barata de inteligência artificial. (Foto: Reprodução) Um novo modelo de inteligência artificial (IA), produzido pela …
Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista-chefe da Meta
Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana.
Foto: CES/Reprodução
Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana. (Foto: CES/Reprodução)
Dois dos maiores nomes da inteligência artificial (IA) da atualidade estão em desacordo sobre o que poderá ser a próxima evolução na tecnologia. Em um evento, durante a Consumer Electronics Show (CES) 2025, Yann LeCun, cientista-chefe de IA da Meta, afirmou que não teremos uma inteligência artificial geral (AGI, na sigla em inglês), em um futuro próximo e que afirmação de Sam Altman, CEO da OpenAI, de que já sabe como construir tecnologia é “loucura”.
No início da semana, Sam Altman escreveu em seu blog pessoal que a OpenAI já teria o conhecimento necessário para construir uma AGI dentro da empresa. AGI é um tipo de inteligência artificial que pode ultrapassar a capacidade do cérebro humano. De acordo com Altman, ainda em 2025 será possível ver agentes de IA “se juntarem à força de trabalho” e se tornar uma ferramenta semelhante a uma AGI.
LeCun, no entanto, criticou a postura do dono do ChatGPT, afirmando que a definição de AGI pode variar de acordo, mas que igualar o conceito a, simplesmente, alcançar o nível de inteligência humano é muito simplório.
“Acho que é uma definição terrível”, explicou o cientista. “Antes de mais nada, isso depende. O que você quer dizer com AGI? Sinceramente, não gosto da expressão porque as pessoas a usam essencialmente para designar uma inteligência que está no nível da inteligência humana, e a inteligência humana é muito especializada. Achamos que temos uma inteligência geral, mas não temos, somos superespecializados, portanto, a frase sobre AGI (de Altman), na minha opinião, é loucura”.
“É como se todo mundo criasse referências para a inteligência de nível humano e dissesse, por exemplo, que se você tivesse conseguido essa referência, teria alcançado a inteligência de nível humano. As pessoas estão cometendo os mesmos erros há 70 anos”, afirmou na conversa.
O chefe de IA da Meta também acredita que a regulação da inteligência artificial deve ser aplicada apenas na camada de aplicação da tecnologia e não no desenvolvimento dos modelos. A empresa de Mark Zuckerberg é dona de um dos modelos mais famosos do setor, o Llama, um código aberto que alimenta diversos aplicativos de IA. Para LeCun, regular o processo de pesquisa e desenvolvimento dessas ferramentas é um risco para a autonomia de criação das empresas. O cientista não comentou o novo posicionamento da gigante em relação à moderação de conteúdo.
“Como isso pode ser feito? Como isso faz sentido? O risco de regulamentar pesquisa e desenvolvimento é que você dirá à comunidade que está assumindo um risco de responsabilidade. Ao liberar a modelagem e a fonte, que empresas não correrão esse risco?”, questionou o cientista. “Se houver algum tipo de responsabilidade em cascata será como (autorizar) processar a empresa porque alguém em algum lugar do mundo usou alguma personalização para fazer algo ruim”.
(Estadão conteúdo)
https://www.osul.com.br/ideia-de-superinteligencia-artificial-da-openai-e-loucura-afirma-cientista-chefe-da-meta/
Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista-chefe da Meta
2025-01-09
Related Posts
Hackers atacam o SharePoint, e Microsoft lança atualização enquanto busca resolver a falha
Empresa norueguesa Opera enviou requerimento ao órgão acusando gigante americana de favorecer seu navegador próprio, o Edge. (Foto: Reprodução) A Microsoft alertou que hackers estavam ativamente atacando usuários de seu software de gerenciamento de documentos, o SharePoint. Especialistas de segurança ressaltaram o risco de possíveis violações em larga escala ao redor do mundo. Vulnerabilidades no …
Ter um smartphone antes dos 12 anos pode trazer riscos à saúde; conheça os efeitos negativos
Especialistas concordam que esses aparelhos podem comprometer o sono das crianças. Foto: Reprodução Especialistas concordam que esses aparelhos podem comprometer o sono das crianças. (Foto: Reprodução) Qual é a idade “certa” para dar um smartphone ao seu filho? A dúvida divide muitos pais, pressionados pelos pedidos insistentes de pré-adolescentes e alertados por pesquisadores sobre possíveis …
Brasileiros já mandam 140 milhões de mensagens por dia para o ChatGPT
O País está entre os três maiores mercados da startup de inteligência artificial. (Foto: Reprodução) Os brasileiros enviam 140 milhões de mensagens diariamente para o ChatGPT, revelou a OpenAI em documento inédito sobre o mercado nacional. O relatório divulgado nessa terça-feira (12) reforça a marca já registrada por pesquisas independentes: o País está entre os …
Empresas de tecnologia dos Estados Unidos e da Europa perdem 1 trilhão de dólares com “ameaça” de inteligência artificial chinesa
O modelo de IA apresentado pela startup chinesa se destaca por ser uma alternativa viável e mais barata de inteligência artificial. Foto: Reprodução O modelo de IA apresentado pela startup chinesa se destaca por ser uma alternativa viável e mais barata de inteligência artificial. (Foto: Reprodução) Um novo modelo de inteligência artificial (IA), produzido pela …