Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana.
Foto: CES/Reprodução
Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana. (Foto: CES/Reprodução)
Dois dos maiores nomes da inteligência artificial (IA) da atualidade estão em desacordo sobre o que poderá ser a próxima evolução na tecnologia. Em um evento, durante a Consumer Electronics Show (CES) 2025, Yann LeCun, cientista-chefe de IA da Meta, afirmou que não teremos uma inteligência artificial geral (AGI, na sigla em inglês), em um futuro próximo e que afirmação de Sam Altman, CEO da OpenAI, de que já sabe como construir tecnologia é “loucura”.
No início da semana, Sam Altman escreveu em seu blog pessoal que a OpenAI já teria o conhecimento necessário para construir uma AGI dentro da empresa. AGI é um tipo de inteligência artificial que pode ultrapassar a capacidade do cérebro humano. De acordo com Altman, ainda em 2025 será possível ver agentes de IA “se juntarem à força de trabalho” e se tornar uma ferramenta semelhante a uma AGI.
LeCun, no entanto, criticou a postura do dono do ChatGPT, afirmando que a definição de AGI pode variar de acordo, mas que igualar o conceito a, simplesmente, alcançar o nível de inteligência humano é muito simplório.
“Acho que é uma definição terrível”, explicou o cientista. “Antes de mais nada, isso depende. O que você quer dizer com AGI? Sinceramente, não gosto da expressão porque as pessoas a usam essencialmente para designar uma inteligência que está no nível da inteligência humana, e a inteligência humana é muito especializada. Achamos que temos uma inteligência geral, mas não temos, somos superespecializados, portanto, a frase sobre AGI (de Altman), na minha opinião, é loucura”.
“É como se todo mundo criasse referências para a inteligência de nível humano e dissesse, por exemplo, que se você tivesse conseguido essa referência, teria alcançado a inteligência de nível humano. As pessoas estão cometendo os mesmos erros há 70 anos”, afirmou na conversa.
O chefe de IA da Meta também acredita que a regulação da inteligência artificial deve ser aplicada apenas na camada de aplicação da tecnologia e não no desenvolvimento dos modelos. A empresa de Mark Zuckerberg é dona de um dos modelos mais famosos do setor, o Llama, um código aberto que alimenta diversos aplicativos de IA. Para LeCun, regular o processo de pesquisa e desenvolvimento dessas ferramentas é um risco para a autonomia de criação das empresas. O cientista não comentou o novo posicionamento da gigante em relação à moderação de conteúdo.
“Como isso pode ser feito? Como isso faz sentido? O risco de regulamentar pesquisa e desenvolvimento é que você dirá à comunidade que está assumindo um risco de responsabilidade. Ao liberar a modelagem e a fonte, que empresas não correrão esse risco?”, questionou o cientista. “Se houver algum tipo de responsabilidade em cascata será como (autorizar) processar a empresa porque alguém em algum lugar do mundo usou alguma personalização para fazer algo ruim”.
(Estadão conteúdo)
https://www.osul.com.br/ideia-de-superinteligencia-artificial-da-openai-e-loucura-afirma-cientista-chefe-da-meta/ Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista-chefe da Meta 2025-01-09
Há cerca de um ano, o futuro de uma das principais big techs americanas era incerto. Foto: Divulgação Há cerca de um ano, o futuro de uma das principais big techs americanas era incerto. (Foto: Divulgação) A inteligência artificial (IA) parece ter vindo em socorro de um representante da velha guarda do Vale do Silício: …
Problema afetou também serviços como Microsoft 365 e Xbox, segundo dados do Downdetector. (Foto: Reprodução) A Microsoft enfrentou nessa quarta-feira (29) uma falha generalizada em seus serviços de nuvem Azure e no pacote 365, além de instabilidade em plataformas como o Xbox. A pane começou por volta das 11h40 e atingiu o portal do Azure, …
O Instagram pode desativar uma conta por violações dos termos de uso da plataforma. (Foto: Reprodução) A influenciadora Isabel Veloso, conhecida por compartilhar sua jornada de tratamento contra o câncer nas redes sociais, teve sua conta no Instagram desabilitada, gerando indignação entre seus seguidores. “Eu não sei o porquê disso, ou o que de fato …
Estudo considerou o mercado de trabalho americano. (Foto: Freepik) Um estudo da Microsoft apontou que profissões que dependem fortemente de linguagem, produção de conteúdo, áreas de computação, matemática, comunicação ou tarefas repetitivas ligadas a informações têm maior probabilidade de serem impactadas por modelos de linguagem de inteligência artificial. Já aquelas que exigem trabalho manual, operação …
Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista-chefe da Meta
Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana.
Foto: CES/Reprodução
Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana. (Foto: CES/Reprodução)
Dois dos maiores nomes da inteligência artificial (IA) da atualidade estão em desacordo sobre o que poderá ser a próxima evolução na tecnologia. Em um evento, durante a Consumer Electronics Show (CES) 2025, Yann LeCun, cientista-chefe de IA da Meta, afirmou que não teremos uma inteligência artificial geral (AGI, na sigla em inglês), em um futuro próximo e que afirmação de Sam Altman, CEO da OpenAI, de que já sabe como construir tecnologia é “loucura”.
No início da semana, Sam Altman escreveu em seu blog pessoal que a OpenAI já teria o conhecimento necessário para construir uma AGI dentro da empresa. AGI é um tipo de inteligência artificial que pode ultrapassar a capacidade do cérebro humano. De acordo com Altman, ainda em 2025 será possível ver agentes de IA “se juntarem à força de trabalho” e se tornar uma ferramenta semelhante a uma AGI.
LeCun, no entanto, criticou a postura do dono do ChatGPT, afirmando que a definição de AGI pode variar de acordo, mas que igualar o conceito a, simplesmente, alcançar o nível de inteligência humano é muito simplório.
“Acho que é uma definição terrível”, explicou o cientista. “Antes de mais nada, isso depende. O que você quer dizer com AGI? Sinceramente, não gosto da expressão porque as pessoas a usam essencialmente para designar uma inteligência que está no nível da inteligência humana, e a inteligência humana é muito especializada. Achamos que temos uma inteligência geral, mas não temos, somos superespecializados, portanto, a frase sobre AGI (de Altman), na minha opinião, é loucura”.
“É como se todo mundo criasse referências para a inteligência de nível humano e dissesse, por exemplo, que se você tivesse conseguido essa referência, teria alcançado a inteligência de nível humano. As pessoas estão cometendo os mesmos erros há 70 anos”, afirmou na conversa.
O chefe de IA da Meta também acredita que a regulação da inteligência artificial deve ser aplicada apenas na camada de aplicação da tecnologia e não no desenvolvimento dos modelos. A empresa de Mark Zuckerberg é dona de um dos modelos mais famosos do setor, o Llama, um código aberto que alimenta diversos aplicativos de IA. Para LeCun, regular o processo de pesquisa e desenvolvimento dessas ferramentas é um risco para a autonomia de criação das empresas. O cientista não comentou o novo posicionamento da gigante em relação à moderação de conteúdo.
“Como isso pode ser feito? Como isso faz sentido? O risco de regulamentar pesquisa e desenvolvimento é que você dirá à comunidade que está assumindo um risco de responsabilidade. Ao liberar a modelagem e a fonte, que empresas não correrão esse risco?”, questionou o cientista. “Se houver algum tipo de responsabilidade em cascata será como (autorizar) processar a empresa porque alguém em algum lugar do mundo usou alguma personalização para fazer algo ruim”.
(Estadão conteúdo)
https://www.osul.com.br/ideia-de-superinteligencia-artificial-da-openai-e-loucura-afirma-cientista-chefe-da-meta/
Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista-chefe da Meta
2025-01-09
Related Posts
Como a inteligência artificial ajudou a salvar o Google
Há cerca de um ano, o futuro de uma das principais big techs americanas era incerto. Foto: Divulgação Há cerca de um ano, o futuro de uma das principais big techs americanas era incerto. (Foto: Divulgação) A inteligência artificial (IA) parece ter vindo em socorro de um representante da velha guarda do Vale do Silício: …
Serviço de nuvem da Microsoft com instabilidade na quarta-feira; problema ocorre 9 dias após pane da Amazon
Problema afetou também serviços como Microsoft 365 e Xbox, segundo dados do Downdetector. (Foto: Reprodução) A Microsoft enfrentou nessa quarta-feira (29) uma falha generalizada em seus serviços de nuvem Azure e no pacote 365, além de instabilidade em plataformas como o Xbox. A pane começou por volta das 11h40 e atingiu o portal do Azure, …
Entenda por que o Instagram desativa a conta de alguém e o que fazer nesses casos
O Instagram pode desativar uma conta por violações dos termos de uso da plataforma. (Foto: Reprodução) A influenciadora Isabel Veloso, conhecida por compartilhar sua jornada de tratamento contra o câncer nas redes sociais, teve sua conta no Instagram desabilitada, gerando indignação entre seus seguidores. “Eu não sei o porquê disso, ou o que de fato …
As 40 profissões mais impactadas pela inteligência artificial, segundo estudo da Microsoft
Estudo considerou o mercado de trabalho americano. (Foto: Freepik) Um estudo da Microsoft apontou que profissões que dependem fortemente de linguagem, produção de conteúdo, áreas de computação, matemática, comunicação ou tarefas repetitivas ligadas a informações têm maior probabilidade de serem impactadas por modelos de linguagem de inteligência artificial. Já aquelas que exigem trabalho manual, operação …