O AirPods Pro 3 foi anunciado durante a apresentação do iPhone 17. (Foto: Reprodução)
A Apple aposta no seu recém-lançado serviço de “Tradução ao vivo” em seus novos fones para alçar o Apple Intelligence a uma nova fase de expansão, após as críticas de que seu sistema de inteligência artificial demorou para ser lançado.
Em entrevista ao jornal O Globo, Ron Huang, vice-presidente de Sensores e Conectividade da companhia, antecipa que o serviço vai ganhar novos idiomas nesta semana. O AirPods Pro 3 foi anunciado durante a apresentação do iPhone 17, em evento nos Estados Unidos, em setembro, quando a companhia demonstrou o uso em português, que foi incluído na primeira leva junto com outras nove línguas.
Para ter acesso ao novo recurso, é preciso adquirir o novo fone, cujas vendas começaram neste mês no Brasil. Ao colocar o AirPods Pro 3 no ouvido, o aparelho, por meio de um toque, já identifica o idioma que está sendo falado, e uma voz gerada por IA traduz em tempo real a conversa.
No aplicativo Tradutor, no iPhone, é possível ler também o texto escrito nos dois idiomas enquanto o áudio é captado. É possível ainda ativar o serviço ao pressionar o botão lateral do smartphone.
Novos algoritmos
Embora o serviço de tradução já esteja disponível em aplicativos como Mensagens, Facetime e em ligações telefônicas, é com a conversa cara a cara que a companhia quer turbinar seu sistema de inteligência artificial.
Huang explica que foram desenvolvidos novos algoritmos de áudio computacional para que os fones captassem sons à distância, filtrando ruídos e priorizando a fala de quem está à frente do usuário. Em geral, os fones foram concebidos para captar a voz do usuário, e não a de outras pessoas.
Em outra frente, o sistema passa ainda a identificar o sentido das frases. Ou seja, a tradução só é exibida para o usuário quando é identificado que a fala com uma ideia coerente foi completada, complementa Huang:
“Por isso, a primeira coisa que fizemos foi ajustar a detecção de fim de fala, ou seja, a forma como o sistema entende que a pessoa terminou de falar. O trabalho consistiu basicamente em determinar quando começar a tradução, se esperamos por pontuações ou por pausas do falante, para então iniciar a tradução o mais rápido possível.”
Reconhecimento de fala
Segundo o vice-presidente da Apple, a segunda etapa foi fazer um ajuste para garantir que o algoritmo de reconhecimento automático de fala (ASR, na sigla em inglês) funcionasse em diferentes tipos de ambiente, com ruídos, distância entre as pessoas e em vários idiomas ao mesmo tempo.
Assim, o sistema faz uma troca inteligente entre o microfone do iPhone e o dos AirPods, usando sempre aquele que oferece a melhor relação entre sinal e ruído para a tradução, explica ele. Huang cita ainda que os novos fones usam o cancelamento ativo de ruído (ANC, na sigla em inglês) para atenuar a voz da pessoa à frente e destacar o áudio traduzido no ouvido. O fone tem ainda pela primeira vez “detectores de atividade de voz” para identificar quem está falando.
“Depois, entra em ação o modelo de tradução automática, que é um algoritmo treinado com uma grande quantidade de textos, comparando os idiomas. E até na forma como a tradução é lida de volta para o usuário, fizemos ajustes para entender a velocidade ideal e a forma como é falada, para que se entenda o conteúdo o mais rápido possível. Se o sistema percebe que está ficando para trás em relação à fala real, ele aumenta a velocidade da leitura da tradução para que você consiga acompanhar a conversa sem atrasos. Ou seja, há muitas tecnologias trabalhando em conjunto para tornar a experiência fluida e natural.”
Para isso, revela o executivo, os testes envolveram conversas reais com pessoas de diferentes partes do mundo. Assim, os dados coletados de conversas reais em cada novo idioma são incorporados aos algoritmos. “Com o Apple Intelligence e com o Tradução ao vivo, adotamos uma abordagem gradual. Lançamos um conjunto inicial de idiomas e depois expandimos. E, para cada idioma que incluímos, há centenas de horas de testes. Trabalhamos com falantes nativos, que cresceram com esses idiomas, para avaliar se as traduções refletem com precisão o conteúdo original.”
https://www.osul.com.br/airpods-pro-3-entenda-como-funciona-a-traducao-ao-vivo-no-novo-fone-da-apple/ AirPods Pro 3: Entenda como funciona a tradução ao vivo no novo fone da Apple 2025-11-06
Mais de 60% apontam o Google como principal fonte de informação, à frente de Instagram (54%), YouTube (45%) e Facebook (23%). Foto: Reprodução Mais de 60% apontam o Google como principal fonte de informação, à frente de Instagram (54%), YouTube (45%) e Facebook (23%). (Foto: Reprodução) A percepção de desinformação é maior, entre os brasileiros, …
Meta, dona do app, revisa anualmente os sistemas operacionais que suportam o serviço, mas não divulga a lista dos aparelhos afetados. (Foto: Reprodução) O WhatsApp já conta com proteção por criptografia para mensagens e ligações. A plataforma de mensagens da Meta anunciou na quarta-feira (23) que está adicionando mais um recurso para tornar as conversas …
Os nomes foram selecionados por sua sonoridade atraente e beleza linguística. Foto: Freepik Os nomes foram selecionados por sua sonoridade atraente e beleza linguística. (Foto: Freepik) A inteligência artificial compara e analisa dados de acordo com a solicitação do usuário, oferecendo respostas adequadas ao tema consultado, com alternativas de solução e opções que o interessado …
Fabricado pela chinesa Unitree, robô estava em fase de testes quando começou a se mover de forma descontrolada. (Foto: Reprodução/X) Um vídeo que mostra um robô humanoide agindo de forma agressiva contra engenheiros em uma fábrica na China viralizou nas redes sociais nos últimos dias. As imagens registram o momento em que o equipamento, um …
AirPods Pro 3: Entenda como funciona a tradução ao vivo no novo fone da Apple
O AirPods Pro 3 foi anunciado durante a apresentação do iPhone 17. (Foto: Reprodução)
A Apple aposta no seu recém-lançado serviço de “Tradução ao vivo” em seus novos fones para alçar o Apple Intelligence a uma nova fase de expansão, após as críticas de que seu sistema de inteligência artificial demorou para ser lançado.
Em entrevista ao jornal O Globo, Ron Huang, vice-presidente de Sensores e Conectividade da companhia, antecipa que o serviço vai ganhar novos idiomas nesta semana. O AirPods Pro 3 foi anunciado durante a apresentação do iPhone 17, em evento nos Estados Unidos, em setembro, quando a companhia demonstrou o uso em português, que foi incluído na primeira leva junto com outras nove línguas.
Para ter acesso ao novo recurso, é preciso adquirir o novo fone, cujas vendas começaram neste mês no Brasil. Ao colocar o AirPods Pro 3 no ouvido, o aparelho, por meio de um toque, já identifica o idioma que está sendo falado, e uma voz gerada por IA traduz em tempo real a conversa.
No aplicativo Tradutor, no iPhone, é possível ler também o texto escrito nos dois idiomas enquanto o áudio é captado. É possível ainda ativar o serviço ao pressionar o botão lateral do smartphone.
Novos algoritmos
Embora o serviço de tradução já esteja disponível em aplicativos como Mensagens, Facetime e em ligações telefônicas, é com a conversa cara a cara que a companhia quer turbinar seu sistema de inteligência artificial.
Huang explica que foram desenvolvidos novos algoritmos de áudio computacional para que os fones captassem sons à distância, filtrando ruídos e priorizando a fala de quem está à frente do usuário. Em geral, os fones foram concebidos para captar a voz do usuário, e não a de outras pessoas.
Em outra frente, o sistema passa ainda a identificar o sentido das frases. Ou seja, a tradução só é exibida para o usuário quando é identificado que a fala com uma ideia coerente foi completada, complementa Huang:
“Por isso, a primeira coisa que fizemos foi ajustar a detecção de fim de fala, ou seja, a forma como o sistema entende que a pessoa terminou de falar. O trabalho consistiu basicamente em determinar quando começar a tradução, se esperamos por pontuações ou por pausas do falante, para então iniciar a tradução o mais rápido possível.”
Reconhecimento de fala
Segundo o vice-presidente da Apple, a segunda etapa foi fazer um ajuste para garantir que o algoritmo de reconhecimento automático de fala (ASR, na sigla em inglês) funcionasse em diferentes tipos de ambiente, com ruídos, distância entre as pessoas e em vários idiomas ao mesmo tempo.
Assim, o sistema faz uma troca inteligente entre o microfone do iPhone e o dos AirPods, usando sempre aquele que oferece a melhor relação entre sinal e ruído para a tradução, explica ele. Huang cita ainda que os novos fones usam o cancelamento ativo de ruído (ANC, na sigla em inglês) para atenuar a voz da pessoa à frente e destacar o áudio traduzido no ouvido. O fone tem ainda pela primeira vez “detectores de atividade de voz” para identificar quem está falando.
“Depois, entra em ação o modelo de tradução automática, que é um algoritmo treinado com uma grande quantidade de textos, comparando os idiomas. E até na forma como a tradução é lida de volta para o usuário, fizemos ajustes para entender a velocidade ideal e a forma como é falada, para que se entenda o conteúdo o mais rápido possível. Se o sistema percebe que está ficando para trás em relação à fala real, ele aumenta a velocidade da leitura da tradução para que você consiga acompanhar a conversa sem atrasos. Ou seja, há muitas tecnologias trabalhando em conjunto para tornar a experiência fluida e natural.”
Para isso, revela o executivo, os testes envolveram conversas reais com pessoas de diferentes partes do mundo. Assim, os dados coletados de conversas reais em cada novo idioma são incorporados aos algoritmos. “Com o Apple Intelligence e com o Tradução ao vivo, adotamos uma abordagem gradual. Lançamos um conjunto inicial de idiomas e depois expandimos. E, para cada idioma que incluímos, há centenas de horas de testes. Trabalhamos com falantes nativos, que cresceram com esses idiomas, para avaliar se as traduções refletem com precisão o conteúdo original.”
https://www.osul.com.br/airpods-pro-3-entenda-como-funciona-a-traducao-ao-vivo-no-novo-fone-da-apple/
AirPods Pro 3: Entenda como funciona a tradução ao vivo no novo fone da Apple
2025-11-06
Related Posts
Brasileiros veem mais desinformação digital em temas políticos e evitam conteúdos rotulados como falsos
Mais de 60% apontam o Google como principal fonte de informação, à frente de Instagram (54%), YouTube (45%) e Facebook (23%). Foto: Reprodução Mais de 60% apontam o Google como principal fonte de informação, à frente de Instagram (54%), YouTube (45%) e Facebook (23%). (Foto: Reprodução) A percepção de desinformação é maior, entre os brasileiros, …
WhatsApp vai tornar suas conversas ainda mais privadas; saiba como ativar
Meta, dona do app, revisa anualmente os sistemas operacionais que suportam o serviço, mas não divulga a lista dos aparelhos afetados. (Foto: Reprodução) O WhatsApp já conta com proteção por criptografia para mensagens e ligações. A plataforma de mensagens da Meta anunciou na quarta-feira (23) que está adicionando mais um recurso para tornar as conversas …
Inteligência artificial lista os 20 nomes mais bonitos do mundo de meninas e meninos; veja quais são
Os nomes foram selecionados por sua sonoridade atraente e beleza linguística. Foto: Freepik Os nomes foram selecionados por sua sonoridade atraente e beleza linguística. (Foto: Freepik) A inteligência artificial compara e analisa dados de acordo com a solicitação do usuário, oferecendo respostas adequadas ao tema consultado, com alternativas de solução e opções que o interessado …
Robô humanoide ataca engenheiros em centro de testes na China
Fabricado pela chinesa Unitree, robô estava em fase de testes quando começou a se mover de forma descontrolada. (Foto: Reprodução/X) Um vídeo que mostra um robô humanoide agindo de forma agressiva contra engenheiros em uma fábrica na China viralizou nas redes sociais nos últimos dias. As imagens registram o momento em que o equipamento, um …