quarta-feira, 10 de setembro de 2025

AirPods Pro: como funciona a tradução ao vivo dos fones da Apple


Apple anuncia o novo Iphone 17 A Apple apresentou nesta terça-feira (9) a nova geração dos seus fones de ouvido mais populares, os AirPods Pro 3. E um dos destaques do lançamento é a novidade que permite aos dispositivos fazer tradução ao vivo. No vídeo de demonstração, que também marcou o anúncio da linha iPhone 17, a Apple mostrou os novos fones traduzindo uma conversa entre inglês e português do Brasil. O recurso está disponível em cinco idiomas: português (Brasil), inglês, francês, alemão e espanhol. Segundo a empresa, até o fim do ano os AirPods Pro também terão suporte a japonês, coreano, chinês e italiano. Segundo o site da Apple, a função de tradução ao vivo está disponível nos AirPods Pro 3, Pro 2 e AirPods 4 com cancelamento de ruído. Os AirPods Pro 3 serão vendidos no Brasil por R$ 2.699, mas ainda não têm data de lançamento confirmada. Entre os outros recursos do modelo estão o sensor de batimentos cardíacos e a certificação IP57, que garante resistência à água e ao suor. Como funciona a tradução ao vivo Apple AirPods Pro 3 Reprodução/Apple Existem duas formas de usar a tradução ao vivo. Na primeira, o usuário mantém os AirPods Pro no ouvido e usa o iPhone como tela horizontal, que mostra a transcrição em tempo real no idioma da outra pessoa. Na segunda, as duas pessoas utilizam os fones, e a tradução é feita diretamente no ouvido. Segundo a Apple, essa opção é a mais prática (veja na imagem abaixo). iPhone Air: o que a Apple fez para criar o celular mais fino de sua história No vídeo de demonstração, a Apple informou que a função pode ser ativada com um simples gesto: basta apertar a haste dos fones, que emite um som para indicar o início do modo de tradução. Quando o recurso é ativado, o cancelamento de ruído dos fones reduz o volume da voz de quem fala, para que o usuário consiga se concentrar apenas na fala convertida, explica a companhia. Demonstração de tradução ao vivo nos AirPods Pro. Reprodução/Apple "A função não traduz apenas palavras soltas, mas também o significado de cada frase", explicou uma porta-voz da Apple durante a apresentação. A novidade é alimentada por áudio computacional e pela Apple Intelligence, sistema de inteligência artificial da empresa para seus dispositivos. O recurso só funciona quando os fones estão emparelhados a um iPhone com o iOS 26 e com a Apple Intelligence ativada, segundo a Apple. Vale lembrar que nem todos os iPhones têm suporte ao Apple Intelligence, o que torna o recurso restrito aos modelos mais recentes. LEIA TAMBÉM: IA no celular: o que vale a pena usar? g1 testou funções no iPhone 16e, Moto Razr 60 Ultra e Galaxy S25 Edge Apple 'mata' iPhone 15 e dá desconto no iPhone 16 Modo IA: Google começa a liberar versão repaginada da busca que lembra ChatGPT Apple anuncia os novos AirPods Pro 3 Agente do ChatGPT reserva restaurante, faz compra, mas erra ao insistir demais Data centers de IA podem consumir energia equivalente à de milhões de casas

Nenhum comentário:

Postar um comentário

O que é a Oracle, empresa que levou seu criador a superar Musk e virar o mais rico do mundo

Larry Ellison, fundador da Oracle. Oracle PR via Hartmann Studios Larry Ellison, cofundador da Oracle, superou Elon Musk e se tornou...