Além de revelar seus planos iniciais para IA e atualizações anuais para iOS, macOS e muito mais na WWDC 2024, a Apple também discutiu novos recursos chegando ao AirPods Pro de segunda geração. As Interações Siri permitirão que você responda ao assistente balançando a cabeça sim ou balançando a cabeça não. A Apple também planeja introduzir isolamento de voz aprimorado que reduz ainda mais o ruído de fundo durante uma chamada. Ambos os itens são exclusivos do AirPods Pro mais recente, porque contam com o chip H2 da empresa, como os recursos existentes de áudio adaptativo, volume personalizado e reconhecimento de conversa.
Assim como as ferramentas de áudio avançadas que já estão disponíveis no AirPods Pro, as interações Siri e o isolamento de voz usam as capacidades de processamento do chip H2 em conjunto com a potência de um dispositivo de origem – um iPhone ou MacBook Pro, por exemplo. Usar o poder de processamento de ambos os lados, embora seja capaz de fazê-lo com latência muito baixa, é o que continuará a desbloquear esses tipos de recursos no AirPods Pro. O emparelhamento também garantirá que o sistema não responda quando você não pretende, em parte porque é capaz de prever com segurança o que você está fazendo.
Para interações Siri, a Apple emprega vários sensores além do chip H2 para detectar um aceno sim ou um tremor não. A empresa não divulgou detalhes sobre isso, mas o acelerômetro de detecção de movimento dentro do AirPods Pro provavelmente desempenha um papel. Esses sensores funcionam junto com um conjunto avançado de modelos de transformadores para prever com precisão se você está tentando confirmar ou descartar o alerta do Siri. Eles também podem distinguir entre movimentos normais da cabeça, com o objetivo de que o AirPods Pro não seja enganado por uma rápida olhada para o lado ou alguma outra ação. No geral, a intenção é que as Interações Siri funcionem tão bem quando você está parado quanto quando está em movimento ou durante um treino. É claro que a Apple tem uma atualização com IA para o Siri, portanto, tornar as trocas com o assistente mais naturais e convenientes significa que você poderá usá-lo mais.
Billy Steele/Engadget
A qualidade da chamada já era um aspecto fundamental do AirPods Pro. Mas, como fez com as interações Siri, a Apple está usando o poder combinado do H2 e de um dispositivo de origem para melhorar o desempenho da voz. Modelos de áudio computacional mais avançados estão sendo usados do que os que estão atualmente em funcionamento no AirPods Pro, com o objetivo de reduzir ainda mais as distrações de fundo de cenários cotidianos. Isso inclui o ruído do vento, o clamor de uma rua movimentada da cidade, o barulho dos canteiros de obras e possíveis interrupções em casa – como cozinhar, crianças, animais de estimação ou aspirador de pó. Além disso, a Apple está melhorando a qualidade geral da voz, não apenas a redução de ruído em tempo real, e a empresa está fazendo isso com latência muito baixa. Isso significa que você também deve soar melhor nas chamadas em geral, mas não apenas porque o ruído de fundo é reduzido.
Como esses recursos dependem tanto do poder de processamento do chip H2, qualquer futuro modelo de AirPods precisaria ser equipado com o componente para oferecê-los. Eles precisariam do H2 ou de algo com ainda mais potência computacional. É claro que a Apple não comenta produtos futuros, mas a empresa deixa claro que o H2 é fundamental para desbloquear esses tipos de ferramentas de áudio avançadas. E se os rumores forem verdadeiros, não teremos que esperar muito para ver se os novos AirPods “normais” também permitirão que você balance a cabeça para dispensar uma chamada.
Acompanhe aqui todas as novidades de WWDC 2024 da Apple.