INTRODUÇÃO
A Meta anunciou nesta terça-feira uma atualização significativa para seus óculos de inteligência artificial, trazendo duas funcionalidades que prometem mudar a forma como os usuários interagem com o ambiente. A mais prática delas é um recurso de foco em conversas, projetado para melhorar a audição em locais barulhentos. A outra, mais lúdica, permite que o Spotify toque músicas relacionadas ao que o usuário está vendo através das lentes.
DESENVOLVIMENTO
O recurso de amplificação de voz, inicialmente revelado na conferência Connect da Meta, utiliza os alto-falantes de condução óssea dos óculos para destacar a voz da pessoa com quem se está conversando. Os usuários poderão ajustar o nível de amplificação deslizando a haste direita dos óculos ou através das configurações do dispositivo, adaptando-se a ambientes como restaurantes, bares ou trens lotados. Inicialmente, estará disponível nos modelos Ray-Ban Meta e Oakley Meta HSTN nos EUA e Canadá.
Já a integração com o Spotify funciona como uma espécie de reconhecimento visual musical. Ao olhar para uma capa de álbum, por exemplo, os óculos podem tocar uma música daquele artista. Se a cena for uma árvore de Natal com presentes, a sugestão pode ser uma música natalina. A Meta descreve essa adição como uma demonstração de como a empresa pensa em conectar o que as pessoas veem com ações em seus aplicativos.
CONCLUSÃO
Embora o recurso musical tenha um caráter mais experimental, a funcionalidade de foco em conversas representa um passo concreto na evolução dos acessórios inteligentes como ferramentas de assistência auditiva. A Meta segue os passos da Apple, que já oferece recursos similares em seus AirPods, indicando uma tendência de mercado onde a tecnologia vestível não apenas entrega, mas também amplifica a experiência humana no mundo real. A eficácia prática, no entanto, ainda dependerá de testes em condições reais de uso.

