Espero que a Apple traga esse recurso Vision Pro para o iPhone

O Apple Vision Pro revela os olhos do usuário em uma tela frontal.
Maçã

Realidades alternativas criadas digitalmente podem ser emocionantes ou desconfortáveis, com base em como você as visualiza. Mas a Apple, entre outras empresas investidas no futuro dominante em AR e VR, claramente quer que você se concentre no lado positivo. É por isso que a Apple passou um bom tempo em sua conferência de desenvolvedores WWDC 2023 para destacar os vários recursos do Apple Vision Pro – o novo headset de realidade mista extravagante da Apple.

ANÚNCIOS

De acordo com a narrativa segura da Apple no evento, o Vision Pro nos leva a uma nova era da computação e ultrapassa os limites dos monitores fixos. As orientações promocionais nos convencem facilmente de que o fone de ouvido é visual e funcionalmente exclusivo de várias maneiras.

Desde permitir que você expanda seu fluxo de trabalho com inúmeras telas que se espalham no espaço ambiente até mergulhar em portais da natureza hiper-realistas, o fone de ouvido possui muitos recursos fascinantes. E certamente esperamos que alguns de seus recursos cheguem a outros dispositivos, especialmente o iPhone.

ANÚNCIOS

Os novos avatares do FaceTime da Apple parecem incríveis

Alguém digitalizando seu rosto com o Apple Vision Pro.
Maçã

O Vision Pro é proclamado para misturar cenários reais e imaginativos perfeitamente, o que pode persuadir a mente humana a realmente esquecer os limites entre os reinos físico e virtual. Isso é alcançado por meio de elementos virtuais que não flutuam simplesmente em seu espaço físico, mas também aprimoram seu ambiente físico. Uma das maneiras é ter detalhes minuciosos, como sombras dessas janelas flutuantes, projetadas sobre objetos do mundo real ao seu redor.

Outra maneira pela qual a Apple procura surpreender (e deixar perplexos) os não usuários é usando avatares virtuais no FaceTime. Com o fone de ouvido, a Apple está saudando a nova era do “FaceTime espacial”, onde os vídeos de cada participante aparecerão em janelas que envolvem ambientes reais dos usuários do Vision Pro. Mas as pessoas do outro lado não verão seu rosto envolto no arnês.

ANÚNCIOS

Em vez disso, o Vision Pro criará representações virtuais artisticamente realistas – e, ao mesmo tempo, estranhamente enervantes – do usuário. Esses avatares aparecem no lugar da visualização real e são criados com as duas câmeras TrueDepth no headset. Notavelmente, a câmera TrueDepth é um sistema de câmera exclusivo originalmente introduzido no iPhone X. Ele compreende um iluminador infravermelho, um projetor de pontos e uma câmera infravermelha. Todos esses três sistemas se combinam para ajudar a criar um mapa 3D do rosto do usuário, que pode ser usado para desbloquear o iPhone usando o Face ID.

Personalidade virtual de uma pessoa no Facetime espacial no Apple Vision Pro.
Maçã

O avatar replicará suas expressões faciais, movimentos oculares e gestos para parecer mais natural. Isso resolve o problema de segurar constantemente o iPhone na mão ou ficar de frente para a tela do Mac enquanto está no FaceTime – ou parecer o entusiasta maluco da tecnologia que gosta de ficar desequilibrado enquanto experimenta os gadgets mais recentes.

Para a Apple, esta também é uma maneira tangível de atrair mais pessoas para embarcar em sua nascente ideologia de computação espacial – se não por qualquer outro motivo, mas para evitar o medo de perder (FOMO). Mas, além de convencer os usuários existentes da Apple a Se você gastar US$ 3.500 em uma peça de tecnologia emergente, há outra maneira pela qual a Apple pode fazer esses avatares hiper-realistas parecerem mais comuns – trazendo-os para o iPhone e o iPad.

Eles não devem ser exclusivos do Vision Pro

FaceTime espacial no fone de ouvido Apple Vision Pro
Maçã

Existem boas razões pelas quais os avatares do Virtual FaceTime são adequados para outros dispositivos da Apple, assim como para o Vision Pro.

Em primeiro lugar, trazer o FaceTime espacial para todos os dispositivos se alinha com a nova era proposta pela Apple de “computação espacial”. Até um futuro tangível em que a realidade aumentada assumirá completamente outras interações com computadores e principalmente substitui nossos amados smartphones, a Apple pode aproveitar esta oportunidade para melhorar a familiaridade com a tecnologia.

Além de estar alinhado com a eliminação de fronteiras entre os mundos real e virtual, oferecer uma experiência espacializada do FaceTime está dentro dos princípios da Apple de um ecossistema, onde todos os dispositivos – pelo menos os de primeira linha – funcionam de maneira semelhante e em congruência uns com os outros. Analista renomado Ming-Chi Kuo também afirma a necessidade de estabelecer harmonia entre o Vision Pro e outros dispositivos dentro do ecossistema da Apple, citando-o como fundamental para o sucesso inicial do headset.

Além disso, para conduzir uma experiência de software convergente, a Apple trabalhará para reforçar o hardware em seus outros dispositivos, especificamente o iPhone. Naturalmente, o iPad (pelo menos a variante Pro) seguirá o exemplo. Isso torna o iPhone e o iPad Pro candidatos dignos de compartilhar experiências com o Vision Pro, e uma experiência espacial do FaceTime está no topo da lista de nossas expectativas.

A Apple já tem os truques na manga

Apple Animoji e Memoji em um iPhone.
Tendências Digitais

A Apple já lançou as bases para esta transição para avatares realistas, colocando anos de trabalho na criação e melhoria Animoji. Esses grandes emojis animados em dispositivos Apple imitam as expressões faciais e os movimentos da cabeça de uma pessoa.

Se você não estiver familiarizado, a Apple também oferece uma versão especializada do Animoji – chamada Memoji – que cria uma caricatura 3D do rosto do usuário do iPhone. Essa caricatura pode então ser usada para emojis personalizados, como reações animadas no iMessage ou até mesmo no – rufar de tambores – FaceTime para ocultar seu rosto.

Não é de todo surpreendente quando pensamos no Memoji como o prenúncio dos avatares animados do Vision Pro. Como o avatar animado no Vision Pro, o Memoji utiliza a câmera TrueDepth no iPhone ou iPad Pro para rastrear os movimentos da cabeça.

Além do Face ID e Animoji, a Apple também usa a câmera TrueDepth para recursos de câmera adicionais, como efeitos de iluminação de estúdio no iPhone e o recurso Center Stage no iPad Pro. Além disso, permite que desenvolvedores terceirizados adicionem uma nova dimensão de dados dos sensores TrueDepth a seus aplicativos por meio de uma API. Faz sentido para a Apple desenvolver esses recursos existentes para incluir suporte para uma experiência aprimorada do FaceTime semelhante ao Vision Pro.

A favor de nosso argumento também está o fato de que a Apple não atualizou a aparência visual do Animoji nos últimos anos. A última atualização do Animoji perto do lançamento do iPhone 14 adicionou apenas novas animações e mais algumas expressões faciais, deixando espaço para melhorias.

O iPhone e o iPad estão prontos

iPhone 14 Pro Max na mão.
Prakhar Khanna / Tendências Digitais

Além da câmera TrueDepth, outro aspecto em sintonia com a ideia é o hardware dos dispositivos móveis da Apple. A maioria dos modelos de iPhone e iPad Pro é movida pelo mesmo (ou semelhante) poderoso hardware sob o capô do fone de ouvido Vision Pro, que inclui o design personalizado da Apple. Silício M2. O mesmo pode ser visto no MacBook Air, no MacBook Pro de 13 polegadas e no iPad Pro 2022.

Da mesma forma, o chipset A16 Bionic que impulsiona os modelos iPhone 14 Pro e iPhone 14 Pro Max é idêntico ao M2, embora com um poder de processamento um pouco menor devido a uma CPU e GPU comparativamente menos potentes. Apesar de um desempenho menos poderoso no iPhone, ele é poderoso o suficiente para renderizar uma versão 3D de você enquanto reencena expressões faciais e gestos de mão em tempo real.

Com o sucessor do A16, espera-se que a Apple faça melhorias estruturais no chipset, passando para um processo de fabricação de 3 nanômetros (3 nm) muito mais eficiente. Com base em um conjunto de rumores de resultados de benchmark, o A17 Bionic pode se aproximar ainda mais do M2.

Dispositivos móveis são a porta de entrada para AR

Duas pessoas jogando um jogo de realidade aumentada no Apple iPad.
Maçã

Além de usar a câmera TrueDepth do iPhone para criar personas virtuais para o FaceTime, os modelos iPad Pro e iPhone Pro estão bem equipados para replicar os blocos de cada participante no FaceTime geometricamente espalhados no Vision Pro. O iPad Pro (2020 e mais recente) e o iPhone (12 Pro e mais recente) apresentam um scanner lidar junto com as câmeras na parte traseira.

O scanner lidar (abreviação de Light Detection and Ranging) pode detectar com precisão a distância do iPhone e iPad Pro para qualquer objeto físico, iluminando-o e medindo a quantidade refletida de volta. Isso torna o scanner lidar extremamente útil para aplicativos de realidade aumentada (AR).

Em lançamentos anteriores de iPhone e iPad, a Apple dedicou demonstrações elaboradas para Jogos e aplicativos AR. A extensão da tecnologia para o próprio FaceTime da Apple faz todo o sentido para estender o FaceTime espacial além do Vision Pro.

A Apple ainda pode decepcionar

Um homem usa o Apple Vision Pro.
Maçã

Apesar de nosso desejo, podemos não ver o FaceTime espacial em outros dispositivos em nenhum momento deste ano. Para a Apple trazer a experiência FaceTime do Vision Pro para outros dispositivos antes de seu lançamento, que está previsto para “início de 2024”, isso significaria diluir a emoção e a novidade associadas a seu headset futurista. Não apenas isso, também não seria diferente da Apple se esses recursos fossem restritos ao Vision Pro para impulsionar exclusivamente as vendas do gadget extravagante.

Se a Apple decidir trazer o FaceTime espacial para outros dispositivos, os primeiros beneficiários seriam o iPad Pro 2024 ou o iPhone 16. Mas se isso for verdade, o FaceTime espacial no iPhone 16 se beneficiará de um sistema TrueDepth aprimorado que é especulado para ser escondido e escondido sob a tela.

Eu quero o FaceTime espacial no meu iPhone

Uma pessoa usando o headset Vision Pro da Apple.
Maçã

As experiências compartilhadas estão no núcleo da filosofia da Apple, o que nos deixa excessivamente esperançosos em trazer esse recurso principal do Vision Pro para o iPhone e outros dispositivos suportados. Embora nossa expectativa seja parcialmente alimentada pelo puro desejo de experimentar o FaceTime de uma maneira nova e empolgante sem gastar US$ 3.500, ela também é apoiada pelo fato de que os modelos recentes de iPhone e iPad Pro apresentam o hardware necessário para tornar esse sonho realidade.

No entanto, há uma chance igual – ou provavelmente maior – de que isso não aconteça, apenas para que a Apple possa obrigar mais pessoas a compartilhar sua visão (trocadilho intencional!) Para o futuro surreal, porém digitalmente tecido. Afinal, uma única unidade do Vision Pro trará cerca de três vezes mais receita do que um iPhone ou iPad Pro para a vaca faminta por dinheiro. Os rumores também apontam para um headset relativamente mais barato com visionOS, mas estará longe de ser uma versão SE-fied significativamente mais acessível.

Talvez, o melhor curso de ação agora seja esperar até alguns meses até 2024. Este será o período em que o Vision Pro já terá (espero) lançado no mercado e dado à Apple uma chance – e amplas métricas – para avaliar se o fone de ouvido pode ser vendido com lucro como um dispositivo autônomo (com uma vantagem definitiva) ou se precisa do suporte de seus irmãos mais velhos, apoiados por um senso de familiaridade.

Recomendações dos editores