Em um comunicado de imprensa recém-lançado pela Apple (abre em nova aba), alguns grandes novos recursos de acessibilidade claramente projetados para iPadOS 17 e iOS 17 acabam de ser anunciados. Projetado para tornar a vida e o uso de dispositivos Apple mais fácil para todos, os novos recursos de acessibilidade serão lançados ainda este ano.
Existem novos recursos para pessoas com deficiências cognitivas, com acesso assistido, Live Speech e Personal Voice Advance Speech Accessibility que permite aos usuários digitar o que desejam dizer, enquanto o modo Apontar e Falar na Lupa permite apontar e falar para usuários cegos, ou aqueles com baixa visão.
Não tem certeza do que tudo isso significa? Nós lhe daremos os detalhes.
O Acesso Assistivo parece ser uma virada de jogo
O primeiro dos novos recursos claramente chegando ao iOS 17 e iPadOS 17 é o Assistive Access, que concentra ou “destila” aplicativos e experiências em “seus recursos essenciais para aliviar a carga cognitiva”. Eles tornam alguns dos recursos mais populares do iPad e do iPhone, como ouvir música, conectar-se com entes queridos e curtir fotos, mais fáceis de usar para mais pessoas.
Ele apresentará uma “experiência personalizada para telefone e FaceTime, agora combinada no aplicativo de chamadas”. Há uma interface de usuário simples e distinta com botões de alto contraste e rótulos de texto maiores e formas mais visuais de usar seu dispositivo. Agora existe um teclado apenas para Emoji, por exemplo.
Fala ao vivo e voz pessoal Acessibilidade de fala avançada “foi projetada para oferecer suporte a milhões de pessoas em todo o mundo que não conseguem falar ou que perderam a fala com o tempo”. Ele permitirá que os usuários digitem o que desejam dizer e, em seguida, reproduzirá com uma voz personalizada que o usuário criou. Isso vem de uma configuração curta, que vê os usuários “lendo junto com um conjunto aleatório de prompts de texto para gravar 15 minutos de áudio no iPhone ou iPad”. Isso usa aprendizado profundo para criar uma voz que soa como o leitor.
O modo de detecção na lupa dirá às pessoas com deficiência visual o que algo diz e o que é. Por exemplo, aponte para uma placa do lado de fora e ela lerá a placa para você. Quando você olha para algo como um forno ou micro-ondas e aponta para algum texto, ele detecta para onde você está apontando e lê o que o texto diz para você. Ele pode ser combinado com mais recursos de acessibilidade no Magnifier, “como Detecção de Pessoas, Detecção de Portas e Descrições de Imagens para ajudar os usuários a navegar em seu ambiente físico”.
Embora a Apple não tenha dito diretamente que eles são para iOS 17 e iPadOS 17, o mesmo ocorreu no ano passado, quando apresentou novos recursos de acessibilidade antes da WWDC 2022. (abre em nova aba).
Tudo isso torna o iOS e o iPadOS mais úteis para os usuários do que nunca, realmente junto com os melhores iPhones e iPads da Apple para se tornarem mais do que apenas smartphones e tablets, mas também auxiliares de acessibilidade úteis. A Apple não fica exatamente quando os novos recursos estão saindo, apenas confirmando-os para “ainda este ano”.