L’attention d’Apple sur les fonctionnalités d’accessibilité de l’iPhone se poursuit avec iOS 16
Lorsque nous parlons de logiciels et de mises à jour plus importantes du système d’exploitation pour smartphones, la plupart d’entre nous refusent de regarder au-delà du côté visuel des choses. Un tas de nouvelles fonctionnalités. Et les comparaisons inévitables, entre une génération précédente et les alternatives actuelles. Cependant, creusez un peu plus et les fonctionnalités d’accessibilité souvent négligées sont importantes pour de nombreux utilisateurs. Surtout pour ceux qui peuvent avoir des capacités différentes. Leur capacité à utiliser un smartphone dépend de ces fonctions.
C’est le bon moment pour parler des fonctionnalités d’accessibilité qu’Apple a incluses dans iOS pour iPhone, alors que nous entrons dans la Journée internationale annuelle des personnes handicapées, le 3 décembre. La suite actuellement disponible sur iPhone (et la plupart d’entre elles sont également en iPadOS. , avec l’Apple Watch bénéficiant également de fonctionnalités étendues) sera encore complété par le “Mode d’accessibilité personnalisé”, qui devrait être publié dans iOS 16.2 qui devrait arriver sur les iPhones, dans le courant de la semaine.
A lire aussi : La nouvelle Apple TV 4K propulse le jeu sérieux dans les prouesses émergentes du streaming vidéo
“Lorsque l’accessibilité est intégrée aux appareils, aux applications et aux systèmes qui existent pour l’ensemble de la population, elle peut cependant apporter une valeur ajoutée à toutes les personnes impliquées”, a souligné une étude de 2019 du Massachusetts Institute of Technology, intitulée “Navigating the 21st century”. sans vision ».
La gamme élargie de l’accessibilité
Ce n’est pas un cas unique pour Apple. Pris ensemble au fil du temps, 2021 a joué un rôle déterminant dans l’expansion des fonctionnalités utiles pour les utilisateurs souffrant de handicaps moteurs, visuels, auditifs et cognitifs. Apple a ensuite ajouté Assistive Touch à l’Apple Watch, la prise en charge du suivi oculaire pour les applications tierces sur l’iPad et l’assistance étendue à la détection d’objets de l’appareil pour le lecteur d’écran VoiceOver.
“Chez Apple, nous pensons depuis longtemps que la meilleure technologie au monde doit répondre aux besoins de chacun, et nos équipes travaillent sans relâche pour intégrer l’accessibilité dans tout ce que nous faisons”, a déclaré Sarah Herrlinger, directrice principale de la politique et des initiatives d’accessibilité mondiales d’Apple. pour Apple, à l’époque. En 2022 et en 2023 avec iOS 16, les fonctionnalités continuent d’évoluer.
Reconnaître des sons uniques (comme un bébé qui pleure ou une sonnette), utiliser la commande vocale pour interagir avec les applications et les fonctionnalités de l’iPhone (vos commandes vocales remplacent directement le toucher) et même la détection de porte à l’aide de l’application Loupe, sont quelques-unes des nouvelles fonctions .
Le spectre d’options disponibles pour la plupart est maintenant plus large – texte plus grand, transparence réduite, contraste accru et lecteur d’écran VoiceOver. Sur un Apple iPhone, vous trouverez la plupart des options dans Paramètres > Accessibilité.
Vous identifier et vous situer dans un environnement réel
La reconnaissance du son existe depuis iOS 14 mais s’est améliorée à chaque mise à jour générationnelle, jusqu’à l’itération actuelle d’iOS 16. L’iPhone peut être configuré pour entendre et vous avertir jusqu’à 15 sons différents. Ceux-ci incluent les alarmes (incendie, sirènes et fumée), les animaux (chats et chiens, pour l’instant), les sons domestiques (comme une sonnette, un coup à la porte, l’eau courante ou même un klaxon de voiture à proximité) et les sons que les gens font (comme un bébé qui pleure ou quelqu’un qui tousse).
Rappelez-vous, si vous avez une Apple Watch, les notifications y arrivent également de manière transparente.
Nous avons remarqué que même si la reconnaissance sonore fonctionne bien pour la plupart, il peut souvent y avoir des problèmes pour isoler un son particulier dans un environnement plus bruyant. Comme, parfois, notre iPhone ne pouvait pas détecter la sonnette s’il y avait suffisamment de bruit de la circulation venant de l’extérieur.
Apple met en garde et déclare que la fonctionnalité ne devrait pas être votre seul guide “dans les situations à haut risque ou d’urgence, ou pour la navigation”.
Se repérer à l’aide de la Loupe
La mise à jour actuelle d’iOS 16 a donné à l’outil Loupe plus de fonctions à utiliser. Alors que la tâche principale est de permettre aux utilisateurs de zoomer sur des objets via la caméra de l’iPhone (pour voir clairement), il y a aussi une reconnaissance avancée des portes et des personnes à considérer.
Après avoir ouvert l’application Loupe, vous devrez sélectionner l’icône de détection en bas à droite des options à onglets. Ici, l’interface de la caméra affichera les options de détection de porte et de reconnaissance de personnes. Si vous choisissez l’option de porte, la caméra de l’iPhone essaiera de détecter s’il y a une porte dans la direction dans laquelle la caméra regarde. Et à quelle distance c’est, env.
Nous avons remarqué que cette fonctionnalité détecte la plupart des portes de manière transparente, mais prend souvent un certain temps pour répondre à une porte en verre située quelque part dans une cloison entièrement en verre (ou un mur, si c’est ce que vous voulez que vous spécifiiez) et nécessite une ligne de vue dégagée d’un bouton ou d’une poignée de porte pour fournir une réponse confirmée.
L’extension de la fonctionnalité Loupe élimine le besoin d’utiliser des applications tierces, qui utilisent l’appareil photo de l’iPhone pour détecter et naviguer dans les environnements physiques. Remarquez que la loupe peut effectuer une large gamme de détection d’objets – elle vous dira essentiellement ce qu’elle voit, car l’appareil photo de l’iPhone est concentré autour de lui Contrairement à l’application Lookout distincte de Google, l’application Magnifier est (assez commodément) intégrée à iOS pour iPhones.
Utiliser votre voix au lieu du toucher
“La météo est ouverte, balayez vers la gauche”. Ce n’est qu’une des choses que l’option de commande vocale vous permet de faire sur un iPhone.
Ceci est différent des commandes vocales de Siri. L’activation du contrôle vocal sur iPhone vous permettra de le faire, comme son nom l’indique. Considérez-le comme un remplacement direct de la nécessité d’interagir avec l’écran tactile. Il est assez simple de parler à travers les applications iOS 16 – définir des alarmes, écouter de la musique, envoyer des messages et plus encore.
“Parce que c’était simple ou non pour Apple, maintenant, il est difficile de voir pourquoi ce ne serait pas aussi simple pour les autres. La technologie est là, mais la pensée ne l’est pas”, a souligné l’étude du MIT, qui fait principalement référence à des appareils tels que les micro-ondes et les machines à laver, les sites Web qui utilisent des animations au lieu d’animations codées bouton ou des tests captcha qui rendent impossible pour les personnes malvoyantes , d’accéder aux fonctionnalités.
Nouvel écran d’accueil : une grosse mise à jour, à l’horizon
Apple devrait publier le “mode d’accessibilité personnalisé” pour iOS, avec une prochaine mise à jour iOS. Cela devrait être iOS 16.2 (plus tôt cette semaine, iOS 16.1.2 a été lancé), dans les prochaines semaines.
Cela devrait permettre un écran d’accueil plus simple et agrandi pour l’iPhone, en remplacement de la disposition par défaut de l’écran d’accueil de l’iPhone. Quelque chose de similaire au mode “écran d’accueil facile” que nous avons vu sur de nombreux téléphones Android, y compris les téléphones Samsung Galaxy.
Ce qui n’est pas clair, c’est l’étendue et la portée des options de personnalisation, mais des icônes plus grandes que d’habitude pour le téléphone, les messages, l’appareil photo et la musique sont attendues. Cela rejoindra des guides de navigation d’interface plus grands (tels que le bouton de retour) dans chaque application disponible sur l’écran d’accueil plus facile à utiliser.