Alors que tout le monde dans les technos semble n’en avoir que pour l’intelligence artificielle, Apple arrive avec des nouvelles fonctions d’accessibilité pour son iPhone qui sont peut-être un peu moins spectaculaires au premier coup d’œil, mais qui vont vraiment améliorer la vie des gens qui ont certains troubles de l’audition, de la parole ou de la vue.
Les nouveautés en question se présentent sous trois formes. D’abord, une nouvelle fonction appelée Live Speech permettra aux gens qui ont de la difficulté à s’exprimer oralement dans des situations d’appels vidéo d’enregistrer à l’avance une série de phrases assez courantes et qu’ils pourront ensuite faire jouer au moment opportun, pour intervenir plus rapidement dans une discussion à plusieurs.
Une autre fonction vocale, appelée Personal Voice, va demander à l’utilisateur de répéter à l’oral une série d’expressions pour créer un modèle de sa voix qui sera ensuite utilisé par l’appareil pour lire du texte écrit. C’est une façon pour les gens qui souffrent d’un trouble de la voix, ou de l’expression vocale, de s’appuyer sur une interface numérique pour continuer d’interagir par la parole. Le synthétiseur de voix de leur iPhone pourra prendre la parole à leur place, en quelque sorte.
Enfin, un mode d’identification visuelle appelé Detection Mode va permettre aux gens qui ont un trouble de la vision d’utiliser leur téléphone pour identifier les objets qui sont situés autour d’eux. La reconnaissance d’image leur permettra aussi de repérer les gens à proximité et les portes à proximité, notamment. L’outil pourra aussi décrire le contenu des images.Tout cela sera intégré dans une mise à jour à venir plus tard cet été du logiciel de l’iPhone. Ces nouvelles fonctions pourront être activées dans les réglages de l’appareil. D’autres réglages seront aussi ajoutés, dont un qui va permettre de désactiver la lecture automatique des images GIF animées, qui peuvent irriter les gens photosensibles, entre autres.