Introduction
L’intelligence artificielle (IA) transforme en profondeur le paysage de l’accessibilité. Pour les personnes sourdaveugles, les technologies de pointe offrent un soutien essentiel pour accéder à l’information, faciliter la communication et favoriser l’apprentissage autonome. En intégrant l’IA aux appareils du quotidien, des smartphones aux lunettes connectées, la communauté sourdaveugle bénéficie de multiples moyens pour recevoir et interagir avec l’information, combinant les modes tactile, visuel et auditif.
S’appuyant sur ces progrès, les outils et techniques d’IA émergents offrent de nouvelles possibilités à la communauté des personnes sourdaveugles pour une intégration harmonieuse de la technologie et de l’innovation. Vous trouverez ci-dessous une liste de ressources intéressantes.
Pour accéder à la version originale (anglais) de ce document cliquez ici
SOMMAIRE :
- Transcription en temps réel
Liens vers les outils de transcription en temps réel : - Commandes vocales et interaction utilisateur
Liens vers les assistants vocaux : - Traduction, lecture à voix haute et conversion de texte
Liens de traduction et de conversion de texte : - Reconnaissance d’objets, de visages et de scènes
Liens vers la reconnaissance d’objets, de visages et de scènes : - Saisie prédictive, correction d’erreurs et aide à la rédaction
Liens vers des outils d’aide à la rédaction et de saisie prédictive : - Amélioration de l’accessibilité du site Web et génération de texte alternatif
Accessibilité du site web et liens de texte alternatif : - Outils de navigation et d’orientation
Autres produits :
Liens de navigation et d’orientation : - Recherche élargie et accès multilingue
Recherche et accès multilingue - Outils de langue des signes
- Outils de productivité basés sur l’IA
- Conseils pour les enseignants
- Limites technologiques
ACTUALITÉS SUR LES OUTILS D’IA. (AUTOMNE 2025)
Guide : AI Desktop Companion
Qu’est-ce qu’Aira ?
Qu’est-ce que BrailleGPT ?
Qu’est-ce que Tatum1 de Tatum Robotics ?
Qu’est-ce que RealSAM Pocket ?
1. Transcription en temps réel
- Exemples :
- Dictée Windows et sous-titrage en direct : un étudiant sourdaveugle peut utiliser un afficheur braille actualisable connecté pour accéder aux transcriptions en temps réel des cours.
- Google Live Transcribe et Docs Voice Typing : en contexte scolaire, ces outils capturent le contenu oral lors des discussions de groupe, permettant ainsi un traitement ultérieur du texte et sa conversion en sortie tactile.
- Dictée iOS et sous-titrage en direct pour FaceTime : ces fonctionnalités permettent aux utilisateurs sourdaveugles de participer à des cours à distance et à des séances de tutorat individuelles en convertissant instantanément la parole en texte.
- Guide de démarrage :
- iOS : Activez les sous-titres en direct via Réglages > Accessibilité > Sous-titres en direct .
- Android : Téléchargez Google Live Transcribe depuis le Play Store (notez que sur les modèles plus récents comme le Google Pixel ou certains appareils Samsung, il peut être préinstallé).
- Windows : Appuyez sur la touche Windows + H pour démarrer la dictée.
- Remarques sur la compatibilité :
- La plupart des afficheurs braille à rafraîchissement se connectent via Bluetooth aux smartphones et aux ordinateurs.
- Les afficheurs braillants HumanWare sont particulièrement compatibles avec les appareils iOS, tandis que la compatibilité Android peut varier selon le fabricant.
Liens vers les outils de transcription en temps réel :
- Google Live Transcribe — Play Store
- Saisie vocale dans Google Docs — Aide Google Docs
- Sous-titres en direct iOS — Accessibilité Apple
- Dictée Windows — Assistance Microsoft
2. Commandes vocales et interaction avec l’utilisateur
- Assistants vocaux intégrés :
- Exemples :
- Cortana sous Windows et l’Assistant Google : Aider un apprenant sourdaveugle à programmer des rappels pour ses devoirs ou à ouvrir des applications par commandes vocales.
- Siri et Alexa : ces assistants peuvent être activés par la voix ou par des signaux tactiles, ce qui est particulièrement utile lorsque les indices visuels sont limités.
- Adaptations tactiles et haptiques :
- Retour haptique : des appareils comme les iPhones ou les appareils Echo offrent des vibrations ou de légers tapotements pour confirmer des commandes telles que « activer » l’assistant.
- Boutons texturés : Certains haut-parleurs et appareils intelligents comprennent des boutons tactiles pour le contrôle du volume, la mise en sourdine ou l’activation manuelle.
- Gestes tactiles : des gestes spécifiques de balayage ou de tapotement sur les écrans tactiles peuvent déclencher l’assistant ou d’autres fonctions, garantissant ainsi aux utilisateurs sourdaveugles un retour d’information fiable.
- Conseils d’installation :
- Pour Siri , activez « Écrire à Siri » dans Réglages > Accessibilité .
- Pour Google Assistant , modifiez les paramètres pour utiliser le tapotement plutôt que de vous fier uniquement à la voix.
- Pour Alexa , connectez l’appareil à un afficheur braille via Bluetooth pour obtenir un retour textuel.
Liens vers les assistants vocaux :
- Assistant Google — Présentation de l’Assistant Google
- Siri (Apple) — Guide Siri d’Apple
- Amazon Alexa — Appareils Alexa
- Cortana pour Windows — Informations sur Cortana
3. Traduction, lecture à voix haute et conversion de texte
- Outils linguistiques instantanés :
- Exemples :
- Microsoft Translator, Apple Translate et Google Translate permettent à un étudiant sourdaveugle (en particulier un étudiant dont l’anglais est une langue seconde) de convertir le contenu d’un cours dispensé dans une autre langue vers sa langue maternelle, grâce à des fonctions de texte et de lecture à voix haute.
- Avantages:
- Ces outils facilitent une expérience d’apprentissage multisensorielle, car le texte peut être affiché simultanément visuellement et transmis à un lecteur Braille.
- Configuration de l’outil :
- Microsoft Translator : Prend en charge plus de 70 langues et offre des fonctionnalités hors ligne.
- Google Traduction : Capable, grâce à sa fonction caméra, de traduire du texte écrit.
- DeepL : Fournit souvent des traductions plus naturelles pour le contenu académique.
Liens de traduction et de conversion de texte :
- Microsoft Translator — Microsoft Translator
- Google Traduction — Google Traduction
- Apple Translate — Apple Translate
- Traducteur DeepL — DeepL
4. Reconnaissance d’objets, de visages et de scènes
- Technologies de reconnaissance avancées :
- Exemples :
- Seeing AI, Google Lookout et Envision Glasses fournissent des descriptions en temps réel pour se repérer même dans un environnement universitaire complexe en identifiant les points de repère, les salles de classe et les événements.
- OrCam MyEye contribue à la reconnaissance des membres de la communauté en annonçant leurs noms ou leurs rôles, favorisant ainsi les interactions académiques et sociales.
- Outils supplémentaires :
- Les lunettes intelligentes Ray-Ban Meta, dotées d’intelligence artificielle, intègrent une caméra haute définition, des haut-parleurs supra-auriculaires et une connectivité avec une application. Elles fonctionnent avec des services comme Be My Eyes et les appareils BrailleNote Touch pour capturer des images et fournir des descriptions en braille.
- Considérations relatives au coût de l’appareil :
- Voir l’IA : Gratuit (iOS et Android).
- Google Lookout : Gratuit (Android uniquement).
- Lunettes Envision : à partir d’environ 2 685 $ US.
- OrCam MyEye Pro3 : environ 4 400 $ US.
- Lunettes Ray-Ban Meta à intelligence artificielle : à partir de 369 $ US.
Liens vers la reconnaissance d’objets, de visages et de scènes :
- Seeing AI — App Store
- Google Lookout — Play Store
- Lunettes Envision — Site web Envision
- OrCam MyEye — Site web d’OrCam
- Lunettes connectées Ray-Ban Meta — Ray-Ban Meta
5. Saisie prédictive, correction d’erreurs et aide à la rédaction
- Saisie intelligente et rédaction de travaux de recherche :
- Exemples :
- Les suggestions de texte de Windows, Microsoft SwiftKey et Google Gboard offrent une saisie prédictive qui accélère l’écriture, réduisant ainsi la saisie manuelle nécessaire dans les brouillons de dissertations et de courriels.
- Avantages:
- L’intégration de claviers spécialisés ou de dispositifs de prise de notes en braille améliore la rédaction académique et les projets collaboratifs en réduisant les obstacles et en augmentant l’efficacité de la communication.
- Recommandations d’installation :
- Google Gboard : Personnalisez la sensibilité du balayage et le retour haptique.
- Microsoft SwiftKey : Activez l’historique du presse-papiers pour une gestion de texte simplifiée.
- Grammarly : S’intègre parfaitement à la plupart des plateformes d’écriture pour une assistance linguistique avancée.
Liens vers des outils d’aide à la rédaction et de saisie prédictive :
6. Amélioration de l’accessibilité du site web et génération de texte alternatif
- Accessibilité des lecteurs d’écran et des contenus multimédias :
- Exemples :
- Les fonctionnalités de lecture à voix haute de Microsoft Edge et de texte alternatif basé sur l’IA dans Chrome convertissent les images et le contenu multimédia en un texte descriptif détaillé, rendant ainsi les informations visuelles complexes plus accessibles.
- La fonction de texte alternatif automatique de Facebook garantit que les images et les diagrammes présents dans les contenus académiques et sur les réseaux sociaux sont accessibles aux utilisateurs qui utilisent des lecteurs d’écran.
- Lecteurs d’écran avec IA – Les lecteurs d’écran dotés d’IA, comme JAWS, offrent la synthèse vocale et la sortie en braille, rendant ainsi le contenu numérique accessible. JAWS utilise l’IA PictureSmart pour analyser et décrire les images sur les pages web, les e-mails et les captures d’écran. Il intègre également la détection automatique de la langue, similaire à VoiceOver d’Apple, permettant au lecteur d’écran de s’exprimer dans la langue détectée.
- AI-content-describer : module complémentaire NVDA qui fournit des descriptions pour les commandes et les images, basé sur GPT4.
- Adaptations pour les personnes sourdaveugles :
- L’intégration de textes alternatifs générés par l’IA avec des afficheurs braille actualisables ou des interfaces tactiles permet de garantir qu’aucun contenu éducatif ne soit négligé.
- Défis courants :
- La qualité et le niveau de détail peuvent varier ; les graphiques complexes et les visualisations de données ne sont parfois pas entièrement décrits, et le contenu vidéo peut nécessiter des sous-titres supplémentaires.
Accessibilité du site web et liens de texte alternatif :
- Lecture à voix haute dans Microsoft Edge — Accessibilité d’Edge
- Texte alternatif automatique de Facebook — Méta Accessibilité
- Lecteur d’écran JAWS — Freedom Scientific
- Module complémentaire NVDA + PictureSmart — Modules complémentaires NVDA
7. Outils de navigation et d’orientation
- Aides à la navigation avancées :
- Exemples :
- Be My AI et Sunu Band aident les étudiants à se repérer sur le campus en traduisant les espaces physiques en cartes compréhensibles grâce à des repères haptiques et des descriptions détaillées.
- Les AirPods Pro 2 constituent de précieux outils d’accessibilité, notamment grâce à des fonctionnalités comme Écoute en direct, les commandes vocales Siri et la reconnaissance vocale. Ils permettent de recevoir des instructions audio en mode mains libres, d’interagir facilement avec les applications de navigation et de rester attentif à son environnement grâce au mode Transparence, améliorant ainsi la mobilité et l’autonomie. Les AirPods Pro (2e génération) et les AirPods Pro 2 peuvent être associés à un audiogramme sur iPhone, permettant à chacun de personnaliser son expérience d’écoute en fonction de son profil auditif. Cette fonctionnalité améliore l’accessibilité en adaptant le son aux besoins auditifs individuels, pour un son plus clair et plus confortable.
- Avantages:
- Ces outils favorisent l’autonomie et permettent d’explorer en toute sécurité les environnements académiques, contribuant ainsi à renforcer la confiance et l’inclusion.
- Conseils pour bien démarrer :
- Commencez par explorer les itinéraires familiers de la bande de Sunu avant de vous aventurer dans de nouvelles zones.
- Utilisez BlindSquare pour créer des marqueurs audio à des emplacements clés.
- Nearby Explorer offre un accès hors ligne aux cartes pour une navigation ininterrompue.
Autres produits :
SuperBrain 1 est une technologie d’assistance avancée conçue pour les personnes aveugles et sourdaveugles. Il s’agit d’un casque portable qui offre une sensation tactile à distance™ , permettant aux utilisateurs de percevoir leur environnement grâce à un retour haptique.
Caractéristiques:
- Retour haptique : convertit les données numériques en sensations tactiles
- Perception situationnelle 3D : utilise des capteurs de temps de vol et une caméra thermique pour détecter les objets, les mouvements, la vitesse et la distance.
- Navigation mains libres : Fonctionne avec d’autres outils d’assistance comme les cannes blanches et les chiens guides.
- Intuitif et facile à utiliser : les utilisateurs peuvent commencer à l’utiliser en quelques minutes, ce qui renforce leur autonomie et leur confiance en eux.
- Interaction sociale : Permet de détecter les mouvements des personnes, comme tendre la main pour une poignée de main ou faire un signe de la main.
Noa est un gilet d’assistance à la mobilité doté d’intelligence artificielle, conçu pour les personnes aveugles ou malvoyantes. Il complète les aides à la mobilité traditionnelles comme la canne blanche et le chien guide.
Caractéristiques:
- Détection d’obstacles : utilise des caméras et l’IA pour détecter les obstacles au niveau de la tête et du sol, et alerte les utilisateurs par un retour audio .
- Navigation GPS : Fournit des instructions de navigation détaillées via des écouteurs à conduction osseuse , laissant les oreilles libres pour les autres sons.
- Description de scène par IA : Offre des descriptions en temps réel de l’environnement, aidant les utilisateurs à localiser des objets tels que des portes, des chaises et des passages piétons.
- Vision nocturne : Fonctionne dans des conditions de faible luminosité , assurant la sécurité même dans l’obscurité.
- Léger et confortable : se porte comme un sac à dos, ne pèse que 1 kg (2 lbs) , avec une autonomie allant jusqu’à 6 heures .
Qu’est-ce que Glide by Glidance ?
Glide est un appareil intelligent et autonome qui utilise l’IA et la robotique pour aider les utilisateurs à éviter les obstacles et à naviguer de manière indépendante dans différents environnements.
Quoi de neuf?
La plupart des aides à la mobilité reposent sur un retour tactile ou l’assistance humaine. Glide redéfinit l’autonomie en offrant :
• Navigation autonome : Glide se dirige tout seul, guidant les utilisateurs en toute sécurité dans les espaces intérieurs et extérieurs.
• Détection d’obstacles : identifie les dangers mobiles et fixes, y compris les objets en hauteur et les dénivellations.
• Reconnaissance de points de passage : détecte les portes, les ascenseurs, les escaliers et plus encore grâce à des caméras et des capteurs.
• Polyvalence sur tous types de terrains : Ses roues robustes et sa conception résistante à l’eau le rendent utilisable sur les trottoirs, les sentiers et sous la pluie.
• Mode libre : les utilisateurs peuvent marcher sans destination précise, laissant Glide maintenir un chemin sûr et réagir de manière dynamique.
Comment ça marche
• Poignée ergonomique : La poignée ergonomique du Glide offre un retour haptique directionnel.
• Navigation : Glide utilise une direction et un freinage intelligents pour guider l’utilisateur.
• Capteurs et IA : Des caméras de profondeur stéréo et des capteurs de proximité transmettent des données en temps réel au système d’IA de Glidance, qui cartographie les itinéraires et évite les dangers.
• Retour d’information : Les alertes audio, les signaux haptiques et la saisie vocale aident les utilisateurs à rester informés et à garder le contrôle.
L’appareil pèse environ 3,6 kg, fonctionne pendant plus de 6 heures avec une seule charge et se replie pour faciliter son transport.
Et ensuite ?
Glide est actuellement en phase de test bêta, et son déploiement à plus grande échelle est prévu pour le printemps 2026. Les futures mises à jour incluront l’intégration avec des applications de navigation tierces, une description des scènes améliorée et une planification d’itinéraire étendue.
Liens de navigation et d’orientation :
- Sois mes yeux — Sois mes yeux
- Groupe Sunu — Sunu
- AirPods Pro 2 — Apple AirPods Pro
- BlindSquare — BlindSquare
- Explorateur à proximité — Archives APH
- SuperBrain 1 — SuperBrain (via FeelSpace)
- NOA par biped.ai — Biped.ai
- Glisse (Glidance) — Glidance.io/product/
8. Recherche élargie et accès multilingue
- Inclusion des locuteurs d’anglais langue seconde et recherche mondiale :
- Exemples :
- Des outils comme Chat GPT permettent aux chercheurs sourds-aveugles d’accéder à des ressources académiques internationales en traduisant des revues, des actes de conférences et des études dans leur langue de prédilection.
- Descript est un outil de montage vidéo qui permet de créer et de publier rapidement des contenus vidéo accessibles. Il offre des fonctionnalités telles que des sous-titres multiformats, des transcriptions, la traduction instantanée et des avatars IA pour la création de scènes descriptives. De plus, la plateforme est conçue pour les utilisateurs de lecteurs d’écran et prend en charge l’accessibilité au clavier.
- Avantages:
- Lever les barrières linguistiques contribue à favoriser les études interdisciplinaires, les échanges culturels et l’accès à des perspectives diverses qui, autrement, resteraient inaccessibles.
Recherche et accès multilingue
- ChatGPT — ChatGPT
- Description — Description
9. Outils de langue des signes
- Situation actuelle et considérations :
- Bien que de nombreux systèmes de reconnaissance de la langue des signes soient encore en développement, leur potentiel pour améliorer la communication grâce à l’IA est prometteur.
- Défis et limites :
- La plupart des systèmes actuels prennent en charge un vocabulaire limité et affichent une précision variable selon les conditions d’éclairage ; l’intégration avec les périphériques de sortie Braille n’est pas encore parfaite.
- Recommandations :
- Utilisez les outils d’IA en complément, et non en remplacement, des interprètes humains. Privilégier les interprètes sourds certifiés garantit le respect des différences culturelles et une communication efficace, notamment dans des contextes tels que l’éducation, la santé et les services juridiques.
10. Outils de productivité basés sur l’IA
Microsoft Copilot est devenu un outil puissant pour les enseignants, offrant des fonctionnalités conçues pour optimiser leurs méthodes d’enseignement et leurs tâches administratives. La recherche approfondie leur permet de synthétiser des informations provenant de sources multiples et de générer des rapports complets, ce qui représente un gain de temps précieux lors de la préparation des cours ou de l’analyse des tendances pédagogiques. Copilot Vision facilite l’analyse du contenu visuel, permettant ainsi aux enseignants d’interagir en temps réel avec les supports visuels, les présentations et les ressources pédagogiques.
Grâce à Actions, les enseignants peuvent automatiser les tâches quotidiennes telles que la planification des réunions. La fonction Mémoire personnalise les interactions en mémorisant les préférences, ce qui facilite la simplification des tâches récurrentes, comme l’organisation des données des élèves ou l’adaptation des ressources aux besoins spécifiques de la classe.
Google Gemini , quant à lui, excelle dans la génération de textes créatifs, les recherches complexes et même les podcasts générés par l’IA. Il s’intègre parfaitement aux outils Google Workspace et offre des fonctionnalités telles que la traduction automatique des sous-titres pour les réunions virtuelles et des outils de collaboration avancés.
ChatGPT a été intégré à divers appareils et plateformes, améliorant ainsi leurs fonctionnalités. Par exemple :
- Appareils Apple : ChatGPT est intégré à l’écosystème Apple grâce à des fonctionnalités telles que Siri et les Outils de rédaction. Les utilisateurs peuvent accéder à ChatGPT pour des tâches comme répondre à des questions complexes, générer du texte ou même utiliser l’intelligence visuelle pour analyser des objets et des lieux.
- Objets connectés : ChatGPT est également intégré aux objets connectés (IoT), permettant des interactions en langage naturel. Les utilisateurs peuvent ainsi contrôler des appareils intelligents par commandes vocales, comme régler l’éclairage ou vérifier la température.
- Vous pouvez accéder à ChatGPT directement depuis votre navigateur grâce à des extensions ou des intégrations. Par exemple, des modules complémentaires comme « ChatGPT pour Chrome » ou « ChatGPT Everywhere » vous permettent d’utiliser ChatGPT dans les champs de texte sur différents sites web. Ces outils facilitent l’utilisation de ChatGPT pour des tâches telles que la rédaction, la synthèse ou la traduction, sans avoir à changer d’onglet. Si vous utilisez Microsoft Edge, ChatGPT est peut-être également intégré sous forme d’extension, ce qui améliore votre expérience de navigation.
11.Conseils pour les enseignants
- Instructions et autorisations pour l’utilisateur :
Nombre de ces outils nécessitent l’autorisation de l’utilisateur (accès à la caméra, au microphone ou aux données de géolocalisation, par exemple). Il est conseillé de fournir des instructions claires, sous forme de QR codes de démarrage rapide ou de courts tutoriels en ligne, expliquant comment consulter et modifier les paramètres de confidentialité de son appareil. - Mises à jour régulières des logiciels et du micrologiciel :
encouragez les utilisateurs à maintenir à jour leurs applications et le micrologiciel de leur appareil, car les mises à jour incluent souvent des améliorations de sécurité et des mesures de confidentialité révisées qui s’alignent sur l’évolution des normes. - Transparence grâce aux mentions d’information sur la protection des données :
lorsque cela est possible, intégrez des liens ou des codes QR facilement accessibles qui mènent directement aux politiques de confidentialité détaillées des fabricants ou des fournisseurs de services. Cela renforce la confiance et informe les utilisateurs sur les pratiques de traitement des données. - Se tenir au courant des outils émergents :
le paysage de l’accessibilité à l’IA évolue rapidement. Les utilisateurs sont invités à consulter régulièrement les sources communautaires fiables et les sites web des fournisseurs pour se tenir informés des derniers outils et mises à jour et ainsi continuer à bénéficier des technologies les plus sûres et les plus performantes.
12.Limitations technologiques
Bien que l’IA soit incroyablement prometteuse, il est essentiel de reconnaître les défis actuels que ces outils peuvent poser.
- Exigences de connectivité : De nombreux outils d’IA nécessitent une connexion Internet permanente. Pour les personnes sourdaveugles, cela peut s’avérer particulièrement difficile si elles vivent dans des zones où la couverture Internet est limitée ou instable.
- Autonomie de la batterie : Les fonctionnalités d’IA peuvent rapidement vider la batterie de l’appareil. Une alimentation fiable est essentielle, surtout lorsque les technologies d’assistance sont nécessaires tout au long de la journée.
- Compréhension contextuelle : l’IA peine souvent à percevoir les signaux subtils de l’environnement. De ce fait, des détails cruciaux, comme les changements d’environnement qui alertent les utilisateurs sur des événements importants, risquent d’être manqués.
- Problèmes d’intégration : De nombreuses solutions d’IA fonctionnent comme des applications indépendantes plutôt que comme un système coordonné. Pour les personnes sourdaveugles, cette fragmentation implique de jongler avec plusieurs applications pour les sous-titres, les descriptions audio, les traductions, etc., ce qui complique l’accessibilité.
- Limites de la personnalisation : Les solutions standardisées négligent souvent les besoins spécifiques de chaque utilisateur. La diversité des besoins au sein de la communauté des personnes sourdaveugles exige des solutions plus adaptées afin de garantir un accompagnement personnalisé.
- Problèmes de confidentialité : Les systèmes d’IA collectent généralement une grande quantité de données pour fonctionner efficacement. Or, cela soulève d’importantes questions quant à la sécurité des informations personnelles, une préoccupation majeure pour tous.
- Facilité d’utilisation et courbe d’apprentissage : Les outils d’IA nécessitent un temps d’apprentissage et d’adaptation. Pour les personnes sourdaveugles, la maîtrise des nouvelles technologies peut être encore compliquée par le manque de formateurs qualifiés en technologies d’assistance par IA et de ressources pédagogiques accessibles. Ces difficultés peuvent considérablement entraver l’adoption et l’utilisation efficace d’outils innovants.
- Biais algorithmiques et précision : Si les données d’entraînement contiennent des biais, les systèmes d’IA peuvent produire des résultats inexacts ou faussés. Cela peut entraîner une assistance moins fiable et ne pas servir équitablement tous les segments de la communauté sourdaveugle.

ACTUALITÉS SUR LES OUTILS D’IA (automne 2025)
Lunettes intelligentes iSee One
- Développé par iVision Tech , une entreprise italienne spécialisée dans les lunettes d’assistance pour les personnes aveugles.
- Ces lunettes combinent des systèmes de capteurs avancés et une technologie audio pour aider les utilisateurs à détecter leur environnement jusqu’à quatre mètres de distance.
- Conçu avec la contribution d’utilisateurs aveugles afin de garantir une utilisation et un confort optimaux en situation réelle.
- Ces lunettes utilisent des capteurs ultrasoniques MEMS , qui sont :
- Supérieure aux caméras pour la détection d’objets transparents/translucides.
- Plus efficace que le radar pour identifier les obstacles en bois comme les branches d’arbres.
- Léger et économe en énergie, idéal pour les technologies portables.
- Au lieu d’un retour visuel, ces lunettes fournissent des signaux acoustiques intuitifs pour guider les utilisateurs en toute sécurité dans leur environnement.
Vous pouvez en apprendre davantage sur le projet sur la page officielle du projet iSee d’iVision Tech et sur les partenaires du projet Next-Gen Sensors Open the World to the Blind and Low-Vision Community – EE Times Asia.
- USound : Spécialisée dans les solutions audio basées sur la technologie MEMS, contribuant probablement au système de rétroaction acoustique.
- Invensense (Groupe TDK) : Connue pour ses capteurs de mouvement et de son, cette société a probablement fourni les composants ultrasoniques MEMS utilisés dans les lunettes.
Guide : Compagnon IA pour ordinateur
- Objectif : Conçu pour aider les utilisateurs à naviguer sur des sites web, des PDF, des vidéos et autres contenus inaccessibles grâce à une IA conversationnelle.
- Points forts :
- Assistance en temps réel et à la demande – plus besoin d’attendre une assistance humaine.
- Fonctionne en local, préservant la confidentialité des utilisateurs.
- Offre une assistance intuitive pour les tâches qui posent problème aux lecteurs d’écran traditionnels.
- Limitations :
- Encore en accès anticipé ; il se peut qu’il ne soit pas aussi performant ou personnalisable que les lecteurs d’écran plus aboutis.
- Nécessite un accès internet pour les fonctionnalités d’IA.
Plus d’infos : Guide – Assistant IA pour les personnes malvoyantes ou aveugles
Qu’est-ce que BrailleGPT ?
BrailleGPT est un appareil portable de conversion vocale en braille, basé sur l’intelligence artificielle . Il capte la parole en direct, la traite grâce à un modèle d’IA intégré pour en extraire le contexte et la clarté, puis la convertit instantanément en braille tactile sur un écran rafraîchissable. Sans téléphone ni ordinateur, cet appareil autonome met directement les mots prononcés entre les mains de l’utilisateur.
La plupart des outils d’IA grand public supposent que les utilisateurs peuvent voir ou entendre, excluant ainsi les personnes sourdaveugles. BrailleGPT comble cette lacune en proposant :
- Indépendance : Pas besoin d’interprètes ni d’appareils connectés.
- Confidentialité : Accès direct aux conversations sans intermédiaire.
- Portabilité : Conçu pour une utilisation dans les salles de classe, les gares, les lieux de travail, partout.
Qui l’a créé ?
L’inventrice de BrailleGPT est Dunya Hassan , une étudiante en ingénierie de 20 ans à l’Université de Technologie de Sydney. Elle a développé ce prototype pour remettre en question l’idée reçue selon laquelle le marché des personnes sourdaveugles serait « trop petit » pour justifier des innovations.
Comment ça marche
- Un microphone intégré capte la parole.
- Un processeur embarqué le transcrit et l’interprète.
- Un afficheur braille rafraîchissable restitue le résultat sous forme tactile.
- Les versions futures visent à prendre en charge la communication bidirectionnelle : une saisie en braille qui est ensuite lue à voix haute.
Et ensuite ?
BrailleGPT entame une phase de test pilote auprès d’utilisateurs sourdaveugles afin d’optimiser sa vitesse, sa précision, son confort et l’autonomie de sa batterie. L’objectif est d’étendre son utilisation grâce à des partenariats avec des organismes d’accessibilité et de rendre cet appareil accessible au plus grand nombre, plus rapidement.
Vous pouvez en apprendre davantage sur le projet et sa mission dans l’article de fond d’AT-Newswire .
Qu’est-ce que Tatum1 de Tatum Robotics ?
Tatum1 est une main robotique révolutionnaire qui traduit l’anglais en alphabet manuel tactile, permettant aux personnes sourdaveugles de communiquer en temps réel dans leur langue préférée par le toucher. Il ne s’agit ni d’une application ni d’un outil sur écran, mais d’un dispositif autonome qui imite la forme de la main humaine pour transmettre les messages directement dans la paume de l’utilisateur.
Pourquoi c’est important
Tatum1 propose :
- Autonomie : Interface tactile.
- Accès linguistique : Communique en langue des signes américaine (ASL) tactile, par épel digital.
- Connexion en temps réel : Convertit instantanément l’anglais parlé ou écrit en signes tactiles.
- Confort et sécurité : Conçu avec des matériaux doux et des articulations flexibles pour une interaction sûre et naturelle.
- Intégration au cloud : Offre une vitesse ajustable et des paramètres d’entrée/sortie personnalisés via des commandes basées sur le cloud.
Qui l’a créé ?
Tatum Robotics a été fondée par un diplômé de l’Université Northeastern qui a commencé à développer une main robotisée dans le cadre de son mémoire de maîtrise pendant la pandémie de COVID-19. Ce projet est né d’une collaboration avec le Centre de contact pour personnes sourdaveugles et s’inspire d’expériences directes avec des personnes sourdaveugles. L’équipe comprend des ingénieurs, des linguistes et des conseillers sourdaveugles qui veillent à ce que le dispositif réponde aux besoins réels.
Comment ça marche
- Entrée : Traitement de texte ou de parole en anglais.
- Traduction : Le système le convertit en alphabet manuel tactile grâce à des mouvements de main robotisés.
- Résultat : L’utilisateur perçoit le message à travers des formes de mains et des mouvements de doigts réalistes.
L’appareil est conçu pour ressembler à une main humaine, rendant l’expérience intuitive et émotionnellement forte.
Vous pouvez en savoir plus ou vous inscrire sur la liste d’attente chez Tatum Robotics .
—————————————————————————-
Qu’est-ce que RealSAM Pocket ?
RealSAM Pocket est un smartphone à commande vocale conçu pour les personnes aveugles ou malvoyantes. Il remplace les écrans tactiles complexes et les petites icônes par une interface vocale simple et intuitive : il suffit de toucher l’écran et de parler. Plus besoin de glisser le doigt ni de mémoriser des gestes.
Pourquoi ça change la donne
RealSAM Pocket réinvente l’accessibilité en offrant :
- Navigation vocale : Dites des commandes comme « Appelle Maria », « Lis-moi les nouvelles » ou « Où suis-je ? »
- Communication mains libres : Passez des appels, envoyez des SMS et gérez vos contacts entièrement par la voix.
- Divertissement et information : Accédez facilement à des livres, des podcasts, la radio et des journaux en streaming.
- Assistance au quotidien : Utilisez la reconnaissance optique de caractères (OCR) pour lire des textes imprimés ou manuscrits, identifier des objets et accéder à l’aide de personnes voyantes via Be My Eyes.
- Outils intelligents : Programmez des rappels, consultez la météo ou explorez les environs grâce aux services de géolocalisation intégrés.
Comment ça marche
- Appuyez sur l’écran : un seul bouton permet de réveiller l’appareil.
- Parlez naturellement : demandez-lui d’effectuer des tâches en utilisant un langage courant.
- Résultats instantanés : le téléphone répond par un retour audio clair, vous guidant à travers les appels, les messages, les médias et plus encore.
Le téléphone est livré entièrement configuré ; il suffit d’insérer une carte SIM ou de se connecter au Wi-Fi. Il comprend une coque de protection, un film protecteur d’écran, une dragonne, un chargeur et un outil d’éjection de la carte SIM. Il est déverrouillé et compatible avec tous les principaux opérateurs américains et britanniques, ainsi qu’avec les appareils auditifs Bluetooth.
Vous pouvez en savoir plus ou programmer une démonstration sur le site officiel de RealSAM .
Articles recommandés (anglais) :
Évaluation de l’accessibilité de la perplexité
10 fonctionnalités cachées des AirPods 4 que vous devriez utiliser | Tom’s Guide
L’intelligence artificielle et l’inclusion des personnes handicapées
Références (anglais)
• Présentation de l’accessibilité Android – Aide de l’Assistant Google
• Présentation de la prise en charge du braille sur la tablette Kindle Fire | Accessworld | Fondation américaine pour les aveugles
• Les outils d’IA transforment l’accessibilité pour les personnes sourdes et sourdaveugles • Le Tulane Hullabaloo
• https://microsoftedge.microsoft.com/addons/detail/imghpeejkmlghkiiofkhbeneepilbefd
• https://www.zdnet.com/article/how-to-use-chatgpt-in-your-browser-with-the-right-extensions/
• https://support.apple.com/guide/iphone/use-chatgpt-with-apple-intelligence-iph00fd3c8c2/ios
• Comment fonctionne l’intégration de ChatGPT dans Apple Intelligence [Guide complet] | Beebom
ChatGPT dans l’IoT : connecter les appareils et améliorer la communication
Présentation des actions, des nouveaux agents et des outils Microsoft Copilot pour optimiser le travail des équipes informatiques | Blog Microsoft 365
Utilisation de Copilot Vision avec Microsoft Copilot – Support Microsoft
AirPods Pro 2 – Apple
Collaborateurs : Caroline Cohoon, Sensity Canada, Ver Mijkje, Bartiméus Pays-Bas Eric van Heuvelen, Bartiméus Pays-Bas
Des outils d’IA à portée de main. Une ressource pratique pour la communauté des personnes sourdaveugles © 2025 par Deafblind International Technology Network. Ce document est mis à disposition selon les termes de la licence CC BY-NC-SA 4.0. Pour consulter une copie de cette licence, rendez-vous sur https://creativecommons.org/licenses/by-nc-sa/4.0/
Publié le 12 janvier 2026

