L'intelligence artificielle au service des personnes aveugles et malvoyantes
Dans un monde où l'information visuelle domine notre quotidien, les personnes aveugles et malvoyantes font face à des défis constants pour accéder à l'autonomie, à l'information et à la pleine participation sociale. Selon l'Organisation mondiale de la santé (OMS), au moins 2,2 milliards de personnes dans le monde vivent avec une déficience visuelle, et pour au moins 1 milliard d'entre elles, cette situation aurait pu être évitée ou n'est pas prise en charge.
En France, l'étude Homère (2023) estime 1,7 million de personnes sont atteintes d'une déficience visuelle, dont 200 000 sont aveugles ou malvoyantes profondes (sans aucune perception de lumière). Ces chiffres sont amenés à augmenter dans les années à venir, en raison du vieillissement de la population et des maladies qui en découlent (glaucome, DMLA, diabète...).
Face à ces enjeux, l'intelligence artificielle émerge comme une force transformatrice, capable de convertir l'information visuelle en formats accessibles et de redonner aux personnes déficientes visuelles une autonomie qu'elles n'avaient jamais connue auparavant. Des lunettes connectées qui décrivent l'environnement aux applications qui lisent instantanément n'importe quel texte, l'IA ouvre aujourd'hui des portes vers un monde plus inclusif.
Un environnement physique pensé avant tout pour les voyants
Malgré les avancées en matière d'accessibilité, l'espace public reste majoritairement conçu pour les personnes voyantes, rendant les déplacements quotidiens complexes et parfois dangereux.
Signalétique et repérage
La majorité des informations de repérage repose exclusivement sur le visuel : panneaux, enseignes, affichages dynamiques ou plans urbains. L'absence de repères tactiles ou sonores dans de nombreux espaces publics complique fortement l'orientation. À cela s'ajoutent des obstacles imprévisibles — travaux, mobilier urbain mal positionné, véhicules mal garés — qui transforment chaque déplacement en parcours semé d'incertitudes, en particulier dans des lieux inconnus.
Sécurité et mobilité
La question de la sécurité est centrale. De nombreuses traversées de rue restent dépourvues de feux sonores, exposant les personnes déficientes visuelles à des risques accrus. Les quais de métro et les gares manquent encore trop souvent de dispositifs de guidage adaptés, tandis que les escaliers, trottoirs et dénivelés sont insuffisamment signalés, augmentant le risque de chutes et d'accidents.
Un environnement numérique encore largement excluant
Paradoxalement, alors que le numérique pourrait être un puissant levier d'inclusion, il demeure une source majeure d'exclusion pour les personnes aveugles et malvoyantes.
Statistiques alarmantes :
- ◈ Seulement 10% des sites internet sont réellement accessibles aux personnes aveugles et malvoyantes
- ◈ Nombreux sites ne respectent pas les normes WCAG (Web Content Accessibility Guidelines)
- ◈ PDF scannés, images sans description, formulaires incompatibles avec les lecteurs d'écran
Des conséquences concrètes au quotidien
Même équipées de technologies d'assistance performantes telles que VoiceOver (Apple) ou TalkBack (Android), les personnes aveugles se heurtent à des interfaces mal conçues. L'expérience numérique devient alors laborieuse, frustrante, voire totalement inaccessible, limitant l'autonomie dans les démarches en ligne essentielles.
Accès à l'information et à la culture : une fracture persistante
L'accès à la culture et à l'information reste profondément inégalitaire, révélant une exclusion encore trop souvent invisibilisée.
- ◈ Seulement 6% des livres sont adaptés en formats accessibles
- ◈ Environ 100 films sur 500 sortant chaque année bénéficient d'une audiodescription
- ◈ À peine 4 % des émissions de télévision proposent une audiodescription
- ◈ Les documents administratifs, courriers et factures sont rarement fournis dans des formats adaptés.
Cette situation se traduit par une autonomie fortement réduite dans les transports, les démarches administratives, l'accès à l'emploi et à la culture. Elle entraîne une dépendance accrue à l'entourage ou aux professionnels, freinant durablement l'inclusion sociale et l'égalité des chances.
Un phénomène préoccupant traverse aujourd'hui la communauté des personnes aveugles et malvoyantes : la pratique du braille est en net recul. En France, seules 15 % des personnes aveugles ou malvoyantes maîtrisent le braille, selon Bruno Gendron,, président de la Fédération des aveugles de France. Cette réalité soulève une question essentielle : peut-on réellement compenser l'abandon du braille par l'audio et les technologies vocales ?
Les causes d'un recul progressif du braille
-
1. La cécité tardive
La majorité des personnes concernées perdent la vue au cours de leur vie, à la suite d'un accident, d'une maladie ou du vieillissement. N'ayant pas appris le braille durant l'enfance, beaucoup rencontrent des difficultés à s'approprier ce mode de lecture à l'âge adulte, souvent perçu comme complexe et chronophage.
-
2. L'attrait du numérique et de l'audio
Les nouvelles générations, baignées dans l'univers numérique, se tournent naturellement vers des solutions vocales jugées plus rapides et intuitives : synthèses vocales, livres audio, podcasts ou assistants vocaux. Ces outils offrent un accès immédiat à l'information et donnent l'image d'une alternative moderne au braille.
-
3. La multiplication des solutions technologiques
Smartphones, applications de lecture automatique, objets connectés et assistants vocaux renforcent l'idée que le braille serait devenu secondaire, voire obsolète. L'accessibilité semble désormais pouvoir se passer du tactile au profit du tout-audio.
Pourquoi le braille reste pourtant irremplaçable ?
Malgré l'essor des technologies vocales et de l'audio, les experts et les professionnels de l'éducation s'accordent sur un point essentiel : l'audio ne peut pas remplacer le braille. Si les solutions vocales facilitent l'accès à l'information, elles ne permettent pas à elles seules de maîtriser pleinement la langue écrite.
Le braille demeure en effet un pilier fondamental de l'autonomie intellectuelle et sociale des personnes aveugles. Il offre un accès direct à l'orthographe, à la grammaire et à la structure des phrases. Là où l'audio restitue le sens global, le braille donne accès à la forme écrite des mots, indispensable pour lire, écrire et comprendre un texte en profondeur.
Cette compétence est d'autant plus cruciale dans le monde professionnel. Rédiger un document, corriger un texte ou analyser des informations exige une lecture précise que l'audio seul ne peut garantir. Comme le rappellent de nombreux professionnels : « Dans le cadre professionnel, si vous voulez bosser, il faut pouvoir lire et écrire. »
L'audio constitue donc un outil complémentaire précieux, notamment pour les lectures longues ou le confort quotidien, mais il ne saurait se substituer au braille dans les situations d'apprentissage, d'étude et de maîtrise approfondie de la langue. Comme le résume un expert : « Pour étudier un texte, comprendre la grammaire et maîtriser la langue, seul le braille le permet. »
Résultats de la veille technologique
Les innovations en intelligence artificielle qui transforment le quotidien
Inauguré en décembre 2024 à Paris, le Campus Louis Braille incarne une nouvelle étape majeure dans le développement de solutions technologiques dédiées aux personnes aveugles et malvoyantes. Véritable hub de l'innovation inclusive, il rassemble startups, chercheurs, associations et utilisateurs autour d'un objectif commun : mettre l'intelligence artificielle au service de l'autonomie et de l'inclusion.
Le Campus se distingue par une approche collaborative et centrée sur les usages réels, faisant des personnes concernées des acteurs à part entière de l'innovation.
Les missions du Campus Louis Braille
Le Campus s'articule autour de plusieurs axes stratégiques :
- ◈ Incubation de startups spécialisées en accessibilité, favorisant l'émergence de solutions innovantes et concrètes
- ◈ Recherche et développement sur l'intelligence artificielle appliquée au handicap visuel
- ◈ Co-conception avec les utilisateurs finaux, afin de garantir des outils réellement adaptés aux besoins du terrain
- ◈ Formation aux technologies d'assistance, pour accompagner l'appropriation des outils numériques et réduire la fracture technologique
Une philosophie centrée sur l'humain et l'innovation sociale
Au-delà de la technologie, le Campus défend une vision profondément humaine de l'innovation. Comme l'explique Thibaut de Martimprey, directeur du Campus et lui-même malvoyant :
Cette philosophie rappelle que l'IA ne peut être réellement inclusive que si elle s'inscrit dans une démarche globale, prenant en compte les usages, l'accessibilité économique et l'impact à long terme sur la qualité de vie.
Un enjeu clé : l'accessibilité financière des aides technologiques
L'un des freins majeurs à l'adoption des technologies d'assistance reste leur coût élevé, certaines solutions pouvant atteindre jusqu'à 10 000 euros. Conscient de cet obstacle, le Campus Louis Braille milite pour la reconnaissance de ces aides comme dispositifs médicaux, afin de permettre leur prise en charge par la Sécurité sociale.
L'objectif est clair : démocratiser l'accès aux innovations en IA, pour que ces technologies ne soient pas réservées à une minorité, mais deviennent de véritables leviers d'égalité et d'autonomie pour le plus grand nombre.
Classification des solutions IA
Grâce à l'intelligence artificielle, il est désormais possible d'analyser une image ou une scène vidéo en temps réel et d'en générer une description textuelle ou orale. Ces technologies transforment des informations visuelles jusque-là inaccessibles en données compréhensibles, offrant ainsi une nouvelle autonomie aux personnes aveugles et malvoyantes.
Technologies clés
Les solutions de vision artificielle reposent sur plusieurs briques technologiques majeures :
- ◈ Computer vision : reconnaissance d'objets, de personnes, de scènes et de contextes
- ◈ OCR (Optical Character Recognition) : lecture et interprétation de textes imprimés
- ◈ Génération de langage naturel : production de descriptions claires, contextualisées et compréhensibles
Les outils phares :
| Application | Développeur | Fonctionnalités clés | Utilisation |
|---|---|---|---|
| Seeing AI | Microsoft | Narration du monde : lecture de courrier, reconnaissance de produits, description de photos, identification de visages | Quotidien, courses, tri de documents |
| Be My Eyes / Be My AI |
Startup danoise | Description d'images par IA + possibilité d'appeler un bénévole en visio | 900 000 utilisateurs dans le monde |
| Google Lookout | Identification d'objets, texte, couleurs, devises | Shopping, lecture d'étiquettes | |
| ChatGPT Vision | OpenAI | Description d'images, réponses à des questions sur le contenu visuel | Analyse de documents complexes |
| MyEye OrCam | OrCam (Israël) | Dispositif qui se clipse sur des lunettes, lecture instantanée de textes, reconnaissance de visages et produits | Lecture de livres, menus, panneaux |
Témoignage inspirant
Thibaut de Martimprey, directeur du Campus Louis Braille, partage son expérience : « Je l'utilise beaucoup au quotidien. C'est intuitif : j'ouvre la caméra et je demande par exemple quelle est la date de péremption d'une boîte de chocolats. C'est incroyablement libérateur. »
Ce type d'usage illustre concrètement la manière dont l'IA peut réduire la dépendance à l'entourage et renforcer l'autonomie au quotidien.
Cas d'usage concrets
Les applications de vision artificielle couvrent aujourd'hui de nombreux contextes de vie :
- ◈ À la maison : lire une étiquette, trier le courrier, identifier un vêtement par sa couleur
- ◈ En courses : scanner des codes-barres, lire les prix, différencier des produits similaires
- ◈ En déplacement : lire des panneaux, des menus de restaurant, des horaires de train
- ◈ Au travail : consulter des documents, identifier des collègues, participer activement à des réunions
Une nécessaire prudence : les limites de l'IA
Malgré leurs performances, ces outils ne sont pas infaillibles. Comme le souligne Thibaut de Martimprey : « C'est plus “secure” avec Be My Eyes, qui permet d'appeler un bénévole humain en visio, car ChatGPT fait parfois des erreurs. ».
Lors d'une démonstration, par exemple, ChatGPT n'avait pas détecté une peluche grise posée sur une chaise. Cette limite rappelle l'importance de solutions hybrides, combinant intelligence artificielle et intervention humaine, afin de garantir fiabilité et sécurité.
Avant de transformer l'accessibilité visuelle, les fondateurs d'OrCam — Amnon Shashua et Ziv Aviram — ont marqué l'histoire de l'intelligence artificielle appliquée à la mobilité. En 1999, ils créent Mobileye, entreprise pionnière des systèmes d'aide à la conduite automobile basés sur la vision artificielle.
Cette technologie, capable de détecter piétons, obstacles et situations de danger sur la route, est ensuite transposée en 2010 à un tout autre enjeu : aider les personnes aveugles et malvoyantes à percevoir leur environnement. C'est ainsi que naît MyEye OrCam, un concentré d'IA embarquée pensé pour l'autonomie.
Le dispositif MyEye OrCam
MyEye OrCam se distingue par un design discret et une autonomie totale :
- ◈ Dimensions : 7,6 cm de long × 2,1 cm de large
- ◈ Poids : 22,5 grammes (ultra-léger)
- ◈ Fixation : double système magnétique adaptable à toutes les branches de lunettes
- ◈ Fonctionnement : sans connexion Internet, garantissant une utilisation en toute circonstance
Trois modes d'activation intuitifs et adaptatifs
Le dispositif s'adapte aux préférences et capacités de chaque utilisateur :
- ◈ Commande vocale : pour une utilisation entièrement mains libres
- ◈ Geste du doigt : il suffit de pointer approximativement vers le texte à lire
- ◈ Barre tactile latérale : texturée et facilement repérable au toucher
Des fonctionnalités intelligentes au service de l'autonomie
MyEye OrCam embarque une intelligence artificielle avancée capable de :
- ◈ Lire des textes imprimés ou numériques, avec détection automatique du bon positionnement (alerte si le texte est à l'envers ou mal centré)
- ◈ Reconnaître les visages, après enregistrement, et annoncer le nom des proches
- ◈ Identifier des objets et produits pré-enregistrés
- ◈ Lire des codes-barres et QR codes
- ◈ Identifier les couleurs en pointant une zone précise
- ◈ Donner l'heure et la date, simplement en levant le poignet comme pour regarder une montre
Une véritable intelligence contextuelle
Au-delà de la simple lecture, MyEye OrCam comprend le contexte des documents. Dans un restaurant, il peut lire uniquement les entrées d'un menu. Sur une facture, il identifie et annonce les montants clés. Cette capacité d'analyse contextuelle permet un accès rapide et ciblé à l'information, sans surcharge cognitive.
Sécurité et respect de la vie privée
La protection des données est un enjeu central. Toutes les informations liées à la reconnaissance faciale sont chiffrées, garantissant un haut niveau de confidentialité et de respect de la vie privée.
Les différentes versions disponibles
OrCam propose plusieurs déclinaisons pour répondre à des besoins variés :
- ◈ MyEye PRO : version complète intégrant la reconnaissance faciale
- ◈ MyEye Smart : version sans reconnaissance faciale, plus accessible financièrement
- ◈ OrCam Read : format « stylo lecteur », destiné notamment aux personnes dyslexiques et malvoyantes
Une reconnaissance internationale
La technologie OrCam a été saluée à l'échelle mondiale :
- ◈ 🏆 Prix de l'innovation - Consumer Electronics Show (CES)
- ◈ 🏆 Silmo d'Or
- ◈ 🏆 Top des meilleures inventions 2019 - Time Magazine
Aujourd'hui, MyEye OrCam est disponible en 25 langues et distribuée dans 48 pays.
Le principal frein : le coût
Malgré ses bénéfices indéniables, le prix reste un obstacle majeur. Selon la version, le dispositif coûte entre 3 000 et 4 750 euros et demeure peu ou pas remboursé en France par la Sécurité sociale, la (Prestation de compensation du handicap) ou les mutuelles.
OrCam, en collaboration avec plusieurs associations, milite activement pour la reconnaissance de ces solutions comme de véritables dispositifs médicaux, afin de permettre leur prise en charge et d'en démocratiser l'accès.
Malgré la généralisation du numérique, des millions de documents restent hors de portée pour les personnes aveugles et malvoyantes. PDF scannés, formulaires administratifs, factures, notices médicales ou contrats sont souvent conçus comme de simples images, rendant leur contenu invisible pour les lecteurs d'écran traditionnels.
Cette inaccessibilité ne relève pas seulement d'un inconfort : elle constitue un véritable frein à l'autonomie, à l'accès aux droits et à l'égalité des chances.
La solution apportée par l'intelligence artificielle
Les avancées récentes reposent sur la combinaison de l'OCR (Optical Character Recognition) et
de modèles de langage avancés, tels que ceux utilisés par ChatGPT.
L'enjeu ne se limite plus à « lire » un document, mais à le comprendre, l'analyser et le rendre exploitable.
Des capacités profondément transformatrices
Grâce à cette synergie entre OCR et IA, il devient possible de :
- ◈ Lire des documents scannés et des formulaires complexes, jusque-là inaccessibles
- ◈ Structurer automatiquement le contenu pour les lecteurs d'écran (titres, paragraphes, listes, tableaux)
- ◈ Résumer un document long en quelques phrases claires et pertinentes
- ◈ Expliquer des termes techniques, médicaux ou juridiques dans un langage accessible
- ◈ Naviguer intelligemment dans le document en accédant directement à une section ou une information clé
Un impact concret sur l'autonomie
Grâce à ces technologies, un document auparavant « mort » — illisible par les outils classiques — devient
consultable, navigable et compréhensible avec un lecteur d'écran.
L'expérience de lecture se transforme radicalement : l'utilisateur reprend le contrôle de
l'information, peut effectuer ses démarches de manière autonome et accéder à des contenus complexes sans
assistance.
Cette évolution marque une étape décisive vers une accessibilité documentaire réellement inclusive, où l'intelligence artificielle agit comme un véritable médiateur entre le texte et l'utilisateur.
La mobilité a longtemps été l'un des plus grands défis pour les personnes aveugles et malvoyantes. Là où il fallait auparavant solliciter systématiquement l'aide de passants, les technologies d'assistance redéfinissent aujourd'hui les usages et les réflexes.
Comme le résume Mathys, chargé des études stratégiques au Campus Louis Braille :
Cette évolution illustre le passage d'une dépendance humaine à une autonomie technologique, rendue possible par l'intelligence artificielle.
Les solutions actuelles
| Application | Caractéristiques | Innovation |
|---|---|---|
| Ezymob | Navigation GPS adaptée, guidage vocal précis | Itinéraires optimisés pour l'accessibilité |
| SonarVision | Guidage sonore basé sur la réalité augmentée | Son 3D directionnel pour l'orientation |
| EyeView (Fédération des aveugles de France) |
Navigation intérieure et extérieure | Cartographie détaillée des bâtiments publics |
| Artha (Prix Lépine 2024 🏆) | Ceinture haptique intelligente | Vibrations tactiles pour percevoir l'environnement |
Focus innovation : la ceinture Artha
Récompensée au Concours Lépine 2024, Artha est une invention française qui repousse les limites de la mobilité assistée. Elle propose une approche radicalement différente, basée sur le sens du toucher plutôt que sur le son.
Le système
- ◈ Une ceinture portée autour des lombaires
- ◈ Une caméra miniature, clippée sur une paire de lunettes
- ◈ Des algorithmes d'IA embarqués, analysant l'environnement en temps réel
- ◈ Un système de vibrations haptiques, retransmises dans le dos de l'utilisateur
Comment ça fonctionne
La caméra capte l'environnement, y compris dans l'obscurité grâce à la vision nocturne. Les images sont instantanément analysées par l'intelligence artificielle, puis traduites en sensations tactiles. Cette cartographie sensorielle permet de « ressentir » l'espace, sans surcharge auditive.
Exemples concrets d'interprétation :
- ◈ Vibration à gauche → obstacle à gauche
- ◈ Vibration centrale → obstacle devant
- ◈ Vibration à droite → chemin libre
Des avantages uniques
Ces technologies de navigation assistée introduisent une nouvelle manière de percevoir l'espace, en s'appuyant sur des sens souvent sous-exploités :
- ◈ Perception tactile de l'environnement, venant compléter efficacement le son et l'usage de la canne blanche
- ◈ Utilisation possible de jour comme de nuit, grâce à la vision infrarouge intégrée
- ◈ Mains libres, permettant des déplacements plus naturels, sans contrainte matérielle
- ◈ Confort et discrétion, avec un ressenti efficace à travers les vêtements, sans gêne ni exposition visible
Fonctionnalités communes des outils de navigation assistée
Malgré la diversité des solutions, les outils de mobilité basés sur l'intelligence artificielle reposent sur un socle de fonctionnalités essentielles, devenues incontournables :
- ◈ Détection intelligente des obstacles (poteaux, branches, mobilier urbain)
- ◈ Reconnaissance des passages piétons et des feux tricolores, pour sécuriser les traversées
- ◈ Identification des numéros de rue et des enseignes, facilitant le repérage urbain
- ◈ Guidage vocal précis vers une destination, adapté aux besoins spécifiques des utilisateurs
- ◈ Annonce en temps réel de l'arrivée des transports en commun, renforçant l'autonomie dans les déplacements quotidiens
Cette nouvelle génération d'outils marque une avancée majeure : la mobilité ne repose plus uniquement sur l'ouïe ou l'aide humaine, mais sur une perception augmentée de l'espace, adaptée aux besoins et aux préférences de chacun.
Les interfaces vocales permettent une interaction entièrement orale avec les appareils numériques, sans dépendre d'une interface graphique. Pour les personnes aveugles et malvoyantes, la voix devient une véritable interface universelle, simple, rapide et naturelle, ouvrant l'accès à un large éventail de services numériques.
Des assistants vocaux de plus en plus adaptés
Les principaux assistants vocaux du marché — Siri (Apple), Google Assistant et Alexa (Amazon) — jouent aujourd'hui un rôle central dans l'accessibilité :
- ◈ Pilotage de la domotique : éclairage, chauffage, volets roulants ou appareils électroménagers
- ◈ Recherche d'informations par simple commande vocale
- ◈ Rédaction et dictée d'e-mails, de messages ou de documents
- ◈ Gestion du quotidien : rappels, agendas, appels, météo
Une expérience personnalisable selon les besoins
L'un des atouts majeurs des interfaces vocales réside dans leur haut niveau de personnalisation. Chaque utilisateur peut adapter l'outil à ses préférences et à son confort :
- ◈ Réglage du rythme de lecture
- ◈ Choix du niveau de détail des informations
- ◈ Sélection d'une voix préférée (ton, timbre, accent)
Cette personnalisation améliore significativement l'expérience utilisateur et réduit la fatigue cognitive.
Innovation récente : Gemini intégré à TalkBack
Google a récemment annoncé l'intégration de Gemini, son intelligence artificielle générative, au lecteur d' écran TalkBack. Cette avancée marque une étape importante dans l'accessibilité mobile.
Grâce à Gemini, TalkBack ne se contente plus de lire l'écran : il analyse le contenu visuel, fournit des descriptions d'images enrichies et permet à l'utilisateur de poser des questions contextuelles sur ce qui est affiché.
Exemple d'usage concret
Une personne aveugle navigue sur un site de e-commerce. Une image de produit apparaît sans description alternative. Gemini analyse l'image et annonce : « Chaussures de randonnée marron en cuir, semelle crantée, lacets noirs. »
L'utilisateur peut alors décider en toute autonomie s'il souhaite poursuivre son achat ou explorer des produits similaires.
Un impact direct sur l'autonomie
Ces innovations renforcent considérablement l'autonomie domestique et professionnelle des personnes aveugles et malvoyantes. En rendant les interfaces numériques plus intelligentes, conversationnelles et personnalisables, l'IA contribue activement à réduire la fracture numérique et à favoriser une inclusion plus équitable dans la société numérique.
Les lunettes connectées marquent une rupture majeure dans l'accessibilité visuelle.
Elles replacent l'assistance au niveau du regard, sans nécessiter de sortir un smartphone,
de cadrer une image ou de naviguer dans une interface complexe.
L'information est captée en temps réel et transmise directement dans l'oreille de
l'utilisateur, de manière fluide, naturelle et continue.
Cette approche transforme l'expérience en s'intègrant l'IA au geste, au mouvement et à l'interaction sociale, sans interrompre l'action.
Solution phare : Ally Solos Glasses (Solos × Envision)
Récompensées aux App Store Awards 2025, dans la catégorie Impact culturel, les Ally Solos Glasses incarnent cette nouvelle génération d'aides visuelles. Elles intègrent Ally, l'assistant vocal développé par Envision et propulsé par l'intelligence artificielle.
Fonctionnalités :
Ces lunettes connectées proposent un ensemble de fonctionnalités avancées, entièrement pilotées à la voix, pour une interaction fluide et sans friction :
- ◈ Lecture en temps réel de textes : livres, menus, panneaux, courriers ou documents du quotidien
- ◈ Reconnaissance d'objets et de visages, permettant une meilleure compréhension de l'environnement immédiat
- ◈ Description de scènes, afin d'identifier ce qui se déroule devant soi en un instant
- ◈ Interaction vocale intuitive, sans menus complexes ni manipulations techniques
Une utilisation simple et naturelle
L'expérience repose sur un dialogue direct avec l'intelligence artificielle. Une fois les lunettes portées, l'utilisateur peut poser ses questions à voix haute, comme dans une conversation :
- ◈ « Qu'est-ce qu'il y a devant moi ? »
- ◈ « Lis ce panneau. »
- ◈ « Qui est cette personne ? »
Les réponses sont immédiates, contextualisées et délivrées de manière discrète, permettant de rester pleinement engagé dans son environnement et ses interactions.
Un avantage décisif : la liberté de mouvement
Contrairement à l'usage du smartphone — sortir l'appareil, le déverrouiller, cadrer, zoomer, attendre — les lunettes connectées offrent une réponse instantanée, mains libres, tout en permettant de continuer à marcher, échanger ou se déplacer.
Cette continuité d'usage constitue un gain considérable en confort, en sécurité et en autonomie.
Une alternative grand public : Ray-Ban Meta Smart Glasses
Les Ray-Ban Meta Smart Glasses illustrent une tendance émergente majeure : des produits conçus à l'origine pour le grand public qui, grâce à l'intelligence artificielle, deviennent de véritables leviers d'accessibilité pour les personnes aveugles et malvoyantes.
En intégrant Meta AI, ces lunettes étendent leurs usages bien au-delà de la simple connectivité et proposent des fonctionnalités à fort impact inclusif :
- ◈ Descriptions détaillées de l'environnement, permettant de mieux comprendre ce qui entoure l'utilisateur
- ◈ Fonction « Call a Volunteer », reliée au réseau mondial de bénévoles Be My Eyes, pour obtenir une aide humaine en temps réel
- ◈ Assistance à la navigation en mobilité, facilitant les déplacements et le repérage dans l'espace
Vers une accessibilité intégrée et invisible
Avec les lunettes connectées, l'accessibilité ne se présente plus comme un outil à part, mais comme une extension naturelle de la perception. Discrètes, intuitives et puissantes, elles préfigurent un futur où l'IA accompagne les personnes aveugles et malvoyantes sans stigmatisation, directement au plus près de leur quotidien.
Une accessibilité numérique encore insuffisante
Malgré la montée en puissance des outils d'assistance, le numérique demeure largement excluant pour les personnes aveugles et malvoyantes. Aujourd'hui, seuls 10 % des sites web peuvent être considérés comme réellement accessibles, et les normes WCAG restent trop souvent ignorées ou mal appliquées. Cette situation s'explique en partie par un manque de formation à l'accessibilité dans les filières du numérique, où ces enjeux restent encore marginaux.
En conséquence, même équipés de lecteurs d'écran performants et de solutions d'intelligence artificielle avancées, les utilisateurs se heurtent quotidiennement à des formulaires inexploitables, des images sans description alternative ou des parcours de navigation incohérents. Un véritable cercle vicieux s'installe alors : le manque d'investissement conduit à des sites inaccessibles, qui limitent l'usage par les personnes concernées, renforçant à leur tour l'idée erronée que l'accessibilité n'est pas un enjeu prioritaire.
Le coût des technologies d'assistance : une barrière majeure
Malgré leur potentiel transformateur, les technologies d'assistance les plus innovantes demeurent souvent financièrement inaccessibles. Des dispositifs comme MyEye OrCam, certaines lunettes de réalité augmentée ou d'autres aides techniques avancées peuvent représenter un investissement de plusieurs milliers d'euros, allant parfois jusqu'à 10 000 euros.
En France, ces solutions sont encore peu ou pas prises en charge par la Sécurité sociale, la PCH (Prestation de Compensation du Handicap) ou les mutuelles, ce qui soulève un enjeu majeur d'équité. La reconnaissance de ces technologies comme de véritables dispositifs médicaux apparaît dès lors indispensable pour permettre leur remboursement et garantir une accessibilité réelle, durable et universelle.
Le risque d'un isolement technologique
Si l'intelligence artificielle renforce considérablement l'autonomie des personnes aveugles et malvoyantes, elle peut aussi, paradoxalement, affaiblir les interactions humaines lorsqu'elle devient omniprésente. Ce risque d'isolement est d'autant plus important que la technologie tend à remplacer des échanges autrefois spontanés.
Comme le souligne Mathys, chargé des études stratégiques au Campus Louis Braille :
« Prenons garde au risque d'isolement induit par trop de technologie. Les liens humains, c'est bien aussi. »
Une dépendance excessive aux outils numériques, combinée à la frustration générée par les pannes, les problèmes de réseau ou de batterie, rappelle une évidence : l'IA doit rester un outil complémentaire, et non un substitut au lien social. Des solutions comme Be My Eyes incarnent cet équilibre vertueux, en associant la puissance de l'intelligence artificielle à la richesse de l'entraide humaine.
L'avenir de l'accessibilité visuelle s'oriente vers des solutions toujours plus précises, intégrées et universelles. L'intelligence artificielle, associée à de nouvelles interfaces sensorielles, ne cherche plus uniquement à compenser la déficience visuelle, mais à concevoir des environnements accessibles par défaut, intégrant l'inclusion dès leur conception.
À court terme, les progrès attendus portent sur une amélioration significative de la fiabilité et du contexte des descriptions d'images, la démocratisation de lunettes connectées plus abordables, ainsi que l'intégration progressive de l'IA dans les transports publics, notamment pour les annonces et le guidage. Parallèlement, la navigation intérieure devrait se généraliser dans des lieux complexes comme les gares, hôpitaux ou musées.
À moyen terme, l'évolution se dirigera vers des interfaces haptiques avancées, permettant de ressentir l'environnement par le toucher, et vers une IA multimodale combinant audio et retour tactile. Le développement de cartographies 3D accessibles en temps réel et l'adoption de standards internationaux communs renforceront l'interopérabilité et l'accessibilité globale des solutions.
À long terme, des technologies encore expérimentales ouvrent des perspectives inédites, telles que les interfaces cerveau-machine permettant un contrôle sans interaction physique, ou les implants visuels couplés à l'IA visant une restauration partielle de la vision. Ces avancées s'inscrivent dans une vision plus large de villes intelligentes pensées accessibles dès leur conception, où l'accessibilité devient une norme et non une adaptation.
Interfaces cerveau-machine : une piste à surveiller
Des projets expérimentaux, comme les travaux menés par Apple et Synchron ou Neuralink, explorent la possibilité de contrôler des appareils par la pensée ou de restaurer certaines fonctions sensorielles.
Même si ces technologies ne ciblent pas encore directement les personnes aveugles, elles illustrent le potentiel de l'IA couplée aux capteurs neuronaux pour contourner des limitations sensorielles.
Elles soulèvent toutefois d'importantes questions éthiques (sécurité, consentement, données neuronales) et doivent être abordées avec prudence.
Recommandations pour une IA réellement inclusive
Pour que l'intelligence artificielle devienne un véritable levier d'inclusion, elle doit être pensée avec et pour les personnes concernées. La co-conception est essentielle : impliquer les utilisateurs dès les premières phases de développement, tester les solutions en conditions réelles et intégrer leurs retours en continu permet de concevoir des outils réellement adaptés, comme le démontre l'approche du Campus Louis Braille.
L'accessibilité doit également être intégrée dès la conception des produits numériques. Former les développeurs aux normes WCAG, adopter de bonnes pratiques dès le départ et réaliser des audits réguliers évitent que l'accessibilité ne soit traitée comme une contrainte tardive ou secondaire.
Par ailleurs, le recours à des standards ouverts et interopérables est indispensable. Favoriser l'open source et éviter les écosystèmes fermés permet aux utilisateurs de ne pas être enfermés dans une solution unique et garantit une meilleure pérennité des technologies d'assistance.
L'enjeu est aussi institutionnel et économique. La reconnaissance des aides technologiques comme dispositifs médicaux constitue une étape clé pour permettre leur remboursement et assurer un accès équitable, indépendamment des ressources financières des utilisateurs.
Enfin, une IA inclusive ne peut exister sans un effort continu de formation et de sensibilisation. Former les professionnels, informer le grand public et valoriser les bonnes pratiques sont des leviers essentiels pour diffuser durablement une culture de l'accessibilité et de l'inclusion.
Au-delà des prouesses techniques, l'intelligence artificielle doit être un levier d'inclusion sociale. L'accessibilité ne consiste pas seulement à compenser une déficience visuelle, mais à permettre aux personnes aveugles et malvoyantes de participer pleinement à la vie collective, sur un pied d'égalité.
Les piliers de l'inclusion par l'IA :
- ◈ Autonomie : L'IA permet de réduire la dépendance à l'entourage pour lire un courrier, faire des courses, se déplacer ou voyager. Elle redonne un contrôle direct sur le quotidien, et avec lui, un sentiment de dignité et d'indépendance.
- ◈ Égalité d'accès à l'information : L'accès à l'information devient plus équitable lorsque les sites web, applications, documents administratifs, œuvres culturelles ou contenus éducatifs sont conçus pour être accessibles dès l'origine.
- ◈ Participation citoyenne et professionnelle : Grâce aux technologies d'assistance, les personnes aveugles peuvent accéder aux services publics, participer à la vie professionnelle (réunions, outils numériques, documents) et prendre part à la vie sociale et culturelle sans exclusion.
L'intelligence artificielle transforme profondément l'accessibilité pour les personnes aveugles et malvoyantes. Là où l'information visuelle excluait, elle devient progressivement interprétable, navigable et actionnable : lecture instantanée de textes et d'images, compréhension de documents complexes, guidage en mobilité, interfaces vocales et lunettes connectées qui rendent l'assistance plus naturelle et continue.
Cette dynamique est particulièrement bien illustrée par le Campus Louis Braille, qui montre que l'innovation ne fonctionne vraiment que lorsqu'elle est pensée avec les personnes concernées, et pas seulement pour elles. En associant recherche, startups, formation et co-conception, tout en intégrant la question du coût et de l'accompagnement dès le départ, le Campus propose un modèle d'innovation à la fois technologique et social.
Mais cette révolution reste incomplète : la fiabilité de certaines IA, l'inaccessibilité persistante de nombreux sites, le prix élevé des aides techniques et le risque d'un isolement “tout-technologique” rappellent une évidence. Pour être réellement inclusive, l'IA doit être sûre, accessible financièrement, interopérable, et conçue by design, tout en laissant une place essentielle aux relations humaines.
En résumé, l'IA est un levier puissant — à condition de rester au service de l'humain et de contribuer à une société où l'autonomie n'exclut jamais le lien, et où l'accessibilité devient la norme, pas l'exception.
Handicap visuel et intelligence artificielle
- ◈ EYESEEMAG : "MyEye OrCam, l'intelligence artificielle au service des malvoyants", 2025. [en ligne] URL [consulté le 3 janvier 2026].
- ◈ Le Monde : "L'IA, des outils incroyables pour les personnes en situation de handicap", 3 décembre 2025. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ Sciences et Avenir : "Malvoyance : quelles solutions pour le déficit visuel en 2040 ?", 14 novembre 2025. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ Guide-Vue : "Les déficiences visuelles, un état des lieux à l'échelle mondiale", 5 juillet 2023. [en ligne] URL [consulté le 17 juin 2025].
- ◈ LesEchos : "Comment l'intelligence artificielle va révolutionner la vie des malvoyants", 11 février 2019. [en ligne] URL [consulté le 12 juillet 2025].
- ◈ Anne-Aël Durand : "L'IA, des « outils incroyables » pour les personnes en situation de handicap", 3 décembre 2025. [en ligne] URL [consulté le 8 janvier 2026].
Campus Louis Braille et innovation inclusive
- ◈ Sorbonne Université : "Lancement du Campus Louis Braille", 5 décembre 2024. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ Sorbonne Université : "Cybathlon : un dispositif de guidage innovant pour les personnes déficientes visuelles", 23 octobre 2024. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ France Culture / Radio France : "Campus Louis Braille, un incubateur pour start-up et chercheurs au service du quotidien des aveugles", 15 janvier 2025 [en ligne] URL [consulté le 5 janvier 2026].
- ◈ Acuité : "Le Campus Louis Braille, nouveau hub de l'innovation pour le handicap visuel", 17 juillet 2025 [en ligne] URL [consulté le 5 janvier 2026].
Innovations et technologies d'assistance
- ◈ Journal du Geek : "Des lunettes connectées qui facilitent la vie des malvoyants", 17 août 2025. [en ligne] URL [consulté le 27 décembre 2025].
- ◈ L'Informaticien : "Les lunettes intelligentes avec IA aident les personnes aveugles et malvoyantes", 16 août2025. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ France Inter : "Lunettes connectées, assistants vocaux : ce que l'IA fait pour aider les non-voyants", 4 octobre 2023. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ The Verge : "Ray-Ban Meta smart glasses: AI detailed responses", 15 mai 2025. [en ligne] (en anglais) URL [consulté le 5 janvier 2026].
- ◈ Handicap.fr: "Concours Lépine: Artha, aide aux déficients visuels, primée", 13 mai 2024. [en ligne] URL [consulté le 3 janvier 2026].
- ◈ @uto/nomia : "Application Be My Eyes" 14 avril 2022. [en ligne]URL [consulté le 12 novembre 2025].
- ◈ Ouest France: "Cette invention pourrait révolutionner le quotidien des personnes malvoyantes", 21 février 2022. [en ligne] URL [consulté le 18 juin 2025].
- ◈ Paris Match: "Cette ceinture permet de « redonner la vue » aux aveugles", 23 mai 2024. [en ligne] URL[consulté le 3 janvier 2026].
- ◈ Frandoid: "Google ajoute Gemini à TalkBack, et ça change tout : on vous explique pourquoi", 24 juin 2025. [en ligne] URL[consulté le 3 janvier 2026].
- ◈ Thomas Urbain : "Lunettes connectées : nouvel allié des personnes aveugles", 6 janvier 2026. [en ligne] URL [consulté le 8 janvier 2026].
Braille, audio et accès à la lecture
- ◈ La Liberté : "Née il y a deux cents ans, l'écriture braille est aujourd'hui menacée par l'audio", 29 novembre 2025. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ France 3 Provence-Alpes-Côte d'Azur : "Ça ne développe pas l'orthographe : livres sonores, podcast... 200 ans après sa création, le braille perd du terrain", 15 novembre 2025. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ Handicap.fr : "Reportage dans les coulisses d'une imprimerie en braille", 22 décembre 2025. [en ligne] URL [consulté le 5 janvier 2026].
Innovations internationales
- ◈ Vietnam.vn : "L'intelligence artificielle ouvre la voie à l'égalité pour les personnes handicapées", 8 juin 2025. [en ligne] URL [consulté le 5 janvier 2026].
- ◈ Vietnam.vn : "Un garçon aveugle remporte le premier prix d'un concours national d'informatique.", 4 décembre 2025. [en ligne] URL [consulté le 4 janvier 2026].
Applications et services
- ◈ Seeing AI (Microsoft) (site officiel, en anglais) URL [consulté le 5 janvier 2026].
- ◈ Be My Eyes / Be My AI (site officiel, en anglais) URL [consulté le 12 novembre 2025].
- ◈ OrCam - MyEye OrCam (site officiel). URL [consulté le 12 novembre 2025].
- ◈ Google Lookout - Accessibilité Android. URL [consulté le 5 janvier 2026].
- ◈ Stema Partners : "OCR IA : transformez vos documents numérisés grâce à l'intelligence artificielle", 2024. URL [consulté le 5 janvier 2026].
- ◈ Ally Solos Glasses (Solos × Envision) (site officiel, en anglais) URL [consulté le 5 janvier 2026].
- ◈ Ray-Ban Meta Smart Glasses (Site officiel Meta) URL [consulté le 5 janvier 2026].
- ◈ SeeHaptic - Ceinture haptique. URL [consulté le 3 janvier 2026].
Navigation, mobilité et dispositifs innovants
- ◈ Artha - Ceinture haptique (Prix Lépine 2024). URL [consulté le 26 novembre 2025].
- ◈ Ezymob - Navigation GPS accessible. URL [consulté le 5 janvier 2026].
- ◈ SonarVision - Guidage sonore avec réalité augmentée. URL [consulté le 5 janvier 2026].
- ◈ EyeView - Fédération des Aveugles de France. URL [consulté le 21 octobre 2025].
Organisations, institutions et données officielles
- ◈ Organisation mondiale de la santé (OMS) - Déficience visuelle. URL [consulté le 13 novembre 2025].
- ◈ CNSA - Informer les personnes aveugles et malvoyantes (PDF), avril 2024. URL [consulté le 22 juillet 2025].
- ◈ Étude Homère - Mieux connaître les personnes déficientes visuelles en France URL [consulté le 5 janvier 2026].
- ◈ Campus Louis Braille - Site officiel. URL [consulté le 5 janvier 2026].
Normes, prix et reconnaissance
- ◈ WCAG - Web Content Accessibility Guidelines (en anglais) URL [consulté le 5 janvier 2026].
- ◈ App Store Awards 2025 - Catégorie Impact culturel. URL [consulté le 28 décembre 2025].
- ◈ Concours Lépine 2024 - Prix de l'innovation (ceinture Artha). URL [consulté le 5 janvier 2026].
- ◈ Wikipédia - VoiceOver. URL [consulté le 3 janvier 2026].