Quand la e-santé rend service aux aveugles

Quand la e-santé rend service aux aveugles

 Laccélération de la puissance de calcul numérique, le Big Data et le développement de lintelligence artificielle créent un environnement favorable à linvention dobjets dédiés à accompagner le handicap. Deux jeunes sociétés ont utilisé les technologies les plus pointues pour concevoir des objets améliorant lautonomie au quotidien des personnes aveugles ou malvoyantes.

La détection par laser pour mieux sorienter

 Inspiré par les voitures autonomes de Google, l’entrepreneur amiénois Arnaud Jibaut a eu l’idée d’utiliser les mêmes détecteurs d’obstacles que ceux qui équipent les Google Cars pour venir en aide aux personnes déficients visuelles dans leurs déplacements quotidiens. Son projet baptisé Lidardeville a remporté en mars dernier le premier prix du Startup week-end e-santé organisé à Amiens. «Il s’agit d’une sacoche équipée de la technologie Lidar : la détection par laser qui permet de mesurer les distances, explique Arnaud Jibaut au Courrier Picard. Des vibreurs sont installés sur la lanière. Ils permettent de signaler les obstacles au porteur de la sacoche. Nous avons choisi d’utiliser le sens du toucher pour laisser libre celui de l’audition dont les personnes souffrant de cécité ont déjà énormément besoin. » Outre une amélioration de l’autonomie et une meilleure intégration sociale de ses utilisateurs, Lidardeville pourrait, selon ses créateurs, leur permettre d’envisager la pratique de certains sports auparavant inaccessibles comme le ski, la course à pied ou l’équitation.

Le deep learning pour reconnaître les visages

Et si les aveugles pouvaient se faire décrire leur environnement visuel en temps réel, comme un sous-titrage instantané du monde qui les entoure? C’est le concept de l’appareil Horus, développé par la start-up italienne Eyra. Ce dispositif de reconnaissance visuelle se porte comme un casque audio, il est équipé d’une caméra qui filme tout ce qui lui fait face et renvoie à son utilisateur une description audio de son environnement par « conduction osseuse », ceci afin de ménager l’audition des utilisateurs, déjà très sollicitée pour une personne aveugle. L’appareil, relié à un boîtier qui analyse les images filmées, est capable de décrire précisément leur contenu, de lire des textes, mais aussi de reconnaître des visages connus grâce au « deep learning ». Autrement dit, Horus apprend et s’améliore au fur et à mesure qu’on l’utilise, grâce à la puissance de calcul exceptionnelle de nouveaux processeurs graphiques NVIDIA capables d’analyser en temps réel un contenu mouvant. Selon Lucas Nardelli, responsable technique de la société Eyra, Horus n’aurait pas vu le jour sans ces microprocesseurs et les progrès récents de l’intelligence artificielle. La société annonce une commercialisation en Italie dans le courant de l’année 2017 et propose déjà une liste d’attente en ligne pour les intéressés.