Surdité et UX Design
Conversation entre une développeuse sourde et une UX designer
Après avoir rencontré Emmanuelle Aboaf à Paris Web, j’ai voulu creuser la prise en compte de la surdité en UX design. Emmanuelle est sourde de naissance et se dit “bionique” avec ses deux implants cochléaires. Développeuse Fullstack Angular .NET et passionnée de tech, elle est aussi très active dans les communautés féministes. Elle intervient dans de nombreuses conférences pour promouvoir l’accessibilité, aussi bien dans la vie réelle que sur le web.
On a parlé de son expérience d’utilisatrice sourde sur le digital, et de développeuse. Elle m’a expliqué les obstacles auxquels elle fait face sur des formulaires ou dans des réunions en visio. Elle m’a partagé ses idées pour que les UX designers prennent mieux en compte ses besoins. On a aussi échangé sur les progrès des aides techniques, la perception du handicap et la nécessité de continuer à militer pour l’accessibilité.
Cet entretien partage l’expérience d’Emmanuelle en tant que personne sourde en France. Cette perspective peut varier par rapport à celle d’autres personnes sourdes, en France ou dans d’autres pays.
Tout ce que je ne savais pas sur la surdité
J’ai remarqué que tu disais toujours “personne sourde et malentendante”. Est-ce qu’on n’est pas sourd quel que soit le degré de surdité ?
Oui, c’est vrai. Être sourd ou malentendant, c’est la même chose. On peut avoir une surdité légère, moyenne, sévère, ou profonde comme moi. Mais il y a des gens qui préfèrent dire qu’ils sont malentendants, ça met à distance les préjugés du handicap. Et ça dépend sûrement aussi de comment tu es devenu sourd. Si tu deviens sourd du jour au lendemain, je comprends que tu puisses préférer dire “je suis malentendant”. C’est très long et difficile d’accepter la perte d’un sens. Il y a des gens qui ont honte, donc ils vont dire qu’ils perdent un peu d’audition. Surtout qu’il y a beaucoup de jeunes à qui ça arrive. Ils vont dans les concerts et sous-estiment leur santé auditive. Ce n’est vraiment pas facile, je peux comprendre qu’ils n’aient pas envie de dire qu’ils sont sourds.
Moi je suis sourde de naissance, je ne sais pas ce que ça fait d’être entendante. Et puis, si je disais que j’étais juste malentendante, ça minimiserait mon handicap, et l’impact que ça a sur ma vie. Mais je dis “personne sourde ou malentendante” par respect pour la façon dont les gens veulent se définir.
Parce que je suis myope, je ne pourrais pas te voir sans mes lentilles. Pourtant on ne dit pas que je suis malvoyante. Quelle est la différence ?
C’est plus courant d’avoir une mauvaise vue que d’être sourd. Donc il y a plus de préjugés, ça paraît insurmontable. On est tout de suite pris en pitié, “les pauvres sourds-muets”. Or, le terme sourd-muet est totalement dépassé. C’est obsolète et moyen-âgeux. Il y a des personnes sourdes qui ont fait le choix de ne pas oraliser parce que soit elles n’ont pas appris à parler, soit elles n’aiment pas leurs voix, ou encore elles s’expriment en langue des signes. Mais leurs cordes vocales fonctionnent très bien. Être une personne sourde privée de ses cordes vocales – et donc muette – est très rare.
Quand on est sourd de naissance, on doit apprendre à parler grâce à l’orthophonie. J’ai fait 20 ans d’orthophonie pour apprendre à maîtriser ma voix et j’ai quand même une voix marquée, un accent. La voix des personnes sourdes dépend de plusieurs facteurs : l'environnement, l’éducation, l'appareillage et l’orthophonie.
Si l’apprentissage de la parole est déjà compliqué pour une personne sourde, comment tu as appris l’anglais ?
Grâce à la phonétique. Mais c’est difficile de comprendre l’anglais à l’oral pour moi. Je ne peux pas lire sur les lèvres de la personne dans une autre langue parce que je ne me suis pas entraînée à lire sur les lèvres en anglais. Lire sur les lèvres en anglais est totalement différent de la lecture labiale française. Car même avec des appareils auditifs ou des implants, on doit entraîner nos oreilles et notre cerveau à identifier les sons. C’est comme du machine learning : “ça c’est un chien qui aboie” et “ça c’est un klaxon de voiture”. C’est comme ça que j’ai appris à entendre et à reconnaître les sons du quotidien en orthophonie.
A l’école, j’avais déjà beaucoup de travail supplémentaire à fournir, des cours de soutien et d’orthophonie. Donc j’étais dispensée de seconde langue au lycée sinon ça faisait trop de travail. Par contre, je maîtrise aussi la langue des signes et c’est bien une langue à part. Avec le Français, l’Anglais et la LSF, je suis donc trilingue quand même !
J’imagine que ça se complexifie encore plus pour les personnes sourdes et aveugles ?
C’est une minorité dans notre communauté en effet. On désigne ces personnes comme personnes sourdaveugles. On essaie de les intégrer de plus en plus, notamment grâce au travail de Thomas Soret à l’association Unanimes. Thomas a la maladie d’Usher, une maladie évolutive qui rend la personne aveugle petit à petit. Pour les personnes sourdaveugles, il y a des besoins différents. Par exemple, elles ne peuvent pas voir les sous-titres dans les vidéos. C’est pourquoi il faut proposer aussi une transcription qui pourra être restituée par une plage braille.
Les transcriptions doivent être proposées que ce soit en vidéo ou en podcast. D’ailleurs, ça rentre dans la réglementation RGAA qui dit que tout contenu multimédia doit avoir une transcription textuelle comme alternative. Quand des transcriptions ne sont pas proposées, ça nous prive des connaissances que nous pourrions acquérir.
Quand elles sont disponibles, je suis trop contente et je n’hésite pas à partager avec ma communauté. Mais des fois, il m’est arrivé de voir que des transcriptions étaient réservées aux abonnés. Pourquoi devons-nous donner des données personnelles pour accéder à ces transcriptions alors que d’autres personnes peuvent écouter les podcasts sans s’inscrire ? Ce n’est pas très égalitaire.
Est-ce que la façon dont tu as perdu un sens peut impacter la façon dont tu utilises tes aides techniques ?
Oui bien sûr. Les personnes sourdes qui le sont depuis toujours, ou depuis longtemps, ont vu leurs autres sens se développer. Par exemple, elles ont appris à lire les sous-titres. On lit très vite puisqu’on n’accède pas à l’information par l’audition. Par contre, si tu perds l’audition en vieillissant et que les sous-titres défilent trop vite, tu vas avoir du mal. Tu ne t’es pas entraîné à le faire. Mais c’est aussi pour ça qu’il y a la charte pour la qualité des sous-titres depuis 2011. Il y a des bonnes pratiques à connaître pour l’utilisation des couleurs, le nombre de caractères, de lignes, etc. Parfois c’est frustrant, parce que ça force les sous-titreurs à résumer une phrase. Et quand on entend un petit peu avec des implants, on voit bien qu’il y a une différence, c’est perturbant.
Pour les personnes qui ont plusieurs handicaps, en ce moment il y a une réflexion pour adapter les couleurs des sous-titres pour sourds et malentendants. Le code couleur existe depuis les années 80. Par exemple, quand c’est une indication de bruit, on utilise le rouge. En magenta, c’est la musique. Pour les retranscriptions de langues étrangères on prend du vert. Du coup, pour les personnes daltoniennes qui utilisent les sous-titres, ça peut leur poser problème.
Nous avons aussi d’autres sens plus développés comme le toucher. Récemment, Apple a ajouté une nouvelle fonctionnalité : la musique tactile. C’est trop cool de pouvoir sentir la musique autrement via des vibrations.
Travailler en tant que développeuse sourde : défis et solutions
J'imagine que tu travailles parfois à distance. Comment se passent les réunions en visio pour toi ?
De manière générale, je vais utiliser le sous-titrage automatique et prier pour que ça marche. Là, par exemple, on se parle sur Microsoft Teams, j’utilise les sous-titres générés automatiquement pour te comprendre. Je ne peux pas lire sur tes lèvres car la résolution de ta webcam n’est pas assez bonne. Je t’entends avec mes implants, mais il y a une différence entre entendre et comprendre. Heureusement que les sous-titres peuvent m’aider, même s’il y a des erreurs. Il peut y avoir beaucoup d’erreurs selon le contexte, l’environnement et la personne qui parle. Plus le sujet est technique, moins ça marche. Quand je prends la parole, c’est truffé d’erreurs car l’IA a du mal avec les accents.
Par contre, quand j’ai des réunions avec plusieurs personnes qui parlent en même temps, les sous-titres générés automatiquement ont souvent des erreurs, surtout quand c’est technique. L’IA ne peut pas traiter ça correctement. Donc je m’organise à l’avance avec Tadeo, un service de transcription en ligne. La personne de Tadeo va rejoindre la réunion et rédiger des sous-titres de bien meilleure qualité pour moi. Bien sûr, ce sont des services qui ne fonctionnent qu’aux horaires de bureau sous réserve de disponibilité. Donc il faut savoir s’organiser en fonction des disponibilités.
Est-ce que ces services de transcription règlent complètement la situation de handicap dans ces cas-là ?
Oui même si parfois, les personnes qui sous-titrent ne connaissent pas toujours les termes techniques de mon métier. Donc je dois leur envoyer un lexique en amont. C’est normal, elles n’ont pas la science infuse ! Mais pour répondre à ta question, ces services m’aident beaucoup. Il n’y a pas que Tadeo, il y aussi Elioz et Le Messageur qui fonctionnent très bien.
Comment fonctionne le service de transcription ? La personne rejoint ta réunion ?
La personne du service de transcription peut rejoindre la réunion en audio ou bien y accéder via un routeur. Et moi j’ai trois écrans : un pour la réunion, un pour le code qu’on inspecte et un pour la transcription que je suis la seule à voir.
Est-ce que ces services ne proposent que de la transcription ?
Non, on peut aussi avoir un interprète en langue des signes (LSF) ou en Langue Parlée Complétée (LPC). La LPC, c’est un code pour rendre le français oral plus accessible aux personnes sourdes et malentendantes. On fait des signes de la main près du visage pour distinguer les sons qui se ressemblent quand on lit sur les lèvres.
Et ça ne marche pas que pour les réunions de travail. Quand je dois passer un appel commercial, comme appeler une banque ou une assurance, certains sites te proposent de passer par des centres relais téléphoniques disponibles en LSF, LPC ou transcription.
Le digital pour une utilisatrice sourde : barrières et solutions
Parlons de parcours utilisateur sur le digital. En tant que personne sourde, est-ce que tu peux utiliser un CAPTCHA ?
Effectivement, j’ai déjà eu des problèmes avec un CAPTCHA. En plus des implants cochléaires, j’ai aussi des lunettes. Parfois je ne vois rien ou j’ai du mal à distinguer les lettres donc je suis obligée de régénérer le code à chaque fois. Mais je ne vais jamais utiliser la vocalisation parce que je sais que ça ne m’aidera pas.
Malgré mes implants, le son de lettres différentes peut être difficile à distinguer pour moi. Par exemple, entre le P et le B, ou le F et le S, je n’entends pas de différence. Je me repère uniquement avec le contexte. C’est pour ça que c’est très compliqué pour moi quand on m’épelle des mots ou des chiffres, comme 6 ou 10. Mais pour revenir à ta question du CAPTCHA, on va faire le test ensemble.
Quelle alternative au CAPTCHA peut-on proposer pour sécuriser une connexion ?
On peut proposer des calculs mathématiques à résoudre. Si c’est une opération simple, ça ne devrait a priori pas poser de soucis aux personnes avec une déficience intellectuelle ou des troubles cognitifs. Moi je suis nulle en maths, mais 1+1=2, j’arrive à le résoudre. Il existe plein d’alternatives valables pour sécuriser une connexion correctement.
En tant qu'UX designer, si je ne pouvais faire qu’une seule chose pour toi, ce serait quoi ?
Il faut arrêter de rendre le numéro de téléphone obligatoire. Si on me le demande, je veux savoir pourquoi. Est-ce que c’est pour m’appeler ? Parce que je ne vais pas comprendre, je serai obligée de faire répéter plusieurs fois, surtout si la personne au téléphone ne fait aucun effort pour se faire comprendre. C’est épuisant. La plupart du temps, je mets un faux numéro de toute façon. Sauf si c’est pour un formulaire administratif officiel bien sûr. Mais psychologiquement, ça me bloque qu’on m’oblige à donner mon numéro de téléphone.
C’est aussi pour ça que j’ai besoin que les parcours sur Internet soient clairs. Si je ne peux pas remplir un formulaire toute seule, appeler un conseiller c’est pas une solution pour moi. En ce moment, je cherche des informations sur l’entreprenariat. Les formulaires sont incompréhensibles. Je suis obligée de demander à des gens de m’aider. Ce manque de clarté me rend complètement dépendante des autres.
Quand je dois contacter un service client, la première chose que je fais c’est de chercher le formulaire de contact par e-mail. Si je n’ai pas de réponse à mon premier e-mail, je tente une deuxième fois. Et si je n’ai toujours rien, je vais vérifier dans l’annuaire de la Fédération Française de l’Accessibilité s’ils ont un partenaire de transcription, LSF ou LPC. Mais ça ralentit toutes mes démarches !
Quand on prend rendez-vous sur Internet, il y a parfois un champ prévu pour donner des informations au conseiller en amont. Est-ce que tu t’en sers pour préciser qu’il ne faut pas t’appeler ?
Bien sûr, mais ça ne change rien ! J’ai beau préciser “je suis sourde, envoyez-moi un SMS ou un e-mail” mais les gens m’appellent quand même systématiquement. C’est insupportable ! Il y a toute une sensibilisation à faire.
Accessibilité et inclusion : des enjeux personnels aux défis sociétaux
Si je comprends bien, l’accessibilité doit faire partie de la stratégie d’entreprise et concerner tous les métiers à leur niveau.
Complètement. Le pire c’est quand on me laisse un message vocal. Je ne peux pas l’écouter ! C’est là que ça devient indispensable d’avoir un iPhone plutôt qu’un Android. Les fonctionnalités d’accessibilité ne sont pas les mêmes. Le transcript sur répondeur est proposé sur iPhone. Même si ça marche plus ou moins bien. Ça dépend aussi du modèle de téléphone que tu as… Il y a aussi des fonctionnalités qui ne marchent qu’en anglais pour le moment.
J’imagine qu’il y a une notion de moyens financiers qui rentre en jeu. La sécurité sociale prend en charge tes implants, mais pas ton téléphone, si ?
Non bien sûr. Et justement, la marque de mes implants, Cochlear, a fait un deal avec Apple pour développer les fonctionnalités compatibles avec les implants sur iPhone. Sur Android, ça fonctionne aussi mais il y a moins de fonctionnalités. Donc je n’ai presque pas le choix que d’acheter un iPhone. Et tout le monde ne peut pas se le permettre.
Est-ce qu’on ne devrait pas considérer ces téléphones comme des aides techniques ?
C’est une très bonne question. C’est vrai qu’Apple a fait énormément de choses pour l’accessibilité. Android aussi, mais c’est différent. Moi je ne peux pas me passer de mon téléphone. Alors quand on me parle d’éco-responsabilité, de ne pas acheter de nouveau téléphone si l’ancien fonctionne toujours… j’ai d’autres préoccupations avec ma surdité. On pourrait envisager une réduction pour les personnes handicapées qui achètent ces téléphones par nécessité.
J’ai l’impression que notre conversation prend une dimension politique. A l’heure où Trump vient d’être réélu, comment tu vois les choses ?
C’est plus que jamais nécessaire de continuer à se battre. Tout à l’heure, je donnais un webinaire sur l’IA au service de l’accessibilité. Et à la fin je disais aux gens, que peu importe que vous soyez un homme, une femme, une personne handicapée, LGBTQIA+… vous avez tout à fait votre place ! Mais c’est vrai que je leur ai dit ça au moment où Trump venait d’être réélu et ça m’a fait tout drôle. Ça a pris une autre dimension. Mais j’y crois toujours. Il faut qu’on fasse plus d’efforts. Je pense aux associations, à notre travail en accessibilité, il devient encore plus nécessaire. On a besoin d’être unis, de résister ensemble pour continuer à faire bouger les choses. Certes, un petit pas après l’autre, mais il faut continuer à avancer.