Spread the love


Invités par Vivason, trois experts issus des plus grandes marques mondiales d’appareils auditifs ont répondu à leurs questions pour explorer le futur des aides auditives avec l’intelligence artificielle : Mikael Menard, docteur en acoustique et responsable de la formation chez Signia ; Julien Nizard, directeur de l’audiologie au sein de Starkey et Jean-Baptiste Lemasson, directeur audiologie et formations chez GN Hearing France.

Plus que jamais incontournable, l’intelligence artificielle se démocratise de plus en plus, notamment auprès du grand public. Elle s’intègre progressivement sur les aides auditives, notamment avec du machine learning pour optimiser le traitement du signal. Mais ces évolutions restent timides comparées à d’autres secteurs. VivaSon se pose donc la question : pourra-t-on aller plus loin ? Quelles futures applications les fabricants envisagent-ils, et quelles sont les limites éventuelles ? Nos experts nous éclairent.

Avec l’accélération des progrès de l’intelligence artificielle, quelle pourrait être la place de cette technologie pour les aides auditives dans le futur ?

Mikael Menard : Aujourd’hui, le grand public a une image un peu magique de l’intelligence artificielle, avec ChatGPT ou des images transformées. Mais cela nécessite des capacités de calcul énormes. 

Aujourd’hui, l’une des contraintes majeures des aides auditives est leur consommation : pour obtenir des appareils très compacts, il faut de très petites piles et batteries, tout en ayant une autonomie d’au moins une journée. Cela ne permet pas pour l’instant d’intégrer la puissance de l’intelligence artificielle à ces appareils, mais c’est une des directions vers lesquelles on tend, pour à terme extraire une voix dans une conversion bruyante et la rendre parfaite, ou bien faire de la traduction instantanée. Mais nous sommes déjà capables de faire des choses fantastiques en termes de traitement dans une aide auditive : nous n’avons pas attendu l’IA pour cela. 

Quelles améliorations l’IA pourrait amener aux aides auditives ?

Jean Baptiste Lemasson : À terme, l’IA pourrait être utilisée par l’utilisateur à travers de la reconnaissance vocale, pour demander certaines fonctionnalités et modifier le traitement de signal, en fonction du bruit environnant par exemple. Cela permettrait d’apporter une personnalisation dans le traitement de signal, en fonction des préférences de l’utilisateur, pour optimiser l’appareil.

MM : L’IA devrait aider à mieux comprendre ce que le patient attend dans son écoute, et ainsi aider l’appareil à faire les bons choix dans un environnement donné. Actuellement, on n’est pas encore capable d’évaluer la pertinence de tel son ou telle voix pour le porteur avec de simples algorithmes. Cela passera donc par de l’intelligence artificielle, mais aussi des capteurs différents, qui sont déjà en train d’être intégrés.

Julien Nizard : Grâce à l’IA, on devrait pouvoir améliorer l’expérience des utilisateurs au niveau de la rééducation auditive. Le but d’un appareil auditif est d’aider le patient à mieux comprendre, notamment en milieu bruyant. Grâce au machine learning, on pourra entraîner l’IA à reconnaître avec plus de précision les formes acoustiques jugées utiles de celles jugées inutiles, en les exposant à beaucoup de données. Plus la base de données grandit, plus les réponses acoustiques de l’aide auditive seront pertinentes.

L’IA pourrait contribuer à améliorer le confort de vie, mais aussi la santé des malentendants ?

JN : En réalité avec l’intelligence artificielle, on ne veut pas seulement entendre mieux, on veut aussi étendre le champ d’action de l’appareil auditif. Cela fait longtemps qu’on a des preuves scientifiques établies de l’impact d’une mauvaise audition sur la santé globale : risques de démence et de sénilité, développement précoce du syndrome d’Alzheimer, mais aussi des risques de chutes, car le manque d’équilibre est exacerbé. Il y a également un lien avec une hausse de l’isolement, de la sédentarité et donc des risques de complications cardiovasculaires. 

Avec l’appareil auditif, on veut donc faire une passerelle vers une meilleure audition, mais également vers une meilleure santé globale, grâce à des fonctionnalités de santé connectées pour aider le patient à mieux vivre.

Comment cela pourrait se traduire ?  

JBL : Dernièrement, on a lancé une étude sur l’analyse de la texture de la voix pour anticiper les risques de maladies neurodégénératives comme Alzheimer ou Parkison. Grâce au changement de texture de la voix enregistré via les aides auditives, l’intelligence artificielle pourrait détecter si le patient est susceptible de développer une pathologie.

Au quotidien, quelles améliorations concrètes de l’expérience des utilisateurs pourrait-on imaginer grâce à l’IA ?

JN : On a mis en place un algorithme intelligent qui analyse l’activité des capteurs de mouvement intégrés dans les appareils auditifs pour détecter une chute du patient. À travers le smartphone auquel il est connecté, il peut déclencher une alerte par SMS à trois personnes de confiance, qui recevront l’information de la chute du patient et de sa position géographique. En revanche, si seul l’appareil auditif tombe, il ne se passe rien.

Aujourd’hui, on se sert également de l’appareil pour suivre l’activité et l’engagement du patient, et lui dire s’il a suffisamment été en mouvement, s’il a suffisamment porté ses appareils auditifs.

MM : Dans un environnement bruyant, l’IA pourrait extraire le signal vocal en temps réel et le recréer artificiellement, en nettoyant le bruit autour, pour le redonner aux patients qui ne comprennent pas la voix en face d’eux.

Leave a Reply

Your email address will not be published. Required fields are marked *