L’intelligence artificielle en santé mentale et autisme : promesses, défis et dilemmes éthiques

Publié le 14 mai 2025 à 22:37

Récemment, j’ai écouté une entrevue captivante diffusée sur le What’s Up Podcast de Jerr Allain, avec comme invité le Dr Guillaume Dumas, spécialiste en neuroscience computationnelle et intelligence artificielle appliquée à la santé. Pendant plus d’une heure trente, ils ont exploré les applications actuelles et futures de l’IA dans les soins médicaux, en particulier en santé mentale et dans le domaine de l’autisme.

Au-delà des découvertes fascinantes, cette discussion soulève des enjeux éthiques majeurs, interroge la place de l’humain dans le système de soins, et met en lumière des perspectives souvent méconnues sur la neurodiversité. Voici ce qui ressort de cette entrevue — un condensé des points essentiels et des réflexions à ne pas écarter dans le débat public sur l’IA et la santé.

IA et psychiatrie de précision : vers une médecine sur mesure

Grâce à l’IA, il devient possible d’analyser des quantités massives de données issues d’appareils portables, de dossiers médicaux électroniques, d’imagerie cérébrale et même des réseaux sociaux. Cette approche permet de modéliser la trajectoire unique de chaque individu, en identifiant des schémas invisibles à l’œil humain. La psychiatrie computationnelle vise à "geekifier" la discipline : utiliser les mathématiques et la modélisation pour transformer la théorie en pratique clinique.

Dans des cas comme l’autisme, cela permet de poser des diagnostics plus précoces, de mieux comprendre les profils neurodivergents et d’adapter les interventions.

IA et autisme : déconstruction des stéréotypes

Les travaux récents en hyperscanographie révèlent que les différences d’interaction sociale chez les personnes autistes ne relèvent pas d’un déficit individuel, mais d’un manque de synchronisation entre cerveaux — neurotypiques et neurodivergents. L’IA permet de modéliser ces dynamiques sociales et de sortir d’une vision déficitaire de l’autisme.

De nombreux individus autistes présentent par ailleurs des forces cognitives uniques qui, bien intégrées, représentent une richesse pour les milieux professionnels, scientifiques et créatifs.

Des risques de biais et de discrimination

L’IA n’est pas neutre. Les algorithmes peuvent reproduire ou amplifier les biais sociaux, notamment à l’encontre des minorités ou des personnes neurodivergentes, si les données d’entraînement sont biaisées.

Des services comme 23andMe ont déjà illustré les dangers de tests génétiques non réglementés, associant faussement certains profils à des maladies graves, provoquant détresse et anxiété sans fondement clinique solide.

Confidentialité, gouvernance et consentement

L'utilisation de l’IA en santé mentale repose sur des données extrêmement sensibles. Cela soulève des enjeux de confidentialité, de gouvernance et de consentement éclairé. Que devient une donnée médicale lorsqu’elle est entre les mains d’une entreprise privée ?

Confier ce savoir intime à des géants du numérique comme Google ou Meta pose des risques bien réels : surveillance commerciale, perte de contrôle, exploitation à des fins de profit, et conflits d’intérêts entre santé publique et logiques de marché.

L’IA peut-elle ressentir ?

L’un des débats les plus vertigineux abordés dans l’entrevue concerne la possibilité d’une conscience artificielle. Certains modèles d’IA, inspirés des réseaux neuronaux biologiques, pourraient théoriquement développer une forme de sensibilité.

Cela pose une question inédite : si une IA peut ressentir, peut-elle souffrir ? Et si oui, a-t-on le droit de l’utiliser comme simple outil, en particulier dans des contextes aussi sensibles que la santé mentale ou la guerre ?

Même sans conscience, les chatbots médicaux utilisés pour annoncer des diagnostics graves ou pour prendre des décisions cliniques automatisées manquent souvent de l’intelligence émotionnelle humaine.

IA en médecine : des avancées concrètes

L’IA est déjà utilisée dans des contextes médicaux avancés. En chirurgie de l’épilepsie, des simulations informatiques du cerveau permettent de cibler avec précision les zones à retirer.

Elle automatise aussi les tâches répétitives, soulageant les professionnels de santé de charges administratives pour leur permettre de se recentrer sur la relation humaine.

Mais cela ne suffit pas : les données utilisées doivent être diversifiées et représentatives pour que les algorithmes généralisent correctement sans créer de nouvelles inégalités.

Neurosciences, créativité et mystères de la conscience

Derrière ces technologies, on retrouve des modèles inspirés du cerveau humain. Les transformers, à l’origine d’outils comme ChatGPT, reprennent des principes issus des neurosciences comme l’attention et la mémoire de travail.

Mais malgré les progrès, la science peine encore à résoudre le "problème difficile" de la conscience : comment une activité neuronale objective peut-elle donner naissance à une expérience subjective ? Et peut-on espérer un jour reproduire cela dans une machine ?

L’art généré par IA, enfin, soulève des interrogations sur la créativité véritable : improvisation, intention, émotion — des éléments encore inaccessibles aux algorithmes.

Conclusion

L’intelligence artificielle ouvre des perspectives fascinantes pour la médecine, notamment en santé mentale et dans la compréhension de l’autisme. Elle permet d’individualiser les soins, d’automatiser les tâches ingrates, et d’explorer de nouvelles pistes scientifiques.

Mais ces avancées s’accompagnent de risques majeurs : biais algorithmiques, dérives commerciales, surveillance, perte d’humanité dans la relation soignant-patient, voire émergence d’une IA consciente.

Éthique, transparence, inclusivité et prudence doivent guider notre usage de ces outils. Car la santé mentale n’est pas un secteur comme les autres : il touche à l’intime, à la vulnérabilité… et à ce qui nous rend profondément humains.

Vidéo du What's up podcast par Jerr allain avec Dr.Guillaume Dumas:


Ajouter un commentaire

Commentaires

Il n'y a pas encore de commentaire.