
Personnaliser les séances en fonction des centres d’intérêt de leur patient, trouver plein d’exemples plus adaptés : les IA renouvellent les pratiques des soignants.
Au départ, seuls les professionnels les plus geeks se sont emparés des IA. Guillaume Lefebvre, orthophoniste et formateur en e-learning, fait partie de ces pionniers : « Mon fils m’a fait une démo pendant les vacances de Noël 2022 et j’ai tout de suite réfléchi à comment l’intégrer dans ma pratique professionnelle. Très vite, je l’ai adopté pour préparer mes séances », explique-t-il. Et désormais, ils sont de plus en plus nombreux à le faire.
Gagner du temps
Tous les professionnels utilisant ChatGPT s’accordent à dire qu’il leur simplifie la vie. Et ce n’est pas Claire Gouissem, orthophoniste à Longueau, qui dira le contraire. Depuis six mois, elle s’en sert pour une multitude de tâches, comme effectuer des recherches sur des maladies spécifiques, ou générer des textes et des listes de mots adaptés aux besoins de ses patients. « Plutôt que de perdre du temps à chercher des noms communs commençant par B et contenant deux syllabes, je demande à l’IA une liste de vingt mots », constate-t-elle. Conquise, elle a décidé de suivre la formation Ortho-IA de Guillaume Lefebvre, pour l’aider à rédiger ses bilans. Même constat pour Patrick Couny, masseur-kinésithérapeute et président de l’Union régionale des professionnels de santé Pays de la Loire, qui a créé un GPTs intitulé Bilan Kiné assist. Pour ce faire, il a fourni 80 anciens bilans portant sur diverses pathologies. Grâce à cet outil, les kinés peuvent générer un bilan en saisissant quelques informations clés comme le motif de consultation, les déficits observés, les objectifs de rééducation, les techniques utilisées ou envisagées ou tout autre renseignement utile.
Vers une rééducation personnalisée
Certains soignants vont encore plus loin en recourant à ChatGPT pour adapter les séances en fonction des centres d’intérêt de leurs patients. Daphnée Dumortier, orthophoniste à Douai, s’en est servie avec une patiente ayant perdu le goût et l’odorat à cause d’un Covid long. Cette dernière, nostalgique des chocolats chauds préparés par sa grand-mère à Noël, souhaitait retrouver l’odeur de cette boisson. Pour l’aider, la professionnelle a écrit un prompt incluant “chocolat chaud”, “mamie” et “Noël”, en ajoutant aussi "tendresse" et "humour" pour s’adapter à la personnalité de sa patiente. Ce texte, créé en quelques secondes par l’IA, accompagné d’une méditation rythmée par la thérapeute, a permis à la patiente de retrouver l’odeur et le goût de cette boisson. « J’ai été bluffée. La première fois, j’avais rédigé un texte sur la madeleine, mais il était beaucoup moins complet et surtout, j’y avais passé plus de temps… », confie-t-elle. Guillaume Lefebvre, va jusqu’à faire participer certains de ses patients à la création de prompts pour travailler l’oralité. Grâce à l’IA, il invente aussi des supports verbaux sur des sujets qui les intéressent, comme les mangas pour les enfants. Ainsi, pour ce professionnel qui ne se limite pas qu’à ChatGPT, tous les outils de rééducation peuvent être individualisés.
Un nouvel outil
Pour Victor Fayolle, étudiant à l’Institut de formation en masso-kinésithérapie de Saint-Étienne qui consacre son mémoire à ChatGPT, « il faut le voir comme un instrument supplémentaire qui s’ajoute à la boîte à outils des kinés, tout comme les livres d’anatomie. » Malgré l’efficacité de ChatGPT, les soignants reconnaissent qu’il ne doit pas remplacer l’intervention humaine car « il faut toujours un humain à la fin de chaque tâche », estime Patrick Couny. Cependant, pour Rania Kassir, orthophoniste et doctorante en neuropsychologie et neurosciences, « l’IA ne remplace pas encore le contact humain. Mais, à l’avenir, les rôles de certains thérapeutes pourraient se transformer en des fonctions de monitoring », conclut-elle.
POurquoi ne pas envisager un rôle de veille des thérapeutes,c'est à dire de continuer à étudier leur discipline comme si demain une panne générale de l"informatique " devait se produire. Généraliser une éducation à la compréhension intime du systhème serait une simple prudence en même temps qu'une façon de maintenir l'emploi. En l'occurence, utiliser GPT, ne veut pas dire maitriser son fonctionnement et, faute d'une culture des gestes du metier acquis sans IA, serait en devenir son esclave. L'esprit critique indispensable dans toutes les décisions nécessite une maîtrise du savoir et de l'art que le simple alignement de mots clé ne saurait remplacer.IA utilisée comme outil est inévitable et salutaire à conditionon de ne pas laisser, à un groupe restraints d'experts uniquement, le soin de façonner cet outil et de le réparer à leur gré. Les efforts de l'éducation nationale pour restraindre l'utilisation de l'IA dans les épreuves des examens nous montrent clairement la difficulté à maintenir une authentique production personnelle des candidats ou la dialectique est nourrie par le dur travail d'appropriation du savoir. La restriction en pourcentage d'utilisation à laquelle certains enseignants ont recours n'est sûrement pas la solution.
Bonsoir,
Je suis un particulier et je m'intéresse à un sujet, particulièrement: celui de l'authenticité de l'IA, de ses déviances masquant une simple base de données de jadis, offrant des critères multiples de sélection mais jamais considérée comme de l'IA (selon moi).
En réalité, ce qui m'intéresse ce sont les programmes informatiques sous C++, Python et les autres. A quel moment-clef peut-on considérer qu'ils ont franchi la ligne rouge, c'est-à-dire qu'ils sortent de la création humaine pour pénétrer dans la création off-man ?
Hors de cette dialectique, on peut considérer qu'un agriculteur en semant du blé "ordinaire" ne pratique pas l'IA, pas plus que les semenciers en créant des hybrides ne sortent pas de l'humain: ils se dénoncent eux-mêmes: l'Homme crée alors l'hybride, et non le robot. Sachant évidemment que le robot auto-conçu et créé sans intervention humaine ne semble pas vraiment exister.
Je pense que c'est un article rédigé par ChatGPT, car celui qui a rédigé cet article n'a jamais utilisé ChatGPT dans le cadre professionnel. Ca par exemple c'est totalement impossible "Pour ce faire, il a fourni 80 anciens bilans portant sur diverses pathologies. Grâce à cet outil, les kinés peuvent générer un bilan en saisissant quelques informations clés comme le motif de consultation", car ChatGPT a une limite de 4096 tokens. C'est une limite mémoire au-delà il oublie les choses plus anciennes, donc il ne peut pas travailler sur 80 anciens bilans. Régulièrement il me raconte n'importe quoi car il a oublié les éléments précédents.
oui IA devrait etre adoptée par nos gouvernants, députés, ministres et autres ...mais ils apprennent où ? retour sur les bancs de l'écolz!!!