Etude : l’empathie des chatbots d’IA mise à mal par des biais raciaux
Publié le jeudi 19 décembre 2024 à 18h11
IA Prevention santé mentaleDes chercheurs du MIT, de l'Université de New York et de l'UCLA ont mené une étude pour évaluer la capacité des grands modèles de langage (LLM) à fournir du soutien en santé mentale de qualité. Leurs travaux*, partagés lors de la Conference on Empirical Methods in Natural Language Processing (12-16 novembre), montrent que les LLM font bel et bien preuve d’empathie mais souffrent de biais raciaux.