Chatbot AI porte des jugements racistes sur la base du dialecte

Dans le domaine des avancées de l'intelligence artificielle, une révélation troublante a fait surface concernant les tendances préjudiciables des grands modèles de langage (LML). Ces systèmes d'IA puissants, tels que ceux qui alimentent les fonctionnalités de chat populaires telles que ChatGPT, ont été démasqués en faisant des jugements racistes basés sur les dialectes des utilisateurs.

Une étude préimprimée récente a découvert que certains modèles d'IA présentent des préjugés qui favorisent les associations négatives avec l'anglais afro-américain (AAE) par rapport à l'anglais américain standardisé (SAE). De manière choquante, ces chatbots étaient enclins à recommander des mesures plus sévères, comme la peine de mort, pour un délinquant hypothétique exprimé dans AAE. De plus, les recommandations d'emploi de ces systèmes d'IA se sont penchées vers des rôles moins prestigieux pour les orateurs AAE, indiquant un biais systémique.

La recherche, dirigée par Valentin Hofmann de l'Institut Allen pour l'IA, met en lumière le racisme latent intégré dans ces modèles, même lorsque les préjugés évidents peuvent ne pas être explicitement visibles. Ce racisme latent pose des risques significatifs, en particulier dans des domaines critiques comme l'emploi et la justice pénale, où ces systèmes d'IA pourraient perpétuer des stéréotypes préjudiciables et des jugements injustes.

L'étude met en évidence un défaut fondamental dans les stratégies actuelles de atténuation des biais de l'IA, soulignant que la simple réparation des biais après la formation à l'aide de commentaires humains ne s'attaque pas au problème sous-jacent. Ces modèles biaisés, qui s'appuient sur des données Internet étendues mais non filtrées, perpétuent des associations négatives, en particulier pour les communautés marginalisées.

Les conclusions de l'étude soulignent la nécessité urgente d'un changement de paradigme dans la manière dont les éthiques de l'IA sont abordées, exigeant des mesures proactives pour empêcher les algorithmes biaisés de renforcer les stéréotypes préjudiciables et le traitement injuste. À mesure que le paysage de l'IA évolue, il est impératif de résoudre ces préjugés inhérents pour garantir un déploiement équitable et éthique des systèmes d'IA dans la société.

Cette plongée profonde dans la nature sournoise du biais dans les modèles d'IA sert d'appel aux armes pour l'industrie technologique et les décideurs politiques pour prioriser l'équité et l'inclusivité dans le développement de l'IA. Ce n'est qu'en relevant et en corrigeant ces préjugés à leur racine que nous pouvons tracer la voie vers un avenir plus équitable et juste propulsé par l'IA.

Source: <https://www.nature.com/articles/d41586-024-00779-1>

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA