Un responsable du Massachusetts met en garde les systèmes d'IA soumis à la protection des consommateurs...

Dans un geste historique, la procureure générale du Massachusetts, Andrea Campbell, a émis une mise en garde à l'attention des développeurs, fournisseurs et utilisateurs de systèmes d'intelligence artificielle (IA), les informant qu'ils doivent se conformer aux lois étatiques en vigueur en matière de protection des consommateurs, de non-discrimination et de confidentialité des données. Cette annonce intervient alors que la technologie de l'IA devient de plus en plus omniprésente dans le monde des affaires, en particulier dans les technologies axées sur les consommateurs.

La procureure générale Campbell a souligné que les lois étatiques actuelles s'appliquent toujours aux technologies émergentes, y compris les systèmes d'IA, malgré la complexité de ces derniers. Le document met en lumière le potentiel des avantages considérables que l'IA pourrait apporter à la société et au marché, mais avertit également des risques réels de préjudice qui peuvent résulter de la partialité et de l'absence de transparence au sein des systèmes d'IA.

Le document met en évidence plusieurs actions qui pourraient être considérées comme trompeuses ou déloyales en vertu des lois étatiques de protection des consommateurs, telles que la publicité mensongère sur la convivialité des systèmes d'IA, la fourniture de systèmes d'IA défectueux et la présentation erronée de la fiabilité ou de la sécurité d'un système d'IA. De même, la présentation de contenu audio ou vidéo de manière trompeuse concernant une personne dans le but de tromper une autre personne pour qu'elle effectue une transaction commerciale ou divulgue des informations personnelles via des deepfakes, du clonage vocal ou des chatbots utilisés à des fins frauduleuses pourrait constituer une violation de la loi étatique.

Le but de Campbell est d'encourager les entreprises à s'assurer que leurs produits et services d'IA sont exempts de préjugés avant leur mise en circulation. Les régulateurs ont également souligné l'importance de la transparence, en exhortant les entreprises à divulguer aux consommateurs lorsqu'ils interagissent avec des algorithmes.

Elizabeth Mahoney du Massachusetts High Technology Council, qui plaide pour l'économie technologique de l'État, a souligné l'importance de préciser clairement la loi étatique. Elle a déclaré : "Nous pensons qu'il est important d'avoir des règles du jeu et que la protection des consommateurs et la protection des données en sont un élément clé."

Le document reconnaît les avantages potentiels de l'IA, tout en reconnaissant également les risques qu'elle présente. Les développeurs et fournisseurs d'IA prétendent souvent que leurs systèmes d'IA et technologies sont précis, équitables et efficaces, tout en admettant que l'IA est une "boîte noire", ce qui signifie qu'ils ne savent pas exactement comment l'IA fonctionne ou produit des résultats. Le document note que les lois anti-discrimination de l'État interdisent aux développeurs, fournisseurs et utilisateurs d'IA d'utiliser une technologie qui discrimine les individus sur la base d'un caractère protégé par la loi.

En bref, l'avis de la procureure générale du Massachusetts, Andrea Campbell, rappelle que la technologie d'IA est soumise aux lois étatiques en matière de protection des consommateurs, de non-discrimination et de confidentialité des données. Alors que l'IA devient de plus en plus omniprésente dans le monde des affaires, les régulateurs et les dirigeants de l'industrie doivent travailler ensemble pour s'assurer que ces technologies sont transparentes, exemptes de préjugés et se conforment à la réglementation en vigueur.

Source : <https://www.westernmassnews.com/2024/04/17/massachusetts-official-warns-ai-systems-subject-consumer-protection-anti-bias-laws/>

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA