Les PDG d'OpenAI, de Google et de Microsoft se joindront à d'autres leaders technologiques sur...

Dans un geste novateur, le gouvernement américain a annoncé la création d'un panel fédéral de sécurité de l'IA, réunissant des PDG de certaines des plus grandes entreprises technologiques du monde, telles que Google, Microsoft et OpenAI, pour conseiller sur l'utilisation de la technologie de l'IA dans la défense des infrastructures critiques.

Le panel, connu sous le nom de Conseil de la sécurité et de la sûreté de l'IA, sera composé de 22 membres, dont des PDG de sociétés de défense, de compagnies aériennes, de fournisseurs de technologie, de fabricants de puces, de développeurs de modèles d'IA et de groupes de défense des droits civils. Il comprendra également des fonctionnaires fédéraux, étatiques et locaux, ainsi que des universitaires de premier plan en IA.

La création du panel reflète la collaboration étroite du gouvernement américain avec le secteur privé alors qu'il s'emploie à relever les défis et les avantages de l'IA en l'absence d'une loi nationale ciblée sur l'IA. Le panel fournira des recommandations aux entreprises de télécommunications, aux exploitants de pipelines, aux services publics d'électricité et à d'autres secteurs sur la manière de faire un usage responsable de l'IA et de se préparer aux perturbations liées à l'IA.

Le panel est une évolution d'un décret présidentiel de 2023 signé par le président Joe Biden, qui appelait à un organisme intersectoriel pour formuler des recommandations visant à améliorer la sécurité, la résilience et la réponse aux incidents liés à l'utilisation de l'IA dans les infrastructures critiques.

Le mouvement intervient alors que les deepfakes audio et vidéo, qui utilisent l'IA pour diffuser des contenus faux, ont émergé comme une préoccupation majeure pour les responsables américains qui cherchent à protéger l'élection américaine de 2024 contre la désinformation généralisée et la mésinformation. Un faux appel automatisé imitant la voix de Biden a exhorté les démocrates à ne pas voter lors des primaires du New Hampshire, déclenchant des alarmes parmi les responsables américains axés sur la sécurité électorale.

La création du panel fait suite à la mise en œuvre de règles gouvernementales régissant l'achat et l'utilisation de l'IA par les agences fédérales dans leurs propres systèmes. Le gouvernement américain utilise déjà l'apprentissage automatique ou l'intelligence artificielle à plus de 200 fins distinctes, telles que la surveillance de l'activité des volcans, le suivi des incendies de forêt et l'identification de la faune à partir d'images satellite.

Les PDG participants du panel comprennent Sundar Pichai de Google, Satya Nadella de Microsoft et Sam Altman d'OpenAI, ainsi que les dirigeants de Northrop Grumman et de Delta Air Lines, des fournisseurs de technologie tels qu'Amazon Web Services, IBM et Cisco, des fabricants de puces tels qu'AMD, et des développeurs de modèles d'IA tels qu'Anthropic.

Des groupes de défense des droits civils tels que le Comité des avocats pour les droits civils sous la loi seront également représentés au sein du panel, ainsi que des universitaires de premier plan en IA tels que Fei-Fei Li, codirectrice de l'Institut de l'intelligence artificielle centrée sur l'homme de l'Université de Stanford.

La création du panel marque une étape importante vers l'utilisation sûre et responsable de la technologie de l'IA dans les infrastructures critiques et reflète la reconnaissance du gouvernement américain de la nécessité d'une collaboration étroite avec le secteur privé pour faire face aux risques et aux avantages de l'IA.

Sources :
<https://www.cnn.com/2024/04/26/tech/openai-altman-government-ai-safety-panel/index.html>

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA