Tous les regards sont tournés vers la cyberdéfense alors que les élections entrent dans l’ère de l’IA générative

À l'approche des élections majeures dans l'ère de l'intelligence artificielle générative (IA), l'accent se déplace des systèmes informatiques vers les vulnérabilités humaines. En effet, l'IA générative a non seulement modifié le volume et la vitesse de diffusion des contenus, mais également leur exactitude. Les hacktivistes et les acteurs étatiques étant plus enclins à exploiter les êtres humains que les systèmes informatiques, il est fort probable que les cibles soient les humains.

Allie Mellen, analyste principale chez Forrester Research, a mis en évidence le rôle des entreprises de médias sociaux dans la protection contre la propagation de la mésinformation et de la désinformation. Les recherches de Mellen portent sur les opérations de sécurité, les menaces d'États-nations et l'utilisation de l'apprentissage machine et de l'IA dans les outils de sécurité. Elle a souligné l'importance pour les entreprises technologiques de prendre conscience que la sécurisation des élections ne relève pas uniquement des gouvernements, mais constitue un défi national plus large pour chaque organisation de l'industrie.

Une étude menée par Yubico et Defending Digital Campaigns a révélé que 79 % des électeurs américains s'inquiètent de l'utilisation de contenus générés par l'IA pour usurper l'identité d'un candidat politique ou créer un contenu frauduleux. De plus, 41 % des personnes interrogées ont considéré qu'un clip audio généré par l'IA était humain.

Michael Kaiser, président et PDG de Defending Digital Campaigns, a souligné l'importance de mettre en place les mesures de cybersécurité adéquates pour les opérations politiques. David Treece, vice-président de l'architecture des solutions chez Yubico, a invité les candidats à prendre les mesures nécessaires pour protéger leurs campagnes et à adopter des pratiques de cybersécurité pour renforcer la confiance des électeurs.

Une augmentation de la conscience publique des contenus faux est essentielle, car l'être humain demeure le dernier rempart contre ces menaces. Nathan Wenzler, stratège en cybersécurité en chef chez Tenable, une entreprise de cybersécurité, a averti que les acteurs étatiques étaient susceptibles d'abuser de la confiance du public par la mésinformation et la désinformation. Il a également insisté sur la nécessité d'établir des procédures de gouvernance et des couches de validation appropriées pour s'assurer que les transactions sont authentiques.

Les organisations doivent être attentives aux données utilisées pour former les modèles d'IA. Les données servant à former les grands modèles linguistiques doivent être validées et protégées contre les attaques malveillantes. Les acteurs étatiques peuvent cibler les grands modèles linguistiques pour accéder aux moteurs et manipuler les réponses générées par les plateformes d'IA générative.

Compte tenu de la nouveauté des IA génératives, il peut être difficile pour les administrateurs de gérer de tels systèmes et de comprendre la génération des réponses. Les organisations peuvent atténuer les risques en utilisant des modèles de langage plus petits, plus ciblés et conçus sur mesure pour gérer et protéger les données utilisées pour former leurs applications d'IA générative.

Wenzler a exhorté les gouvernements à agir rapidement et à établir les cadres et les règles nécessaires pour faire face aux risques liés aux IA génératives. Ces règles fourniront les orientations nécessaires pour guider les organisations dans leur adoption et leur déploiement des applications d'IA générative.

Source : <https://www.zdnet.com/article/all-eyes-on-cyberdefense-as-elections-enter-the-generative-ai-era/>

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA