Sécurisez vos données pour profiter en toute confiance de l'IA générative avec...

Dans le monde en constante évolution de l'intelligence artificielle générative, la sécurité des données et la conformité sont devenues primordiales. Avec un pourcentage alarmant de 80% de dirigeants qui citent les fuites de données comme préoccupation principale, il est clair que les organisations doivent prendre de l'avance sur les risques associés à la mise en partage des données avec des applications d'intelligence artificielle. Microsoft Purview, un ensemble de fonctionnalités visant à aider les organisations à découvrir, protéger et gouverner les données dans un monde axé sur l'IA, a introduit de nouvelles innovations pour sécuriser et gouverner l'IA.

La loi européenne sur l'IA, le cadre de gestion des risques de l'IA (AI RMF) du NIST, la norme ISO/IEC 23894:2023 et la norme ISO/IEC 42001 ne sont que quelques-uns des nouveaux règlements et normes auxquels les organisations doivent se conformer lors de l'intégration et du déploiement de solutions d'IA. Des modèles d'évaluation de la conformité de Microsoft Purview ont été introduits pour aider les organisations à évaluer, mettre en œuvre et renforcer les contrôles de conformité afin de répondre aux exigences réglementaires et aux normes de l'IA.

Microsoft Purview AI Hub, désormais disponible en préversion publique, aide les organisations à découvrir comment les applications d'IA telles que Copilot for M365 et les applications tierces d'IA sont utilisées dans leur organisation. L'AI Hub propose des politiques prêtes à l'emploi pour protéger les données et offre de nouvelles informations sur les fichiers non étiquetés et les sites SharePoint référencés par Microsoft Copilot for Microsoft 365. Cela aide les organisations à hiérarchiser les risques de données les plus critiques et à mettre en place des politiques de protection pour prévenir le potentiel d'une divulgation excessive de données sensibles.

De nouvelles informations sur une utilisation non conforme et non éthique des interactions avec l'IA seront également incluses dans la version publique préliminaire de l'AI Hub. Cela aide les organisations à obtenir rapidement des informations sur une utilisation non éthique, telles que la collusion réglementaire, le blanchiment d'argent, le harcèlement ciblé et plus encore.

Alors que les organisations adoptent Copilot for Microsoft 365, les contrôles de sécurité des données deviennent primordiaux pour éviter une éventuelle sur-exposition de données sensibles ou de sites SharePoint. Microsoft Purview AI Hub aborde ce défi en mettant en évidence les fichiers non étiquetés et les sites SharePoint référencés par Copilot, vous aidant à hiérarchiser vos risques de données les plus critiques et à prévenir le potentiel d'une divulgation excessive de données sensibles.

Pour les applications tierces GenAI, Microsoft Purview Data Loss Prevention offre des capacités pour empêcher les utilisateurs de coller des données sensibles dans des invites GenAI. La Protection adaptative dans Microsoft Purview vous permet d'adopter une approche proactive en matière de sécurité en bloquant activement les utilisateurs à haut risque de coller des données sensibles dans une application tierce GenAI, tout en autorisant les utilisateurs à faible risque à le faire.

Microsoft Purview propose des outils de conformité intégrés spécifiquement conçus pour répondre aux préoccupations des gestionnaires de la conformité et des risques en matière d'utilisation non conforme de l'IA. Les organisations peuvent utiliser Microsoft Purview Audit pour capturer les interactions de Copilot et configurer les Microsoft Purview Data Lifecycle Management les politiques de rétention ou de suppression des invites et des réponses de Copilot.

Microsoft Purview Communication Compliance peut détecter les invites et les réponses Copilot à risque, telles que celles impliquant des cadeaux ou une divulgation non autorisée d'informations sensibles. Ces informations sont également mises en évidence dans l'AI Hub afin que vous puissiez proactivement obtenir une visibilité sur l'utilisation non éthique et non conforme de l'IA.

De plus, Microsoft Purview eDiscovery améliore les capacités de réponse aux litiges en simplifiant la conservation et la collecte de données pertinentes de Copilot. Cela garantit que les organisations peuvent répondre efficacement aux défis et enquêtes juridiques, minimisant l'exposition potentielle au risque juridique et préservant leur réputation.

En conclusion, alors que l'intelligence artificielle générative continue de révolutionner la façon dont nous travaillons, il est essentiel pour les organisations de sécuriser et de gouverner l'IA de manière efficace. Avec Microsoft Purview, les organisations peuvent découvrir, protéger et gouverner les données dans un monde axé sur l'IA, assurant la conformité avec les exigences émergentes de conformité réglementaire en matière d'IA.

Source: <https://techcommunity.microsoft.com/t5/security-compliance-and-identity/secure-your-data-to-confidently-take-advantage-of-generative-ai/ba-p/4127335>

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA