Le deepfake de la voix du directeur est le dernier cas d'utilisation de l'IA pour...

Dans un incident choquant mettant en évidence le potentiel alarmant de la technologie deepfake, un principal de lycée du Maryland a récemment été victime d'un enregistrement audio synthétique qui imitait sa voix et faisait des commentaires racistes et antisémites. Cet incident est un autre exemple de l'intelligence artificielle utilisée à des fins malveillantes, soulevant des inquiétudes concernant la accessibilité et le potentiel de préjudice de cette technologie évolutive rapidement.

L'enregistrement audio falsifié a été créé à l'aide d'une intelligence artificielle générative, un sous-ensemble de l'intelligence artificielle qui peut générer de nouveaux médias hyperréalistes tels que des images, des vidéos et des clips audio. Cette technologie est devenue de plus en plus accessible au cours des dernières années, toute personne disposant d'une connexion Internet pouvant manipuler des sons et des images enregistrés pour quelques dollars par mois. La facilité et le coût abordable de cette technologie ont rendu possible la falsification de l'information, pouvant causer un préjudice et propager la désinformation.

Dans l'incident du Maryland, l'enregistrement de la voix du principal a été fabriqué par Dazhon Darien, le directeur athlétique de Pikesville High. L'enregistrement contenait des commentaires racistes et antisémites et a été envoyé dans un e-mail à certains enseignants avant de se répandre sur les réseaux sociaux. L'enregistrement a fait surface après que le principal a soulevé des inquiétudes concernant les performances professionnelles du directeur athlétique et les allégations d'utilisation abusive des fonds scolaires.

L'enregistrement frauduleux a contraint le principal à s'absenter et la police a gardé sa maison, alors que des appels téléphoniques haineux inondaient l'école. Des messages haineux se sont accumulés sur les réseaux sociaux, causant une détresse et une perturbation importantes.

Alors que de nombreux cas de désinformation générés par l'IA se présentent sous forme audio, d'autres tendances inquiétantes ont émergé, telles que des programmes qui créent de fausses images nues de personnes habillées sans leur consentement, y compris des mineurs. La chanteuse Taylor Swift a récemment été ciblée.

Les entreprises qui fournissent une technologie de génération de voix AI interdisent l'utilisation dommageable de leurs outils, mais l'auto-application varie. Certains fournisseurs exigent une sorte de signature vocale ou demandent aux utilisateurs de réciter une série de phrases uniques avant qu'une voix ne puisse être clonée. Cependant, davantage doit être fait pour réglementer cette technologie et prévenir sa mauvaise utilisation.

Une idée consiste à exiger que les enregistrements et les images portent une empreinte numérique, ce qui permettrait aux logiciels d'identifier les fichiers manipulés. L'éducation des consommateurs et les mesures d'application de la loi contre l'utilisation criminelle de l'IA sont également essentielles.

En conclusion, l'incident du Maryland met en évidence la nécessité urgente de réglementer et de contrôler l'utilisation de la technologie deepfake. Bien que la technologie AI générative ait le potentiel de créer de nouveaux médias hyperréalistes, elle peut également être utilisée à des fins malveillantes, causant un préjudice et propageant la désinformation. Il est crucial de prendre des mesures pour prévenir la mauvaise utilisation de cette technologie et protéger les individus des préjudices potentiels qu'elle peut causer.

Source: <https://www.seattletimes.com/nation-world/nation/deepfake-of-principals-voice-is-the-latest-case-of-ai-being-used-for-harm/>

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA