L'intelligence artificielle (IA) révolutionne de nombreux domaines, mais son utilisation croissante soulève des inquiétudes concernant les mauvais usage que l'on peut en faire.
Cette veille explore les problèmes que cause l'IA sur la remise en question de l'identité réel d'un contenu et des efforts à fournir pour la détecter.
L'usurpation d'identité par l'IA exploite l'apprentissage automatique sur une personne dans tout ses caractéristiques personnel possible de l'apparence jusqu'à la voix, afin de pouvoir la reproduire de façon la plus réaliste possible.
Les résultats de cette pratique que des personnes mal intentionné vont récupérer, peuvent être pour la création de faux profils sur les réseaux sociaux, la génération de vidéos ou d'audios contrefaits ou bien encore des nuisances à la réputation d'une personne, victime de cette pratique.
Un exemple alarmant généré grâce à l'IA sont les deepfakes. Ce sont des vidéos créé avec des données d'un individus et généré de manière réaliste. Ces deepfakes sont très souvent utilisés pour diffuser de fausses informations à titre parodique ou/et politique avec l'apparence d'une personne souvent connue pour toucher un grand public.
Cette pratique peut engendrer des conséquences sur beaucoup de personnes tel que :
Des outils tel que DeepFaceLab, Deepswap, DeepFakes Web ... sont des exemples qui permettent de créer des deepfakes. Il existe également des générateur d'images comme Dall-E qui permet de générer des images à partir de texte.
Face à ces risques, des solutions peuvent permettre de détecter et se protéger de ce type contenus
Pour le moment malgré le réalisme il est encore possible de détecter à l'oeil nu des deepfakes grâce à des détails ou/et finitions qui ne sont pas encore au point tel que un doigt en trop sur une main, une forme non réaliste...
Les médias qui relayent des informations sur des actualités sont à vérifier en les comparant avec d'autres sources avant de s'y fier directement.
Il est notamment important de sensibiliser les personnes sur les risques de deepfakes et de les éduquer sur les moyens de les détecter.
Au sein de l'Union Européenne, la réglementation des IA en général est toujours en cours et en constante évolution notamment depuis l'essor que OpenAI a connus en fin 2022, par la popularité qu'elle a pu en faire en bien et en mal. Des loi tel que pour la possibilités de porter plainte contre des deepfakes à son image sont en vigueur.
L'IA offre un immense potentiel pour le futur, mais son utilisation très croissante doit s'accompagner d'une vigilance accrue face aux risques d'être détourné à des mauvaises fins. La constante vigilance par la sensibilisation et la réglementation sont des solutions pour lutter contre des abus à venir.