DL4T
-
Le projet Deep Law for Tech
- Chaire Droit économique et intelligence artificielle
- Fablex
- Réseau Experts DL4T
- Droit, IA et algorithmes
- Régulation des marchés
-
Module DL4T "Cyber, Intelligence Artificielle et Défense"
-
École d'été / Summer School
- Publications
-
Webinaires, Replay et Podcasts
-
Nous contacter
Rédigé par Yankel Baranes, étudiant en M2 Université Côte d'Azur
Ces derniers mois, le grand public était sensibilisé au réalisme de la technologie du deepfake par des images ou vidéos humoristiques telles que des montages présentant le pape en doudoune ou des chefs politiques dans des situations ubuesques. Loin de se limiter à des usages humoristiques, les potentielles utilisations malveillantes de cet outil sont nombreuses. Un deepfake visuel et auditif a conduit un employé d’une multinationale hongkongaise à transférer 25 millions de dollars à des cybercriminels se faisant passer pour des membres de la société au cours d’une visioconférence. L’usurpation de la voix et de l’image a été rendue possible par la simple utilisation des vidéos de conférence de l’entreprise disponibles sur Internet pour alimenter l’IA. Par ailleurs, il faut s’attendre à une augmentation de l’utilisation de l’IA à des fins préjudiciables tant les progrès de ces outils sont exponentiels. Cette question a fait l’objet d’une actualité légale récente. En effet, les législateurs français et européens se sont emparés du sujet par la loi du n°2024-449 du 21 mai 2024 et l’AI Act. Ces deux textes, bien que différents dans leur approche semblent se compléter utilement.