Sora d’OpenAI : Devrions-nous craindre ce nouveau générateur de vidéos IA ?

0
38
Sora : le générateur de vidéos d’OpenAI relance les inquiétudes liées à l’IA
Le monde de l’intelligence artificielle (IA) grand public ne cesse d’évoluer et d’innover, suscitant à la fois fascination et inquiétude. Les générateurs d’images tels que Midjourney et DALL-E, ainsi que les générateurs de vidéos comme Gen-2 de Runway, ont rendu la création assistée par IA accessible à tous.

En association avec d’autres outils, comme les synthétiseurs vocaux, ces modèles ont contribué à brouiller les frontières entre le réel et le virtuel, la création artificielle et artisanale. Cependant, chaque innovation soulève des questions sur les risques potentiels associés à ces outils d’IA. L’arrivée de Sora, le modèle de génération de vidéos d’OpenAI, a amplifié ces préoccupations.

Les risques sociologiques liés à l’IA et aux outils de génération créative

Sam Altman, PDG d’OpenAI, a exprimé sur Twitter ses inquiétudes quant à l’avenir de l’IA, soulignant que nous ne sommes pas loin d’outils potentiellement effrayants. Les créations générées par l’IA, en particulier les images et les vidéos, suscitent des préoccupations, notamment sur le plan sociologique. Marie-Anne Ferry-Fall, directrice générale de l’ADAGP, a souligné dans Les Échos que plus d’images ont été créées par des intelligences artificielles entre mi-2022 et mi-2023 qu’en 150 ans de photographie. Elle craint que l’IA ne conduise à une certaine médiocrité, avec une demande croissante de création rapide et à moindre coût.

En effet, bien que les vidéos générées par Sora soient souvent impressionnantes en termes de détails et de qualité, un examen plus approfondi révèle de nombreux défauts et incohérences. De plus, les IA ne créent rien de nouveau et continuent de perpétuer les préjugés et les biais de notre société.

Effacer les frontières entre le réel et le virtuel

L’arrivée de Sora sur le marché a encore réduit la frontière entre le réel et le virtuel. Plus les outils évoluent et plus la qualité de leurs créations s’améliore, plus il devient difficile de distinguer le vrai du faux. Cela ouvre la porte à des dérives, comme les deepfakes et autres contenus de désinformation. Sandra Wachter, professeure de technologies et de régulation à l’université d’Oxford, a averti que ces nouvelles technologies pourraient être utilisées pour manipuler les gens afin d’influencer leur comportement électoral.

Il est très facile de créer des deepfakes ou du faux contenu. Il y a donc un risque réel que certains acteurs utilisent cette technologie pour perturber les processus démocratiques.

Les menaces sont déjà réelles. CNN a rapporté l’histoire d’un candidat d’opposition slovaque, Michel Simecka, qui a été victime d’une vidéo deepfake le montrant en train de tenter d’acheter des votes. Cette vidéo a été diffusée quelques jours avant les élections législatives. David Colon, professeur d’histoire à Science Po Paris, a souligné que l’IA est également utilisée pour amplifier la propagation des contenus et les acheminer de manière ciblée aux individus.

Les outils d’apprentissage profond sont utilisés pour cibler des individus ou des failles de sécurité dans les systèmes d’information, mais aussi générer des faux comptes plus crédibles que les vrais, ou des portails qui relaient automatiquement des contenus.

Les outils d’IA peuvent être utilisés à des fins malveillantes et renforcer certains actes préjudiciables et répréhensibles, déjà présents sur le web depuis des années et touchant notamment les femmes. En janvier, la chanteuse Taylor Swift a été victime d’une campagne de deepfakes pornographiques sur X, ce qui a obligé la plateforme à censurer les hashtags et les mentions à son sujet.

Les créateurs et artistes face à l’IA

Le sujet suscite également de nombreuses interrogations parmi les créatifs. L’IA va-t-elle supprimer des emplois ? Vianney Baudeau, conseiller pour les affaires institutionnelles et européennes à la Scam, a fait remarquer que certains traducteurs ne sont plus que des réacteurs des IA. Pascal Rogard, directeur de la SACD, a été plus explicite : « Après avoir pillé les créateurs, les géants de la tech risquent de détruire des emplois. »

Les études apportent des réponses variées. Selon l’ONU, l’IA générative créera plus d’emplois qu’elle n’en détruira. Le FMI estime que l’IA aura un impact à court terme sur 60 % des emplois dans les pays économiquement avancés. Une note de Goldman Sachs estime que 300 millions d’emplois à temps plein pourraient être affectés par l’IA au point d’être remplacés par l’automatisation.

Quelles mesures face aux risques de l’IA ?

Face à ces nombreux problèmes, la régulation devient le maître mot pour les autorités publiques. Les éditeurs veulent également faire preuve de bonne volonté. Dans l’annonce de Sora, OpenAI a précisé qu’une équipe d’experts teste l’outil sur des sujets sensibles tels que la désinformation, les contenus haineux, violents, à caractère sexuel, et assure que son modèle sera incapable de générer ce type de contenu.

En plus de la facilité croissante avec laquelle des vidéos deepfakes peuvent être réalisées, il est également clair que les grandes plateformes de médias sociaux restent mal équipées pour gérer la modération du contenu en ce qui concerne les deepfakes, a déclaré Hany Farid, spécialiste à l’Université de Californie à Berkeley, à MedPage Today.

L’Union européenne a récemment mis en place un cadre légal, le DSA, qui vise à forcer les plateformes sociales à mieux contrôler et modérer les contenus trompeurs, de désinformation, haineux ou violents, dont bon nombre sont générés par l’IA. L’IA Act vise également à mieux réguler ces technologies, afin de permettre l’innovation tout en garantissant la sécurité et les droits des utilisateurs. Parallèlement, les éditeurs de modèles d’IA intègrent de plus en plus de filigranes aux créations, permettant de les labelliser.

Comme pour d’autres méthodes en IA générative, rien ne laisse penser que la conversion de texte en vidéo ne va pas continuer à s’améliorer rapidement, nous rapprochant toujours plus d’une époque où il sera difficile de différencier le faux du vrai, s’inquiète Hany Farid.

De plus, une vingtaine d’entreprises majeures du secteur, dont Meta, Microsoft, Google ou encore OpenAI, ont promis de « déployer des technologies pour contrer les contenus nuisibles générés par l’IA ».

Alors que des scrutins électoraux majeurs sont prévus en 2024 partout sur la planète, ces éditeurs assurent travailler sur des outils permettant de repérer des contenus trompeurs créés avec l’IA, dont la possibilité d’apposer un « tatouage numérique » sur les vidéos générées par IA, invisible à l’œil nu mais détectable par une machine.