{"id":386519,"date":"2022-01-10T23:07:08","date_gmt":"2022-01-10T22:07:08","guid":{"rendered":"https:\/\/iotworlds.com\/deepfake-ce-que-vous-devez-savoir\/"},"modified":"2022-06-25T08:12:06","modified_gmt":"2022-06-25T06:12:06","slug":"deepfake-ce-que-vous-devez-savoir","status":"publish","type":"post","link":"https:\/\/iotworlds.com\/fr\/deepfake-ce-que-vous-devez-savoir\/","title":{"rendered":"Deepfake &#8211; Ce que vous devez savoir"},"content":{"rendered":"\n<p>Deepfake est une nouvelle technologie qui peut \u00eatre utilis\u00e9e pour manipuler la vid\u00e9o et l&rsquo;audio, dans le but de produire de faux contenus multim\u00e9dias. Il a beaucoup fait les manchettes ces derniers temps en termes d&rsquo;utilisation \u00e0 des fins politiques, mais il a de nombreuses autres utilisations potentielles \u00e0 la fois dans l&rsquo;industrie et dans le divertissement.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-what-is-a-deepfake-and-how-does-it-work\">Qu&rsquo;est-ce qu&rsquo;un deepfake et comment \u00e7a marche<\/h2>\n\n<p>Un deepfake est cr\u00e9\u00e9 lorsqu&rsquo;une personne utilise un programme d&rsquo;IA pour g\u00e9n\u00e9rer une image, une vid\u00e9o ou un clip audio de quelque chose qui ne s&rsquo;est jamais produit dans la r\u00e9alit\u00e9. Ceux-ci sont souvent assez faciles \u00e0 identifier car le faux contenu comporte g\u00e9n\u00e9ralement des erreurs ou des contradictions lorsqu&rsquo;il est recoup\u00e9 avec des m\u00e9dias authentiques<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-how-to-use-deepfakes-for-good\">Comment utiliser les deepfakes pour de bon<\/h2>\n\n<p>Les gens ont jusqu&rsquo;\u00e0 pr\u00e9sent utilis\u00e9 cette technologie pour des vid\u00e9os de satire<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-the-dangers-of-using-deepfakes-for-malicious-purposes\">Les dangers de l&rsquo;utilisation de deepfakes \u00e0 des fins malveillantes<\/h2>\n\n<p>Cette technologie peut \u00eatre utilis\u00e9e pour cr\u00e9er de la d\u00e9sinformation que les gens croiront sans aucun doute, ce qui pourrait entra\u00eener des cons\u00e9quences d\u00e9sastreuses \u00e0 l&rsquo;avenir. Par exemple, imaginez si des images \u00e9taient diffus\u00e9es d&rsquo;un chef d&rsquo;\u00c9tat disant qu&rsquo;il voulait lancer une attaque nucl\u00e9aire<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-the-implications-of-the-future-of-fake-news-on-politics-journalism-and-society\">Les implications de l&rsquo;avenir des fausses nouvelles sur la politique, le journalisme et la soci\u00e9t\u00e9<\/h2>\n\n<p>\u00c0 l&rsquo;avenir, il sera plus facile que jamais de g\u00e9n\u00e9rer de faux m\u00e9dias auxquels les gens croiront sans aucun doute, ce qui pourrait entra\u00eener des cons\u00e9quences d\u00e9sastreuses \u00e0 l&rsquo;avenir. Par exemple, imaginez si des images \u00e9taient diffus\u00e9es d&rsquo;un chef d&rsquo;\u00c9tat disant qu&rsquo;il voulait lancer une attaque nucl\u00e9aire<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-solutions-to-combat-these-issues-in-the-future\">Solutions pour lutter contre ces probl\u00e8mes \u00e0 l&rsquo;avenir<\/h2>\n\n<p>Il sera de plus en plus important pour les personnes de tous horizons possibles &#8211; y compris les journalistes &#8211; de v\u00e9rifier le contenu via plusieurs sources avant de d\u00e9clarer quoi que ce soit comme vrai ou m\u00eame simplement de partager quelque chose sur les r\u00e9seaux sociaux. Il peut \u00e9galement \u00eatre avantageux pour les entreprises technologiques telles que YouTube ou Facebook de faire plus que simplement compter sur les utilisateurs qui signalent le contenu comme quelque peu probl\u00e9matique.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-concluding-remarks-about-the-importance-of-this-technology-s-potential-impact-on-society\">Remarques finales sur l&rsquo;importance de l&rsquo;impact potentiel de cette technologie sur la soci\u00e9t\u00e9<\/h2>\n\n<p>\u00c0 l&rsquo;avenir, il sera plus facile que jamais de g\u00e9n\u00e9rer de faux m\u00e9dias auxquels les gens croiront sans aucun doute, ce qui pourrait entra\u00eener des cons\u00e9quences d\u00e9sastreuses \u00e0 l&rsquo;avenir. Par exemple, imaginez que des images soient diffus\u00e9es d&rsquo;un chef d&rsquo;\u00c9tat disant qu&rsquo;il veut lancer une attaque nucl\u00e9aire.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes, comment \u00e9viter de se faire avoir ?<\/h2>\n\n<p>\u00ab\u00a0Deepfakes\u00a0\u00bb est un terme qui fait r\u00e9f\u00e9rence \u00e0 des vid\u00e9os ou des images modifi\u00e9es de personnes qui semblent faire quelque chose qu&rsquo;elles n&rsquo;ont vraiment pas fait. Ces fausses vid\u00e9os et images peuvent \u00eatre cr\u00e9\u00e9es \u00e0 l&rsquo;aide d&rsquo;un logiciel d&rsquo;intelligence artificielle (IA), tel que FakeApp. Les vid\u00e9os et les images Deepfake pourraient \u00eatre utilis\u00e9es pour cr\u00e9er de fausses nouvelles profondes ou \u00e0 de nombreuses fins malveillantes. Pour leur s\u00e9curit\u00e9, les utilisateurs doivent s&rsquo;assurer qu&rsquo;ils disposent d&rsquo;un logiciel \u00e0 jour, utiliser des mots de passe uniques sur chaque site qu&rsquo;ils visitent, ne jamais stocker de mots de passe dans leur navigateur, d\u00e9sactiver Flash s&rsquo;il n&rsquo;est pas n\u00e9cessaire, \u00e9viter d&rsquo;installer des extensions de navigateur propos\u00e9es via des fen\u00eatres contextuelles sur le Web. sites en lesquels vous n&rsquo;avez pas confiance, \u00e9vitez si possible de t\u00e9l\u00e9charger des logiciels pirat\u00e9s et consultez nos conseils pour \u00e9viter les vid\u00e9os et images deepfake ci-dessous.<\/p>\n\n<p>Il y a quelques facteurs qui peuvent vous aider \u00e0 \u00e9viter d&rsquo;\u00eatre dup\u00e9 par une vid\u00e9o ou une image fausse profonde. Tout d&rsquo;abord, vous devez maintenir votre logiciel \u00e0 jour car cela inclura souvent des mises \u00e0 jour de s\u00e9curit\u00e9. Si votre logiciel n&rsquo;est pas \u00e0 jour, il est possible que quelqu&rsquo;un exploite les failles de s\u00e9curit\u00e9 des anciennes versions du logiciel pour acc\u00e9der \u00e0 votre syst\u00e8me \u00e0 votre insu. Deuxi\u00e8mement, si vous utilisez des mots de passe uniques (et que vous les modifiez r\u00e9guli\u00e8rement), m\u00eame si un site Web est pirat\u00e9, cela n&rsquo;affectera pas les autres sites Web que vous visiterez \u00e0 l&rsquo;avenir avec le m\u00eame mot de passe. Un troisi\u00e8me facteur consiste \u00e0 s&rsquo;assurer que Flash est install\u00e9 lorsque vous en avez besoin.<\/p>\n\n<h2 class=\"wp-block-heading\">Comment identifier une vid\u00e9o deepfake<\/h2>\n\n<p>Les vid\u00e9os Deepfake sont des vid\u00e9os qui ont \u00e9t\u00e9 manipul\u00e9es \u00e0 l&rsquo;aide de l&rsquo;IA pour donner l&rsquo;impression que quelqu&rsquo;un dit ou fait quelque chose qu&rsquo;il n&rsquo;a pas fait. Les vid\u00e9os Deepfake peuvent \u00eatre utilis\u00e9es pour diverses raisons, notamment la propagande, le divertissement et la d\u00e9sinformation.<\/p>\n\n<p>Pour identifier une vid\u00e9o deepfake, vous pouvez rechercher quelques \u00e9l\u00e9ments. L&rsquo;un des moyens les plus simples d&rsquo;identifier un deepfake est de savoir si la personne dans la vid\u00e9o est diff\u00e9rente de son apparence habituelle. De plus, vous pouvez rechercher des mouvements inhabituels dans les traits du visage de la personne ou des mouvements non naturels des l\u00e8vres. Vous pouvez \u00e9galement \u00e9couter les distorsions audio ou les incoh\u00e9rences.<\/p>\n\n<p>Si vous n&rsquo;\u00eates pas s\u00fbr qu&rsquo;une vid\u00e9o soit vraie ou fausse, il peut \u00eatre utile de vous demander quel est le but de la vid\u00e9o. \u00c0 qui profiterait de truquer cette vid\u00e9o ? S&rsquo;il ne semble pas y avoir de motivation claire pour truquer la vid\u00e9o, il est alors plus probable que la vid\u00e9o soit exacte.<\/p>\n\n<p>Une autre chose que vous pouvez faire si vous essayez de d\u00e9terminer si une personne a dit quelque chose d&rsquo;une certaine mani\u00e8re (par exemple, de mani\u00e8re trompeuse) serait d&rsquo;\u00e9couter et de comparer sa prononciation avec celle d&rsquo;autres discours qu&rsquo;elle a prononc\u00e9s. Par exemple, si quelqu&rsquo;un a d\u00e9j\u00e0 parl\u00e9 publiquement d&rsquo;un probl\u00e8me mais n&rsquo;a jamais prononc\u00e9 un mot de la m\u00eame mani\u00e8re que dans ce nouveau discours, cela signale une tromperie.<\/p>\n\n<p>Les premiers deepfakes ont \u00e9t\u00e9 cr\u00e9\u00e9s \u00e0 l&rsquo;aide d&rsquo;Adobe After Effects, ce qui n\u00e9cessite que les utilisateurs aient des connaissances en montage vid\u00e9o. Cependant, plus r\u00e9cemment, l&rsquo;IA a \u00e9t\u00e9 utilis\u00e9e pour cr\u00e9er des deepfakes sans aucune intervention de l&rsquo;utilisateur. Cela r\u00e9duit la quantit\u00e9 de travail de post-production requise pour cr\u00e9er une vid\u00e9o, mais n&#8217;emp\u00eache pas quelqu&rsquo;un de produire une fausse vid\u00e9o sans \u00eatre d\u00e9tect\u00e9.<\/p>\n\n<p>Une fa\u00e7on de vous prot\u00e9ger d&rsquo;\u00eatre affect\u00e9 par des vid\u00e9os deepfake est d&rsquo;\u00eatre sceptique lorsque vous regardez ou lisez des m\u00e9dias d&rsquo;information. Si quelque chose ne va pas, n&rsquo;y croyez pas tant que vous n&rsquo;avez pas confirm\u00e9 que c&rsquo;est vrai. Par exemple, v\u00e9rifiez plusieurs sources avant de croire quelque chose que vous entendez \u00e0 la t\u00e9l\u00e9vision, car les vid\u00e9os deepfake deviennent un moyen de plus en plus courant de diffuser de la d\u00e9sinformation en ligne. Et rappelez-vous : ce n&rsquo;est pas parce que quelque chose semble vrai qu&rsquo;il l&rsquo;est.<\/p>\n\n<p>Quelques exemples de vid\u00e9os deepfake pass\u00e9es incluent une o\u00f9 l&rsquo;ancien pr\u00e9sident Obama s&rsquo;est exprim\u00e9 sur un ton raciste et une autre o\u00f9 l&rsquo;actrice Gal Gadot semblait dire qu&rsquo;elle appartenait \u00e0 \u00abl&rsquo;\u00c9tat islamique\u00bb (ISIS). Ces vid\u00e9os montrent \u00e0 quel point il peut \u00eatre facile pour toute personne ayant acc\u00e8s \u00e0 la bonne technologie et \u00e0 la bonne expertise de cr\u00e9er des deepfakes qui semblent r\u00e9els. La facilit\u00e9 avec laquelle ces vid\u00e9os peuvent \u00eatre cr\u00e9\u00e9es rend \u00e9galement difficile pour de nombreuses personnes de distinguer ce qui est r\u00e9el de ce qui ne l&rsquo;est pas.<\/p>\n\n<p>Il est essentiel de comprendre comment ces vid\u00e9os sont r\u00e9alis\u00e9es et de conna\u00eetre certains moyens de les identifier si vous souhaitez vous prot\u00e9ger contre les victimes ou la promotion par inadvertance de fausses informations en ligne. <\/p>\n\n<h2 class=\"wp-block-heading\">Comment rester inform\u00e9 dans une soci\u00e9t\u00e9 post-v\u00e9rit\u00e9<\/h2>\n\n<p>Si vous souhaitez rester inform\u00e9, vous pouvez suivre quelques \u00e9tapes. La premi\u00e8re \u00e9tape consiste \u00e0 \u00e9viter de lire des informations qui n&rsquo;ont pas \u00e9t\u00e9 corrobor\u00e9es par de multiples sources cr\u00e9dibles. Vous devriez \u00e9galement consid\u00e9rer quelle pourrait \u00eatre la motivation pour partager ce type d&rsquo;informations. Si la source semble partiale ou s&rsquo;il n&rsquo;y a pas d&rsquo;explication claire sur la raison pour laquelle elle partage quelque chose, vous devriez reconsid\u00e9rer la confiance que vous accordez aux informations pr\u00e9sent\u00e9es. De plus, n&rsquo;oubliez pas que ce n&rsquo;est pas parce que quelque chose semble vrai qu&rsquo;il l&rsquo;est. Il peut \u00eatre imprudent de fonder votre propre opinion sur de fausses informations, alors essayez de ne pas tirer de conclusions h\u00e2tives avant d&rsquo;avoir eu le temps de v\u00e9rifier ce que vous voyez en ligne. Si vous n&rsquo;\u00eates pas s\u00fbr qu&rsquo;une vid\u00e9o soit vraie ou fausse, demandez-vous quel est le but de la vid\u00e9o. \u00c0 qui profiterait de truquer cette vid\u00e9o ? Vous pouvez \u00e9galement rechercher des mouvements inhabituels dans les traits du visage de la personne ou des mouvements non naturels des l\u00e8vres. Et enfin, si vous essayez de d\u00e9terminer si une personne a dit quelque chose d&rsquo;une certaine mani\u00e8re (par exemple, de mani\u00e8re trompeuse), il serait utile d&rsquo;\u00e9couter et de comparer sa prononciation avec celle d&rsquo;autres discours qu&rsquo;elle a prononc\u00e9s. Par exemple, si quelqu&rsquo;un a d\u00e9j\u00e0 parl\u00e9 publiquement d&rsquo;un probl\u00e8me mais n&rsquo;a jamais prononc\u00e9 un mot de la m\u00eame mani\u00e8re que dans ce nouveau discours, cela signale une tromperie.<\/p>\n\n<h2 class=\"wp-block-heading\">Le visage de la r\u00e9volution deepfake<\/h2>\n\n<p>La r\u00e9volution deepfake est un ph\u00e9nom\u00e8ne continu o\u00f9 les gens peuvent cr\u00e9er des vid\u00e9os de personnes disant ou faisant des choses qu&rsquo;elles n&rsquo;ont jamais faites. La technologie derri\u00e8re les deepfakes est appel\u00e9e \u00abdeep learning\u00bb, qui est un type d&rsquo;apprentissage automatique qui permet aux ordinateurs d&rsquo;apprendre \u00e0 faire les choses par l&rsquo;exemple.<\/p>\n\n<p>Cette technologie a d\u00e9j\u00e0 \u00e9t\u00e9 utilis\u00e9e pour cr\u00e9er de fausses vid\u00e9os de c\u00e9l\u00e9brit\u00e9s, et cela ne fera qu&#8217;empirer \u00e0 partir de maintenant. Nous devons \u00eatre conscients de cette technologie et \u00eatre pr\u00e9par\u00e9s aux cons\u00e9quences.<\/p>\n\n<p>Les cons\u00e9quences de ce type de technologie sont immenses. D&rsquo;une part, il est tr\u00e8s facile de tromper les gens en leur faisant croire que ces vid\u00e9os sont r\u00e9elles. J&rsquo;ai pu trouver un subreddit o\u00f9 les gens cr\u00e9ent de fausses vid\u00e9os avec une relative facilit\u00e9 et la qualit\u00e9 est folle. Une vid\u00e9o cr\u00e9\u00e9e par quelqu&rsquo;un sur ce subreddit a obtenu pr\u00e8s de 11 000 votes positifs. C&rsquo;est inqui\u00e9tant car cela signifie qu&rsquo;il existe toute une communaut\u00e9 pr\u00eate \u00e0 partager de fausses vid\u00e9os comme si elles \u00e9taient r\u00e9elles. De plus, il n&rsquo;y a pas de lois contre les deepfakes, il sera donc int\u00e9ressant de voir comment ce type de chose \u00e9voluera dans les ann\u00e9es \u00e0 venir.<\/p>\n\n<p>Une autre cons\u00e9quence est que nous pouvons perdre notre confiance dans les m\u00e9dias num\u00e9riques dans leur ensemble et cesser d&rsquo;utiliser les m\u00e9dias num\u00e9riques pour des choses comme l&rsquo;\u00e9ducation et la documentation. Un exemple est la vid\u00e9o de Barack Obama parlant de \u00ab\u00a0fake news\u00a0\u00bb qui a en fait \u00e9t\u00e9 cr\u00e9\u00e9e par quelqu&rsquo;un d&rsquo;autre. Cela montre \u00e0 quel point il est facile de faire mal para\u00eetre les gens, mais cette technologie sera encore plus dangereuse lorsqu&rsquo;elle est utilis\u00e9e avec des discours politiques qui ont de r\u00e9elles implications pour la vie des gens.<\/p>\n\n<p>J&rsquo;ai trouv\u00e9 un site Web qui peut cr\u00e9er de fausses vid\u00e9os en utilisant uniquement des photos Facebook. T\u00e9l\u00e9chargez simplement 3 \u00e0 20 photos de votre visage et le logiciel les combinera en une vid\u00e9o r\u00e9aliste o\u00f9 vous dites ce que vous voulez. Les gens commencent d\u00e9j\u00e0 \u00e0 utiliser ces vid\u00e9os pour se venger de leurs ex ou se venger des personnes qui leur ont fait du mal. Je pense que c&rsquo;est dangereux car cela signifie que nous pourrions perdre la confiance les uns envers les autres en tant qu&rsquo;humains si le deepfake devenait plus populaire.<\/p>\n\n<p>Cette technologie cr\u00e9e une d\u00e9pendance et a le potentiel de nous rendre obs\u00e9d\u00e9s par des choses qui n&rsquo;existent pas. Beaucoup de gens ont d\u00e9j\u00e0 perdu leur temps \u00e0 essayer de d\u00e9mystifier les vid\u00e9os r\u00e9alis\u00e9es par cette technologie, ce qui signifie qu&rsquo;ils sont tout le temps tromp\u00e9s. Un exemple est une vid\u00e9o o\u00f9 Barack Obama dit \u00ab\u00a0Nous avons tu\u00e9 Oussama Ben Laden\u00a0\u00bb, qui a \u00e9t\u00e9 cr\u00e9\u00e9e par quelqu&rsquo;un. Cela montre \u00e0 quel point il est facile de tromper les gens qui utilisent ce type de technologie, donc je pense que tout le monde devrait \u00eatre conscient de son existence avant de prendre une quelconque d\u00e9cision en fonction de ce que vous voyez en ligne. Nous avons besoin de lois contre le deepfake car je crois que ces vid\u00e9os se r\u00e9v\u00e9leront destructrices pour les relations entre les personnes dans la soci\u00e9t\u00e9 si elles sont autoris\u00e9es \u00e0 progresser sans limites. Cela divisera notre soci\u00e9t\u00e9 en deux groupes, car ceux qui savent seront prudents avec tout ce qu&rsquo;ils voient en ligne et ceux qui ne le savent pas. Cela aura un effet n\u00e9gatif sur notre soci\u00e9t\u00e9 dans son ensemble parce que les gens ne pourront pas faire confiance \u00e0 ce qui est r\u00e9el et \u00e0 ce qui ne l&rsquo;est pas, ce qui signifie que nous serons moins susceptibles de communiquer les uns avec les autres ou de partager des choses importantes comme la documentation et l&rsquo;\u00e9ducation \u00e0 travers m\u00e9dias num\u00e9riques.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes, pourquoi vos donn\u00e9es ne valent rien ?<\/h2>\n\n<p>Il existe trois types de donn\u00e9es qui ne valent rien : les Deepfakes, vos donn\u00e9es, votre avenir.<\/p>\n\n<p>Les Deepfakes sont des vid\u00e9os cr\u00e9\u00e9es avec l&rsquo;intelligence artificielle. Ils sont g\u00e9n\u00e9ralement utilis\u00e9s pour cr\u00e9er des films en transformant le visage d&rsquo;une personne sur le corps d&rsquo;une autre personne, ou \u00e0 d&rsquo;autres fins trompeuses. Ce type de technologie peut \u00eatre utilis\u00e9 pour cr\u00e9er de faux contenus vid\u00e9o qui pourraient potentiellement d\u00e9stabiliser notre soci\u00e9t\u00e9. Semblable \u00e0 Deepfakes, vos donn\u00e9es ne valent \u00e9galement rien car elles peuvent \u00eatre manipul\u00e9es \u00e0 n&rsquo;importe quelle fin. Le dernier type de donn\u00e9es qui ne vaut rien est votre avenir car il ne peut pas \u00eatre vu. Les gens essaient toujours de pr\u00e9dire l&rsquo;avenir, mais c&rsquo;est assez difficile.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes &#8211; Ce que vous devez savoir sur ce cauchemar num\u00e9rique<\/h2>\n\n<p>Les deepfakes sont un type de manipulation num\u00e9rique qui utilise l&rsquo;intelligence artificielle pour cr\u00e9er des vid\u00e9os de personnes qui semblent dire ou faire des choses qu&rsquo;elles n&rsquo;ont jamais dites ou faites. Les vid\u00e9os deepfake sont souvent utilis\u00e9es pour cr\u00e9er de fausses vid\u00e9os, mais elles peuvent \u00e9galement \u00eatre utilis\u00e9es pour cr\u00e9er de fausses nouvelles ou pour manipuler l&rsquo;opinion publique.<\/p>\n\n<p>Les vid\u00e9os Deepfake sont un cauchemar num\u00e9rique car elles peuvent \u00eatre utilis\u00e9es pour r\u00e9pandre des mensonges et de la d\u00e9sinformation. Ils peuvent \u00e9galement \u00eatre utilis\u00e9s pour faire chanter des personnes ou nuire \u00e0 leur r\u00e9putation. Les vid\u00e9os deepfake sont tr\u00e8s difficiles \u00e0 d\u00e9tecter, il est donc important d&rsquo;en \u00eatre conscient et d&rsquo;\u00eatre sceptique quant \u00e0 toute vid\u00e9o qui semble trop belle pour \u00eatre vraie.<\/p>\n\n<p>Les vid\u00e9os Deepfake sont r\u00e9alis\u00e9es avec une combinaison d&rsquo;apprentissage automatique et d&rsquo;intelligence artificielle. La premi\u00e8re \u00e9tape consiste \u00e0 cr\u00e9er un ensemble de donn\u00e9es comprenant une vid\u00e9o de la personne que vous souhaitez faire dire ou faire quelque chose qu&rsquo;elle n&rsquo;a jamais fait. Vous pouvez utiliser des outils disponibles gratuitement pour g\u00e9n\u00e9rer cet ensemble de formation, qui comprendra des centaines ou des milliers de courtes vid\u00e9os de votre cible. Des algorithmes d&rsquo;apprentissage automatique sont ensuite utilis\u00e9s pour prendre ces vid\u00e9os individuelles et \u00abapprendre\u00bb \u00e0 quoi devrait ressembler le visage lorsqu&rsquo;il fait des expressions diff\u00e9rentes ou dit des mots diff\u00e9rents. Une fois que suffisamment de donn\u00e9es ont \u00e9t\u00e9 collect\u00e9es, les algorithmes d&rsquo;apprentissage automatique peuvent g\u00e9n\u00e9rer de nouvelles fausses vid\u00e9os qui semblent tr\u00e8s r\u00e9alistes et naturelles.<\/p>\n\n<p>Le terme Deepfakes a \u00e9t\u00e9 invent\u00e9 par un utilisateur anonyme de Reddit.<\/p>\n\n<h2 class=\"wp-block-heading\">Qu&rsquo;est-ce que l&rsquo;audio deepfake?<\/h2>\n\n<p>Deepfake audio est une technologie \u00e9mergente qui permet la cr\u00e9ation d&rsquo;un faux enregistrement. Il fonctionne de telle mani\u00e8re qu&rsquo;il cr\u00e9e un son ou une vid\u00e9o avec la voix de quelqu&rsquo;un et le met sur le corps d&rsquo;une autre personne. Ceci est g\u00e9n\u00e9ralement utilis\u00e9 par les gens pour embarrasser les autres, mais les deepfakes peuvent \u00e9galement \u00eatre utilis\u00e9s pour cr\u00e9er de fausses vid\u00e9os et enregistrements afin de discr\u00e9diter ou de menacer des politiciens et des c\u00e9l\u00e9brit\u00e9s.<\/p>\n\n<p>L&rsquo;audio Deepfake est une technologie relativement nouvelle qui a \u00e9merg\u00e9 au cours des deux derni\u00e8res ann\u00e9es, mais elle est de plus en plus populaire en raison de sa facilit\u00e9 d&rsquo;utilisation. Il existe plusieurs sites Web en ligne o\u00f9 les gens t\u00e9l\u00e9chargent des sons et d&rsquo;autres utilisateurs peuvent les mettre sur la bouche de quelqu&rsquo;un d&rsquo;autre afin de cr\u00e9er des vid\u00e9os. Ce processus est rendu possible par l&rsquo;intelligence artificielle (IA) qui peut \u00eatre utilis\u00e9e \u00e0 de multiples fins, notamment l&rsquo;\u00e9dition de vid\u00e9os ou la cr\u00e9ation de fausses vid\u00e9os. Il fonctionne en prenant des donn\u00e9es \u00e0 partir d&rsquo;une sorte de source audio et en les utilisant pour un traitement ult\u00e9rieur afin de terminer le travail vid\u00e9o. Les gens ont utilis\u00e9 des deepfakes avec des discours de politiciens pour les discr\u00e9diter ou avec l&rsquo;audio explicite de c\u00e9l\u00e9brit\u00e9s pour les humilier.<\/p>\n\n<h2 class=\"wp-block-heading\">Quelles sont les implications possibles des deepfakes ?<\/h2>\n\n<p>Les Deepfakes sont un type de vid\u00e9o g\u00e9n\u00e9r\u00e9e par l&rsquo;IA qui a r\u00e9cemment fait son apparition sur Internet. Ces vid\u00e9os sont cr\u00e9\u00e9es par des algorithmes et font dire aux gens des choses qu&rsquo;ils n&rsquo;ont jamais dites ou semblent faire quelque chose qu&rsquo;ils n&rsquo;ont jamais fait. De cette fa\u00e7on, les deepfakes peuvent \u00eatre utilis\u00e9s comme une forme de d\u00e9sinformation pour changer la perception qu&rsquo;ont les gens de la r\u00e9alit\u00e9. Il est tr\u00e8s possible que les deepfakes continuent de prolif\u00e9rer et de devenir plus persuasifs au fil du temps, car les algorithmes peuvent apprendre des vid\u00e9os deepfake pr\u00e9c\u00e9dentes et s&rsquo;am\u00e9liorer avec le temps. Cela pourrait conduire \u00e0 un point o\u00f9 il n&rsquo;y aurait plus de cr\u00e9dibilit\u00e9 dans aucune s\u00e9quence vid\u00e9o, ce qui rendrait impossible de croire tout ce que nous voyons ou entendons.<\/p>\n\n<p>L&rsquo;une des implications les plus importantes \u00e0 prendre en compte est la question de l&rsquo;authenticit\u00e9. La diffusion de fausses nouvelles est devenue une pratique de plus en plus facile et courante, \u00e0 tel point qu&rsquo;il est difficile de savoir si des s\u00e9quences vid\u00e9o ou des photographies sont r\u00e9elles, car nous ne pouvons jamais en \u00eatre compl\u00e8tement certains. Internet contribue de mani\u00e8re significative \u00e0 ce probl\u00e8me. Lorsque vous recherchez quelque chose sur Google, vous \u00eates oblig\u00e9 de rencontrer plusieurs sites Web qui pr\u00e9sentent des informations contradictoires, ce qui le rend encore plus d\u00e9routant lorsque vous essayez de discerner ce qui est vrai et ce qui ne l&rsquo;est pas. Si les deepfakes deviennent largement consid\u00e9r\u00e9s comme des sources d&rsquo;informations fiables, l&rsquo;effet imm\u00e9diat sera une perte de confiance dans toutes les autres formes de contenu en raison de leur incertitude. Cela pourrait aussi nous amener \u00e0 remettre en question tout ce que nous entendons ou voyons, m\u00eame des choses qui ont \u00e9t\u00e9 enregistr\u00e9es de nos propres yeux.<\/p>\n\n<p>En particulier, les journalistes pourraient \u00eatre impact\u00e9s par la pr\u00e9sence accrue de deepfakes. Cette technologie pourrait les emp\u00eacher de savoir si les entretiens qu&rsquo;ils m\u00e8nent sont r\u00e9els ou non, ce qui met leur cr\u00e9dibilit\u00e9 en jeu. Si les gens ne croient plus que ce qu&rsquo;ils rapportent est exact, il y a de fortes chances que leur audience diminue et que les gens se tournent vers des sources qui offrent un contenu qui semble plus l\u00e9gitime, quelle que soit sa validit\u00e9. Tant que le public croira obtenir la v\u00e9rit\u00e9 d&rsquo;ailleurs, sa confiance dans les m\u00e9dias grand public continuera de d\u00e9cliner.<\/p>\n\n<p>De plus, les implications d&rsquo;une d\u00e9sinformation g\u00e9n\u00e9ralis\u00e9e peuvent entra\u00eener des changements dans les relations internationales si certains pays ne traitent pas ce probl\u00e8me assez rapidement. Par exemple, si une vid\u00e9o deepfake \u00e9tait publi\u00e9e et donnait l&rsquo;impression que les dirigeants de deux pays s&rsquo;insultaient, alors leurs populations respectives pourraient devenir hostiles l&rsquo;une envers l&rsquo;autre et d\u00e9velopper un faux sentiment d&rsquo;hostilit\u00e9. Si les images originales ne sont pas diffus\u00e9es et r\u00e9fut\u00e9es assez rapidement, les gens continueront probablement \u00e0 percevoir la r\u00e9alit\u00e9 telle qu&rsquo;elle a \u00e9t\u00e9 d\u00e9form\u00e9e pour eux par la fausse vid\u00e9o, ce qui rend les \u00e9changes violents entre citoyens beaucoup plus probables car ils auront \u00e9t\u00e9 encourag\u00e9s \u00e0 agir sur la base de leur col\u00e8re envers un individu qui n&rsquo;existe pas r\u00e9ellement.<\/p>\n\n<p>Nous pourrions \u00e9galement voir un d\u00e9clin majeur \u00e0 Hollywood alors que les t\u00e9l\u00e9spectateurs cessent d&rsquo;aller au cin\u00e9ma parce qu&rsquo;ils pr\u00e9f\u00e8rent regarder des films \u00e0 la maison avec des deepfakes plut\u00f4t que de n&rsquo;avoir aucun effet visuel r\u00e9aliste. L&rsquo;industrie pourrait ne pas \u00eatre en mesure de suivre la technologie si elle \u00e9volue plus rapidement que le temps n\u00e9cessaire \u00e0 la production des films, ce qui entra\u00eenerait une baisse significative des revenus. Nous pourrions m\u00eame commencer \u00e0 voir des films enti\u00e8rement g\u00e9n\u00e9r\u00e9s par ordinateur parce que les acteurs ne sont plus du tout n\u00e9cessaires.<\/p>\n\n<p>Bien que les deepfakes puissent potentiellement avoir des effets positifs sur l&rsquo;art, il y a beaucoup plus de risques de cons\u00e9quences n\u00e9gatives \u00e0 mesure que l&rsquo;IA continue de progresser et de se propager dans diverses industries. Il est essentiel que les gens prennent conscience du probl\u00e8me afin qu&rsquo;ils puissent d\u00e9terminer comment le r\u00e9soudre avant que la d\u00e9sinformation ne devienne impossible \u00e0 arr\u00eater ou devienne trop persuasive pour son propre bien. Pour cette raison, les d\u00e9veloppeurs doivent tester en permanence les algorithmes et trouver des moyens de limiter leurs capacit\u00e9s afin d&rsquo;\u00e9viter que les informations ne soient d\u00e9form\u00e9es . Cela peut impliquer de limiter le r\u00e9alisme des vid\u00e9os ou d&rsquo;exiger des certificats d&rsquo;authentification pour partager certains contenus. Par exemple, pour que des vid\u00e9os deepfakes soient publi\u00e9es sur Facebook, elles devront \u00eatre marqu\u00e9es comme v\u00e9rifi\u00e9es apr\u00e8s avoir \u00e9t\u00e9 examin\u00e9es par l&rsquo;entreprise .<\/p>\n\n<p>Il viendra peut-\u00eatre m\u00eame un moment o\u00f9 nous cesserons de consid\u00e9rer la r\u00e9alit\u00e9 virtuelle et la r\u00e9alit\u00e9 augment\u00e9e comme des technologies avanc\u00e9es en raison de l&rsquo;avanc\u00e9e de l&rsquo;IA. Tout le contenu num\u00e9rique pourrait se m\u00e9langer, il est donc difficile de dire ce qui est authentique et ce qui ne l&rsquo;est pas, ce qui d\u00e9truirait notre confiance dans un certain nombre de formes de m\u00e9dias. La seule fa\u00e7on d&#8217;emp\u00eacher que cela se produise est de travailler tous ensemble en tant que soci\u00e9t\u00e9 pour mettre fin \u00e0 ces pratiques avant qu&rsquo;elles n&rsquo;aient la moindre chance de r\u00e9ussir. Nous n&rsquo;avons aucune id\u00e9e jusqu&rsquo;o\u00f9 ira la technologie deepfake si elle s&rsquo;av\u00e9rera bonne ou mauvaise pour nous, mais nous ne pouvons pas la laisser compromettre notre capacit\u00e9 \u00e0 percevoir la r\u00e9alit\u00e9.<\/p>\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-16018d1d wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link\" href=\"https:\/\/imp.i384100.net\/LPG9D0\" target=\"_blank\" rel=\"noreferrer noopener\">D\u00e9couvrez ici les meilleurs cours pour Deepfakes Technologies<\/a><\/div>\n<\/div>\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n<h2 class=\"wp-block-heading\">Quand pr\u00e9voyons-nous une utilisation massive des deepfakes ?<\/h2>\n\n<p>Les deepfakes sont des vid\u00e9os g\u00e9n\u00e9r\u00e9es par des algorithmes d&rsquo;intelligence artificielle ou d&rsquo;apprentissage automatique. Les utilisateurs de Deepfake peuvent prendre quelques secondes de vid\u00e9o et la transformer en quelque chose qui ressemble \u00e0 des minutes. Deepfakes permet \u00e0 une personne moyenne de cr\u00e9er des \u00e9changes de visages convaincants, des imitations de voix ou tout autre type de manipulation que vous pourriez voir dans les films.<\/p>\n\n<p>Nous verrons probablement l&rsquo;utilisation massive des deepfakes \u00e0 un moment donn\u00e9, car l&rsquo;IA s&rsquo;am\u00e9liore dans la reconnaissance des visages, des voix et d&rsquo;autres choses, ce qui permet \u00e0 l&rsquo;utilisation de ces types de techniques de se g\u00e9n\u00e9raliser.<\/p>\n\n<p>Le public commencera \u00e0 voir l&rsquo;utilisation avanc\u00e9e des vid\u00e9os deepfake lorsqu&rsquo;elles doivent \u00eatre rendues en temps r\u00e9el. Cela signifie qu&rsquo;il faut moins de quelques minutes \u00e0 un algorithme pour cr\u00e9er une vid\u00e9o r\u00e9aliste. Plus cela prend de temps, moins les gens sont susceptibles d&rsquo;attendre qu&rsquo;il soit g\u00e9n\u00e9r\u00e9. La plupart des gens ne s&rsquo;en soucieront pas ou ne remarqueront pas s&rsquo;il ne s&rsquo;agit pas vraiment d&rsquo;un rendu en temps r\u00e9el, car la plupart ont cess\u00e9 de pr\u00eater attention une fois qu&rsquo;ils savent que quelque chose est faux &#8211; tant qu&rsquo;un algorithme peut r\u00e9ussir \u00e0 les tromper avec leurs yeux sans trop d&rsquo;effort. Les progr\u00e8s technologiques en mati\u00e8re de reconnaissance faciale, d&rsquo;algorithmes d&rsquo;apprentissage automatique et de rendu num\u00e9rique pourraient inciter le consommateur moyen \u00e0 commencer \u00e0 remarquer les vid\u00e9os deepfake, mais il faudra probablement des ann\u00e9es avant que cela ne se produise.<\/p>\n\n<p>Nous commencerons \u00e0 voir ce type de vid\u00e9os dans trois \u00e0 cinq ans, car il n&rsquo;y a pas eu beaucoup de progr\u00e8s technologiques r\u00e9cemment et il s&rsquo;agit d&rsquo;un concept relativement nouveau. Nous pouvons d\u00e9j\u00e0 cr\u00e9er de fausses vid\u00e9os traditionnelles qui ont l&rsquo;air r\u00e9elles en utilisant des logiciels de montage tels qu&rsquo;Adobe Premiere Pro et After Effects. La seule diff\u00e9rence entre celles-ci et les vid\u00e9os deepfake est que nous ne pouvons pas contr\u00f4ler ce que les gens disent ou comment ils bougent la bouche, nous avons donc besoin d&rsquo;un logiciel comme FakeApp par exemple, qui utilise des algorithmes d&rsquo;apprentissage automatique pour effectuer des \u00e9changes de visage et des choses similaires. Il faudrait beaucoup de temps et d&rsquo;argent pour cr\u00e9er suffisamment de contenu pour que le public accepte les vid\u00e9os d&rsquo;apprentissage automatique comme r\u00e9elles. Nous avons \u00e9galement besoin de plus d&rsquo;avanc\u00e9es technologiques telles que des imprimantes 3D haute r\u00e9solution bon march\u00e9 qui peuvent cr\u00e9er des t\u00eates grandeur nature sans perdre trop de clart\u00e9. De plus, je pense que nous verrons probablement ces types de vid\u00e9os dans les films avant qu&rsquo;ils ne deviennent populaires sur les r\u00e9seaux sociaux, car les films ont une dur\u00e9e de vie plus longue que quelques minutes et les gens seront plus ouverts \u00e0 eux s&rsquo;ils les voient dans les cin\u00e9mas ou \u00e0 moins annonc\u00e9s par les grandes soci\u00e9t\u00e9s de production.<\/p>\n\n<p>Personnellement, je ne pense pas que nous atteindrons un jour le point o\u00f9 nous ne conna\u00eetrons plus les vid\u00e9os deepfake des vid\u00e9os traditionnelles, mais cela changerait d\u00e9finitivement notre fa\u00e7on de voir les choses comme les interviews et les discours. \u00c0 mon avis, personne ne peut faire grand-chose \u00e0 propos de ce type de technologie. Il n&rsquo;est pas ill\u00e9gal de cr\u00e9er de fausses vid\u00e9os, il n&rsquo;est pas ill\u00e9gal de les publier en ligne, et il est impossible pour quiconque de dire si une vid\u00e9o est fausse ou non si la personne qui la cr\u00e9e veut que cette vid\u00e9o soit r\u00e9elle.<\/p>\n\n<p>Je ne pense pas que l&rsquo;utilisateur moyen de Facebook commencera \u00e0 remarquer des vid\u00e9os deepfake tant qu&rsquo;elles ne pourront pas \u00eatre rendues en temps r\u00e9el. Bien que des sites comme FakeApp cr\u00e9ent de fausses vid\u00e9os en utilisant des algorithmes d&rsquo;apprentissage automatique au lieu d&rsquo;un logiciel de montage traditionnel, ces types de vid\u00e9os sont extr\u00eamement difficiles \u00e0 cr\u00e9er en raison de la puissance de calcul dont vous avez besoin pour chaque seconde de s\u00e9quence. La puissance n\u00e9cessaire mettrait une pression \u00e9norme sur les serveurs et les r\u00e9seaux, ce qui signifie qu&rsquo;il faudrait beaucoup de temps pour g\u00e9n\u00e9rer une vid\u00e9o avec un degr\u00e9 d&rsquo;authenticit\u00e9 suffisamment \u00e9lev\u00e9.<\/p>\n\n<p>En raison de la nature des vid\u00e9os deepfake, je ne pense pas que nous verrons une forte augmentation de leur utilisation imm\u00e9diatement apr\u00e8s leur cr\u00e9ation. Il n&rsquo;est pas ill\u00e9gal de les publier ou de les redistribuer en ligne, il n&rsquo;y a donc pas grand-chose \u00e0 faire si quelqu&rsquo;un veut partager quelque chose qu&rsquo;il a cr\u00e9\u00e9. \u00c0 mon avis, cela commencera probablement \u00e0 devenir un probl\u00e8me lorsque des sites de m\u00e9dias sociaux comme Facebook commenceront \u00e0 rencontrer des probl\u00e8mes avec les annonceurs pour avoir h\u00e9berg\u00e9 ce type de vid\u00e9os, car ils pourraient provoquer l&rsquo;indignation des t\u00e9l\u00e9spectateurs essayant de vaquer \u00e0 leurs occupations quotidiennes sans \u00eatre confront\u00e9s \u00e0 de fausses vid\u00e9os. d&rsquo;amis ou de membres de la famille. Les gens ont \u00e9t\u00e9 dup\u00e9s avec succ\u00e8s par la technologie CGI traditionnelle dans le pass\u00e9, il serait donc difficile de dire quand quelqu&rsquo;un est dup\u00e9 par un algorithme d&rsquo;apprentissage automatique ou a \u00e9t\u00e9 dup\u00e9 \u00e0 cause d&rsquo;un logiciel d&rsquo;\u00e9dition. Je pense que cela deviendra un probl\u00e8me lorsque les gens commenceront \u00e0 perdre confiance dans ce qu&rsquo;ils voient et entendent des m\u00e9dias, ce qui pourrait entra\u00eener un manque de confiance dans les personnalit\u00e9s publiques.<\/p>\n\n<p>Je ne pense pas que nous serons vraiment complets sur les deepfakes jusqu&rsquo;\u00e0 ce qu&rsquo;il y ait une sorte d&rsquo;avanc\u00e9e technologique. \u00c0 l&rsquo;heure actuelle, la cr\u00e9ation de ces vid\u00e9os prend encore beaucoup de temps et consomme beaucoup de puissance de calcul, vous pouvez donc imaginer combien de temps il faut pour que chacune soit rendue. Ce serait un travail assez laborieux pour les gens qui veulent des millions d&rsquo;exemplaires car ils devraient le faire un par un, mais une fois qu&rsquo;il y aura quelque chose qui peut les g\u00e9n\u00e9rer \u00e0 grande \u00e9chelle, je pense que nous verrons honn\u00eatement \u00e0 quel point un probl\u00e8me cela pourrait devenir.<\/p>\n\n<p>Je ne pense pas que les gens le remarqueront tant qu&rsquo;ils ne commenceront pas \u00e0 prendre en compte les angles de cam\u00e9ra. Si la personne qui cr\u00e9e de fausses vid\u00e9os est capable d&rsquo;obtenir suffisamment de s\u00e9quences de quelqu&rsquo;un qui parle ou se d\u00e9place en vid\u00e9o, peu importe qu&rsquo;elle utilise des outils de montage traditionnels ou des algorithmes d&rsquo;apprentissage automatique, car le produit fini aura l&rsquo;air suffisamment r\u00e9el pour passer pour authentique. sans trop y penser. Bien que les vid\u00e9os deepfake soient actuellement extr\u00eamement difficiles et longues \u00e0 cr\u00e9er, les progr\u00e8s technologiques qui permettent de faire plus de choses en temps r\u00e9el rendront les choses beaucoup plus faciles. \u00c0 l&rsquo;heure actuelle, le terme deepfake fait r\u00e9f\u00e9rence \u00e0 toute vid\u00e9o qui a \u00e9t\u00e9 truqu\u00e9e avec des algorithmes d&rsquo;apprentissage automatique et des logiciels de montage traditionnels, mais si quelque chose \u00e9tait capable de faire les deux \u00e0 la fois, nous aurions un probl\u00e8me beaucoup plus important entre nos mains.<\/p>\n\n<p>Je pense que les fausses vid\u00e9os ne deviendront pas trop populaires tant que les gens ne trouveront pas un moyen facile de les faire travailler pour eux plut\u00f4t que d&rsquo;avoir \u00e0 embaucher quelqu&rsquo;un d&rsquo;autre avec un gros budget. Peu importe \u00e0 quel point ces choses seront bon march\u00e9 ou ch\u00e8res, la plupart des gens auront encore besoin de beaucoup de temps et d&rsquo;argent avant de pouvoir cr\u00e9er leurs propres contrefa\u00e7ons sans embaucher quelqu&rsquo;un d&rsquo;autre. Il y a des gens qui font de leur entreprise \u00e0 domicile o\u00f9 ils vendent des vid\u00e9os deepfake, mais pour la plupart, je pense que jusqu&rsquo;\u00e0 ce que ce soit quelque chose que tout le monde puisse faire, cela n&rsquo;aura pas trop d&rsquo;impact sur la soci\u00e9t\u00e9.<\/p>\n\n<p>Je ne pense pas que les gens commenceront \u00e0 utiliser largement ces vid\u00e9os jusqu&rsquo;\u00e0 ce qu&rsquo;il y ait une grande incitation financi\u00e8re \u00e0 le faire. \u00c0 l&rsquo;heure actuelle, si vous deviez cr\u00e9er une vid\u00e9o avec de fausses s\u00e9quences sans aucune cible reconnaissable ou sp\u00e9cifique, il serait difficile d&rsquo;attirer l&rsquo;attention car il n&rsquo;y aurait rien qui m\u00e9rite d&rsquo;\u00eatre critiqu\u00e9 en premier lieu. M\u00eame si quelqu&rsquo;un voulait en produire un pour le plaisir, il y a toujours le temps et la puissance de calcul n\u00e9cessaires pour le faire, donc cela ne servirait pas \u00e0 grand-chose s&rsquo;il n&rsquo;avait pas un objectif en t\u00eate. Si ces vid\u00e9os peuvent devenir extr\u00eamement convaincantes \u00e0 grande \u00e9chelle, je pense que les gens commenceront \u00e0 les utiliser \u00e0 des fins n\u00e9gatives dans le but de gagner de l&rsquo;argent.<\/p>\n\n<p>Je ne pense pas que les fausses vid\u00e9os deviendront vraiment populaires tant que les gens ne pourront pas produire automatiquement des clips bas\u00e9s sur la conversation. Pour l&rsquo;instant, la plupart des contrefa\u00e7ons sont des images fixes de base qui sont soit modifi\u00e9es, soit compl\u00e8tement r\u00e9organis\u00e9es pour s&rsquo;adapter \u00e0 l&rsquo;objectif pour lequel elles ont \u00e9t\u00e9 cr\u00e9\u00e9es. Si les algorithmes deepfake \u00e9taient capables d&rsquo;imiter des mouvements plus r\u00e9els comme la synchronisation labiale ou les raccourcis gestuels, je pense que cela ouvrirait un tout nouveau monde de possibilit\u00e9s o\u00f9 les gens peuvent cr\u00e9er un produit final beaucoup plus convaincant. Si la vid\u00e9o est capable d&rsquo;imiter des mouvements de la vie r\u00e9elle qui parlent, je peux imaginer qu&rsquo;ils deviendraient tr\u00e8s populaires comme moyen de d\u00e9sinformer ou de calomnier quelqu&rsquo;un sans aucune cons\u00e9quence, car personne ne pourrait r\u00e9ellement v\u00e9rifier si c&rsquo;est r\u00e9el ou non.<\/p>\n\n<div class=\"wp-block-buttons is-horizontal is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-499968f5 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link\" href=\"mailto:info@iotworlds.com\">Discutons davantage des technologies deepfake &#8211; Contactez-nous !<\/a><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Deepfake est une nouvelle technologie qui peut \u00eatre utilis\u00e9e pour manipuler la vid\u00e9o et l&rsquo;audio, dans le but de produire&hellip;<\/p>\n","protected":false},"author":1,"featured_media":383168,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_lmt_disableupdate":"","_lmt_disable":"","footnotes":""},"categories":[1741,2245],"tags":[],"class_list":["post-386519","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog-fr-2","category-intelligence-artificielle"],"acf":[],"_links":{"self":[{"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/posts\/386519","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/comments?post=386519"}],"version-history":[{"count":0,"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/posts\/386519\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/media\/383168"}],"wp:attachment":[{"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/media?parent=386519"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/categories?post=386519"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/iotworlds.com\/fr\/wp-json\/wp\/v2\/tags?post=386519"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}