{"id":386529,"date":"2022-01-10T23:10:21","date_gmt":"2022-01-10T22:10:21","guid":{"rendered":"https:\/\/iotworlds.com\/deepfake-o-que-voce-precisa-saber\/"},"modified":"2022-06-25T08:14:10","modified_gmt":"2022-06-25T06:14:10","slug":"deepfake-o-que-voce-precisa-saber","status":"publish","type":"post","link":"https:\/\/iotworlds.com\/pt-br\/deepfake-o-que-voce-precisa-saber\/","title":{"rendered":"Deepfake &#8211; O que voc\u00ea precisa saber"},"content":{"rendered":"\n<p>Deepfake \u00e9 uma nova tecnologia que pode ser usada para manipular v\u00eddeo e \u00e1udio, com a inten\u00e7\u00e3o de produzir conte\u00fado de m\u00eddia falsa. Tem sido muito noticiado ultimamente em termos de seu uso para fins pol\u00edticos, mas tem muitos outros usos potenciais na ind\u00fastria e no entretenimento.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-what-is-a-deepfake-and-how-does-it-work\">O que \u00e9 deepfake e como funciona<\/h2>\n\n<p>Um deepfake \u00e9 criado quando algu\u00e9m usa um programa de IA para gerar uma imagem, v\u00eddeo ou clipe de \u00e1udio de algo que nunca aconteceu na realidade. Geralmente, eles s\u00e3o bastante f\u00e1ceis de identificar porque o conte\u00fado falso geralmente apresenta erros ou contradi\u00e7\u00f5es quando cruzado com a m\u00eddia aut\u00eantica<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-how-to-use-deepfakes-for-good\">Como usar deepfakes para o bem<\/h2>\n\n<p>At\u00e9 agora, as pessoas usaram essa tecnologia para v\u00eddeos de s\u00e1tira<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-the-dangers-of-using-deepfakes-for-malicious-purposes\">Os perigos de usar deepfakes para fins maliciosos<\/h2>\n\n<p>Essa tecnologia pode ser usada para criar informa\u00e7\u00f5es erradas que as pessoas acreditar\u00e3o sem questionar, o que pode levar a consequ\u00eancias desastrosas no futuro. Por exemplo, imagine se fossem divulgadas imagens de um chefe de estado dizendo que quer lan\u00e7ar um ataque nuclear<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-the-implications-of-the-future-of-fake-news-on-politics-journalism-and-society\">As implica\u00e7\u00f5es do futuro das fake news na pol\u00edtica, no jornalismo e na sociedade<\/h2>\n\n<p>No futuro, ser\u00e1 mais f\u00e1cil do que nunca gerar m\u00eddia falsa em que as pessoas acreditar\u00e3o sem questionar, o que poder\u00e1 levar a consequ\u00eancias desastrosas no futuro. Por exemplo, imagine se fossem divulgadas imagens de um chefe de estado dizendo que quer lan\u00e7ar um ataque nuclear<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-solutions-to-combat-these-issues-in-the-future\">Solu\u00e7\u00f5es para combater esses problemas no futuro<\/h2>\n\n<p>Ser\u00e1 cada vez mais importante para pessoas de todas as origens poss\u00edveis \u2013 incluindo jornalistas \u2013 verificar o conte\u00fado por meio de v\u00e1rias fontes antes de relatar qualquer coisa como verdadeira ou at\u00e9 mesmo compartilhar algo nas m\u00eddias sociais. Tamb\u00e9m pode ser ben\u00e9fico para empresas de tecnologia como YouTube ou Facebook fazer mais do que apenas confiar em usu\u00e1rios sinalizando conte\u00fado como algo problem\u00e1tico<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-concluding-remarks-about-the-importance-of-this-technology-s-potential-impact-on-society\">Considera\u00e7\u00f5es finais sobre a import\u00e2ncia do impacto potencial desta tecnologia na sociedade<\/h2>\n\n<p>No futuro, ser\u00e1 mais f\u00e1cil do que nunca gerar m\u00eddia falsa em que as pessoas acreditar\u00e3o sem questionar, o que poder\u00e1 levar a consequ\u00eancias desastrosas no futuro. Por exemplo, imagine se fossem divulgadas imagens de um chefe de Estado dizendo que deseja lan\u00e7ar um ataque nuclear.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes, como evitar ser enganado?<\/h2>\n\n<p>&#8220;Deepfakes&#8221; \u00e9 um termo que se refere a v\u00eddeos editados ou imagens de pessoas que parecem estar fazendo algo que realmente n\u00e3o fizeram. Esses v\u00eddeos e imagens profundamente falsos podem ser criados usando software de intelig\u00eancia artificial (IA), como o FakeApp. V\u00eddeos e imagens deepfake podem ser usados para criar not\u00edcias falsas profundas ou para v\u00e1rios prop\u00f3sitos maliciosos. Para sua seguran\u00e7a, as pessoas devem ter software atualizado, usar senhas exclusivas em todos os sites que visitam, nunca armazenar senhas em seus navegadores, desativar o Flash se n\u00e3o for necess\u00e1rio, evitar instalar extens\u00f5es de navegador oferecidas por meio de pop-ups na web sites em que voc\u00ea n\u00e3o confia, evite baixar software pirata se poss\u00edvel e confira nossas dicas sobre como evitar v\u00eddeos e imagens deepfake abaixo.<\/p>\n\n<p>Existem alguns fatores que podem ajud\u00e1-lo a evitar ser enganado por um v\u00eddeo ou imagem profundamente falso. Primeiro, voc\u00ea deve manter seu software atualizado, pois isso geralmente inclui atualiza\u00e7\u00f5es de seguran\u00e7a. Se o seu software n\u00e3o estiver atualizado, pode ser poss\u00edvel que algu\u00e9m explore vulnerabilidades de seguran\u00e7a em vers\u00f5es antigas do software para obter acesso ao seu sistema sem o seu conhecimento. Em segundo lugar, se voc\u00ea usar senhas exclusivas (e alter\u00e1-las regularmente), mesmo que um site seja invadido, isso n\u00e3o afetar\u00e1 nenhum outro site que voc\u00ea visite no futuro com a mesma senha. Um terceiro fator \u00e9 garantir que o Flash seja instalado quando voc\u00ea precisar.<\/p>\n\n<h2 class=\"wp-block-heading\">Como identificar um v\u00eddeo deepfake<\/h2>\n\n<p>V\u00eddeos deepfake s\u00e3o v\u00eddeos que foram manipulados usando IA para fazer parecer que algu\u00e9m est\u00e1 dizendo ou fazendo algo que n\u00e3o fez. Os v\u00eddeos deepfake podem ser usados por v\u00e1rios motivos, incluindo propaganda, entretenimento e desinforma\u00e7\u00e3o.<\/p>\n\n<p>Para identificar um v\u00eddeo deepfake, h\u00e1 algumas coisas que voc\u00ea pode procurar. Uma das maneiras mais f\u00e1ceis de identificar um deepfake \u00e9 se a pessoa no v\u00eddeo tiver uma apar\u00eancia diferente da apar\u00eancia normal. Al\u00e9m disso, voc\u00ea pode procurar movimentos incomuns nas caracter\u00edsticas faciais da pessoa ou movimentos n\u00e3o naturais dos l\u00e1bios. Voc\u00ea tamb\u00e9m pode ouvir distor\u00e7\u00f5es ou inconsist\u00eancias de \u00e1udio.<\/p>\n\n<p>Se voc\u00ea n\u00e3o tiver certeza se um v\u00eddeo \u00e9 real ou falso, pode ser \u00fatil perguntar a si mesmo qual \u00e9 o prop\u00f3sito do v\u00eddeo. Quem se beneficiaria de falsificar este v\u00eddeo? Se n\u00e3o parecer haver uma motiva\u00e7\u00e3o clara para falsificar o v\u00eddeo, \u00e9 mais prov\u00e1vel que o v\u00eddeo seja preciso.<\/p>\n\n<p>Outra coisa que voc\u00ea pode fazer se estiver tentando descobrir se uma pessoa disse algo de uma certa maneira (por exemplo, enganosamente) seria ouvir e comparar sua pron\u00fancia com a de outros discursos que ela fez. Por exemplo, se algu\u00e9m j\u00e1 falou publicamente sobre um assunto antes, mas nunca pronunciou uma palavra da mesma forma que fez neste novo discurso \u2013 isso sinaliza decep\u00e7\u00e3o.<\/p>\n\n<p>Os primeiros deepfakes foram criados usando o Adobe After Effects, que exige que os usu\u00e1rios tenham conhecimento de edi\u00e7\u00e3o de v\u00eddeo. No entanto, mais recentemente, a IA foi usada para fazer deepfakes sem nenhuma entrada do usu\u00e1rio. Isso diminui a quantidade de trabalho de p\u00f3s-produ\u00e7\u00e3o necess\u00e1ria para criar um v\u00eddeo, mas faz pouco para impedir que algu\u00e9m produza um v\u00eddeo falso completamente sem ser detectado.<\/p>\n\n<p>Uma maneira de se proteger de ser afetado por v\u00eddeos deepfake \u00e9 ser c\u00e9tico ao assistir ou ler a m\u00eddia de not\u00edcias. Se algo parecer errado, n\u00e3o acredite at\u00e9 confirmar que \u00e9 verdade. Por exemplo, verifique v\u00e1rias fontes antes de acreditar em algo que voc\u00ea ouve na televis\u00e3o, porque os v\u00eddeos deepfake est\u00e3o se tornando uma maneira cada vez mais comum de espalhar desinforma\u00e7\u00e3o online. E lembre-se: s\u00f3 porque algo parece verdadeiro n\u00e3o significa que seja.<\/p>\n\n<p>Alguns exemplos de v\u00eddeos deepfake anteriores incluem um em que o ex-presidente Obama falou em tom racista e outro em que a atriz Gal Gadot parecia estar dizendo que pertencia ao \u201cEstado Isl\u00e2mico\u201d (ISIS). Esses v\u00eddeos mostram como pode ser f\u00e1cil para qualquer pessoa com acesso \u00e0 tecnologia e conhecimento certos criar deepfakes que parecem reais. A facilidade com que esses v\u00eddeos podem ser criados tamb\u00e9m torna dif\u00edcil para muitas pessoas distinguir o que \u00e9 real e o que n\u00e3o \u00e9.<\/p>\n\n<p>Compreender como esses v\u00eddeos s\u00e3o feitos e conhecer algumas maneiras de identific\u00e1-los \u00e9 essencial se voc\u00ea quiser se proteger de ser v\u00edtima ou promover inadvertidamente informa\u00e7\u00f5es falsas online. <\/p>\n\n<h2 class=\"wp-block-heading\">Como se manter informado em uma sociedade p\u00f3s-verdade<\/h2>\n\n<p>Se voc\u00ea quiser se manter informado, existem alguns passos que voc\u00ea pode tomar. O primeiro passo \u00e9 evitar a leitura de informa\u00e7\u00f5es que n\u00e3o foram corroboradas por v\u00e1rias fontes confi\u00e1veis. Voc\u00ea tamb\u00e9m deve considerar qual pode ser a motiva\u00e7\u00e3o para compartilhar esse tipo de informa\u00e7\u00e3o. Se a fonte parecer tendenciosa ou se n\u00e3o houver uma explica\u00e7\u00e3o clara do motivo pelo qual eles est\u00e3o compartilhando algo, voc\u00ea deve reconsiderar o quanto de confian\u00e7a voc\u00ea tem nas informa\u00e7\u00f5es apresentadas. Al\u00e9m disso, lembre-se de que s\u00f3 porque algo parece verdadeiro n\u00e3o significa que seja. Pode ser imprudente basear sua pr\u00f3pria opini\u00e3o em informa\u00e7\u00f5es falsas, ent\u00e3o tente n\u00e3o tirar conclus\u00f5es precipitadas at\u00e9 que voc\u00ea tenha tempo de verificar o que v\u00ea online. Se voc\u00ea n\u00e3o tiver certeza se um v\u00eddeo \u00e9 real ou falso, pergunte a si mesmo qual \u00e9 o prop\u00f3sito do v\u00eddeo. Quem se beneficiaria de falsificar este v\u00eddeo? Voc\u00ea tamb\u00e9m pode procurar movimentos incomuns nas caracter\u00edsticas faciais da pessoa ou movimentos labiais n\u00e3o naturais. E, por \u00faltimo, se voc\u00ea estiver tentando descobrir se uma pessoa disse algo de uma certa maneira (por exemplo, enganosamente), seria \u00fatil ouvir e comparar sua pron\u00fancia com a de outros discursos que ela fez. Por exemplo, se algu\u00e9m j\u00e1 falou publicamente sobre um assunto antes, mas nunca pronunciou uma palavra da mesma forma que fez neste novo discurso \u2013 isso sinaliza decep\u00e7\u00e3o.<\/p>\n\n<h2 class=\"wp-block-heading\">A cara da revolu\u00e7\u00e3o do deepfake<\/h2>\n\n<p>A revolu\u00e7\u00e3o do deepfake \u00e9 um fen\u00f4meno cont\u00ednuo em que as pessoas podem criar v\u00eddeos de pessoas dizendo ou fazendo coisas que nunca fizeram. A tecnologia por tr\u00e1s dos deepfakes \u00e9 chamada de \u201cdeep learning\u201d, que \u00e9 um tipo de aprendizado de m\u00e1quina que permite que os computadores aprendam como fazer as coisas por exemplo.<\/p>\n\n<p>Essa tecnologia j\u00e1 foi usada para criar v\u00eddeos falsos de celebridades, e s\u00f3 vai piorar a partir daqui. Precisamos estar cientes dessa tecnologia e estar preparados para as consequ\u00eancias.<\/p>\n\n<p>As consequ\u00eancias desse tipo de tecnologia s\u00e3o imensas. Por um lado, \u00e9 muito f\u00e1cil enganar as pessoas a pensar que esses v\u00eddeos s\u00e3o reais. Consegui encontrar um subreddit onde as pessoas criam v\u00eddeos falsos com relativa facilidade e a qualidade \u00e9 insana. Um v\u00eddeo criado por algu\u00e9m neste subreddit obteve quase 11.000 votos positivos. Isso \u00e9 perturbador porque significa que existe uma comunidade inteira disposta a compartilhar v\u00eddeos falsos como se fossem reais. Al\u00e9m disso, n\u00e3o existem leis contra o deepfake, ent\u00e3o ser\u00e1 interessante ver como esse tipo de coisa progride nos pr\u00f3ximos anos.<\/p>\n\n<p>Outra consequ\u00eancia \u00e9 que podemos perder nossa confian\u00e7a na m\u00eddia digital como um todo e parar de usar a m\u00eddia digital para coisas como educa\u00e7\u00e3o e documenta\u00e7\u00e3o. Um exemplo \u00e9 o v\u00eddeo de Barack Obama falando sobre &#8220;fake news&#8221; que na verdade foi criada por outra pessoa. Isso mostra como \u00e9 f\u00e1cil fazer as pessoas parecerem ruins, mas essa tecnologia ser\u00e1 ainda mais perigosa quando usada com discursos pol\u00edticos que tenham implica\u00e7\u00f5es reais na vida das pessoas.<\/p>\n\n<p>Encontrei um site que pode criar v\u00eddeos falsos usando apenas fotos do Facebook. Basta fazer upload de 3 a 20 fotos do seu rosto e o software as combinar\u00e1 em um v\u00eddeo com apar\u00eancia realista, onde voc\u00ea est\u00e1 dizendo o que quiser. As pessoas j\u00e1 est\u00e3o come\u00e7ando a usar esses v\u00eddeos para se vingar de seus ex ou se vingar de pessoas que os fizeram mal. Acho que isso \u00e9 perigoso porque significa que podemos perder a confian\u00e7a uns nos outros como humanos se o deepfake se tornar mais popular.<\/p>\n\n<p>Essa tecnologia \u00e9 viciante e tem o potencial de nos deixar obcecados por coisas que n\u00e3o existem. Muita gente j\u00e1 perdeu tempo tentando desmascarar v\u00eddeos feitos por essa tecnologia, o que significa que est\u00e3o sendo enganados o tempo todo. Um exemplo \u00e9 um v\u00eddeo onde Barack Obama diz &#8220;N\u00f3s matamos Osama Bin Laden&#8221;, que foi criado por algu\u00e9m. Isso mostra como \u00e9 f\u00e1cil enganar as pessoas usando esse tipo de tecnologia, ent\u00e3o acho que todos deveriam estar cientes de sua exist\u00eancia antes de tomar qualquer tipo de decis\u00e3o com base no que voc\u00ea v\u00ea online. Precisamos de leis contra o deepfake porque acredito que esses v\u00eddeos ser\u00e3o destrutivos para as rela\u00e7\u00f5es entre as pessoas na sociedade se forem permitidos progredir sem limita\u00e7\u00f5es. Isso dividir\u00e1 nossa sociedade em dois grupos, pois aqueles que sabem ser\u00e3o cautelosos com tudo o que veem online e aqueles que n\u00e3o o fazem. Isso ter\u00e1 um efeito negativo em nossa sociedade como um todo, porque as pessoas n\u00e3o poder\u00e3o confiar no que \u00e9 real e no que n\u00e3o \u00e9, o que significa que teremos menos probabilidade de nos comunicarmos uns com os outros ou compartilhar coisas importantes como documenta\u00e7\u00e3o e educa\u00e7\u00e3o por meio de m\u00eddia digital.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes, por que seus dados n\u00e3o valem nada?<\/h2>\n\n<p>Existem tr\u00eas tipos de dados que n\u00e3o valem nada: Deepfakes, Your Data, Your Future.<\/p>\n\n<p>Deepfakes s\u00e3o v\u00eddeos criados com intelig\u00eancia artificial. Eles s\u00e3o normalmente usados para criar filmes transformando o rosto de uma pessoa no corpo de outra pessoa, ou para outros prop\u00f3sitos enganosos. Esse tipo de tecnologia pode ser usado para criar conte\u00fado de v\u00eddeo falso que pode desestabilizar nossa sociedade. Semelhante ao Deepfakes, seus dados tamb\u00e9m n\u00e3o valem nada porque podem ser manipulados para servir a qualquer prop\u00f3sito. O \u00faltimo tipo de dado que n\u00e3o vale nada \u00e9 o seu futuro porque n\u00e3o pode ser visto. As pessoas est\u00e3o sempre tentando prever o futuro, mas \u00e9 muito dif\u00edcil.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes &#8211; O que voc\u00ea precisa saber sobre esse pesadelo digital<\/h2>\n\n<p>Deepfakes s\u00e3o um tipo de manipula\u00e7\u00e3o digital que usa intelig\u00eancia artificial para criar v\u00eddeos de pessoas que parecem estar dizendo ou fazendo coisas que nunca disseram ou fizeram. Os v\u00eddeos deepfake costumam ser usados para criar v\u00eddeos falsos, mas tamb\u00e9m podem ser usados para criar not\u00edcias falsas ou manipular a opini\u00e3o p\u00fablica.<\/p>\n\n<p>Os v\u00eddeos deepfake s\u00e3o um pesadelo digital porque podem ser usados para espalhar mentiras e desinforma\u00e7\u00e3o. Eles tamb\u00e9m podem ser usados para chantagear pessoas ou prejudicar sua reputa\u00e7\u00e3o. V\u00eddeos deepfake s\u00e3o muito dif\u00edceis de detectar, por isso \u00e9 importante estar ciente deles e ser c\u00e9tico em rela\u00e7\u00e3o a qualquer v\u00eddeo que pare\u00e7a bom demais para ser verdade.<\/p>\n\n<p>Os v\u00eddeos deepfake s\u00e3o feitos com uma combina\u00e7\u00e3o de aprendizado de m\u00e1quina e intelig\u00eancia artificial. O primeiro passo \u00e9 criar um conjunto de dados que inclua o v\u00eddeo da pessoa que voc\u00ea quer que diga ou fa\u00e7a algo que ela nunca fez. Voc\u00ea pode usar ferramentas dispon\u00edveis gratuitamente para gerar este conjunto de treinamento, que incluir\u00e1 centenas ou milhares de v\u00eddeos curtos de seu alvo. Os algoritmos de aprendizado de m\u00e1quina s\u00e3o usados para fazer esses v\u00eddeos individuais e &#8220;aprender&#8221; como o rosto deve ficar quando estiver fazendo express\u00f5es diferentes ou dizendo palavras diferentes. Depois que dados suficientes forem coletados, os algoritmos de aprendizado de m\u00e1quina podem gerar novos v\u00eddeos falsos que parecem muito realistas e naturais.<\/p>\n\n<p>O termo Deepfakes foi cunhado por um usu\u00e1rio an\u00f4nimo do Reddit.<\/p>\n\n<h2 class=\"wp-block-heading\">O que \u00e9 \u00e1udio deepfake?<\/h2>\n\n<p>O \u00e1udio deepfake \u00e9 uma tecnologia emergente que permite a cria\u00e7\u00e3o de uma grava\u00e7\u00e3o falsa. Funciona de tal forma que cria um som ou v\u00eddeo com a voz de algu\u00e9m e o coloca no corpo de outra pessoa. Isso normalmente \u00e9 usado por pessoas para constranger os outros, mas os deepfakes tamb\u00e9m podem ser usados para criar v\u00eddeos e grava\u00e7\u00f5es falsos para desacreditar ou amea\u00e7ar pol\u00edticos e celebridades.<\/p>\n\n<p>O \u00e1udio deepfake \u00e9 uma tecnologia relativamente nova que surgiu nos \u00faltimos dois anos, mas est\u00e1 se tornando mais popular devido \u00e0 sua facilidade de uso. Existem v\u00e1rios sites online onde as pessoas fazem upload de sons e outros usu\u00e1rios podem coloc\u00e1-los na boca de outra pessoa para criar v\u00eddeos. Esse processo \u00e9 possibilitado pela intelig\u00eancia artificial (IA) que pode ser usada para v\u00e1rios fins, incluindo edi\u00e7\u00e3o de v\u00eddeos ou cria\u00e7\u00e3o de v\u00eddeos falsos. Ele funciona pegando dados de algum tipo de fonte de \u00e1udio e usando isso para processamento adicional para concluir o trabalho de v\u00eddeo. As pessoas usaram deepfakes com discursos de pol\u00edticos para desacredit\u00e1-los ou com \u00e1udio expl\u00edcito de celebridades para humilh\u00e1-los.<\/p>\n\n<h2 class=\"wp-block-heading\">Quais s\u00e3o as poss\u00edveis implica\u00e7\u00f5es dos deepfakes?<\/h2>\n\n<p>Deepfakes s\u00e3o um tipo de v\u00eddeo gerado por IA que apareceu recentemente na internet. Esses v\u00eddeos s\u00e3o criados por algoritmos e fazem as pessoas dizerem coisas que nunca disseram ou parecem estar fazendo algo que nunca fizeram. Dessa forma, os deepfakes podem ser usados como uma forma de desinforma\u00e7\u00e3o para mudar a percep\u00e7\u00e3o das pessoas sobre a realidade. \u00c9 muito poss\u00edvel que os deepfakes continuem a proliferar e se tornem mais persuasivos com o passar do tempo, porque os algoritmos podem aprender com os v\u00eddeos deepfake anteriores e melhorar com o tempo. Isso poderia levar a um ponto em que n\u00e3o haveria mais credibilidade em qualquer v\u00eddeo, tornando imposs\u00edvel acreditar em qualquer coisa que vemos ou ouvimos.<\/p>\n\n<p>Uma das implica\u00e7\u00f5es mais importantes a se preocupar \u00e9 a quest\u00e3o da autenticidade. A divulga\u00e7\u00e3o de not\u00edcias falsas tornou-se uma pr\u00e1tica cada vez mais f\u00e1cil e comum, tanto que \u00e9 dif\u00edcil saber se algum v\u00eddeo ou fotografia \u00e9 real porque nunca podemos ter certeza absoluta. A Internet contribui significativamente para este problema. Ao pesquisar qualquer coisa no Google, voc\u00ea encontrar\u00e1 v\u00e1rios sites que apresentam informa\u00e7\u00f5es conflitantes, tornando ainda mais confuso ao tentar discernir o que \u00e9 verdade e o que n\u00e3o \u00e9. Se os deepfakes se tornarem amplamente vistos como fontes confi\u00e1veis de informa\u00e7\u00e3o, o efeito imediato ser\u00e1 uma perda de confian\u00e7a em todas as outras formas de conte\u00fado devido \u00e0 sua incerteza. Tamb\u00e9m pode nos fazer questionar tudo o que ouvimos ou vemos \u2013 at\u00e9 mesmo coisas que foram gravadas com nossos pr\u00f3prios olhos.<\/p>\n\n<p>Em particular, os jornalistas podem ser impactados pelo aumento da presen\u00e7a de deepfakes. Essa tecnologia pode impossibilitar que eles saibam se as entrevistas que realizam s\u00e3o reais ou n\u00e3o, o que coloca sua credibilidade em risco. Se as pessoas n\u00e3o acreditarem mais no que relatam \u00e9 preciso, h\u00e1 uma boa chance de que sua audi\u00eancia diminua e as pessoas se voltem para fontes que ofere\u00e7am conte\u00fado que pare\u00e7a mais leg\u00edtimo, independentemente de sua validade. Enquanto o p\u00fablico acreditar que est\u00e1 recebendo a verdade de outro lugar, sua confian\u00e7a nos principais meios de comunica\u00e7\u00e3o continuar\u00e1 a diminuir.<\/p>\n\n<p>Al\u00e9m disso, as implica\u00e7\u00f5es da desinforma\u00e7\u00e3o generalizada podem causar mudan\u00e7as nas rela\u00e7\u00f5es internacionais se alguns pa\u00edses n\u00e3o resolverem esse problema com rapidez suficiente. Por exemplo, se um v\u00eddeo deepfake fosse postado, fazendo parecer que os l\u00edderes de dois pa\u00edses estavam se insultando, suas respectivas popula\u00e7\u00f5es poderiam se tornar hostis umas \u00e0s outras e desenvolver uma falsa sensa\u00e7\u00e3o de hostilidade. Se a filmagem original n\u00e3o for divulgada e refutada com rapidez suficiente, as pessoas provavelmente continuar\u00e3o a perceber a realidade, uma vez que foi distorcida para elas pelo v\u00eddeo falso, o que torna as trocas violentas entre os cidad\u00e3os muito mais prov\u00e1veis, porque eles ser\u00e3o incentivados a agir com base em sua raiva em rela\u00e7\u00e3o a um indiv\u00edduo que na verdade n\u00e3o existe.<\/p>\n\n<p>Tamb\u00e9m podemos ver um grande decl\u00ednio em Hollywood \u00e0 medida que os espectadores param de ir aos cinemas porque preferem assistir a filmes em casa com deepfakes em vez de ter efeitos visuais realistas. A ind\u00fastria pode n\u00e3o conseguir acompanhar a tecnologia se ela evoluir mais r\u00e1pido do que o tempo que leva para a produ\u00e7\u00e3o de filmes, o que faria com que as receitas ca\u00edssem significativamente. Podemos at\u00e9 come\u00e7ar a ver filmes totalmente gerados por computador porque os atores n\u00e3o s\u00e3o mais necess\u00e1rios.<\/p>\n\n<p>Embora os deepfakes possam ter efeitos positivos na arte, h\u00e1 muito mais potencial para consequ\u00eancias negativas \u00e0 medida que a IA continua avan\u00e7ando e se espalhando por v\u00e1rios setores. \u00c9 essencial que as pessoas se conscientizem do problema para que possam determinar como resolv\u00ea-lo antes que a desinforma\u00e7\u00e3o se torne imposs\u00edvel de parar ou se torne muito persuasiva para seu pr\u00f3prio bem. Por esse motivo, os desenvolvedores devem testar continuamente os algoritmos e encontrar maneiras de limitar seus recursos para evitar que as informa\u00e7\u00f5es sejam distorcidas. Isso pode envolver limitar a apar\u00eancia dos v\u00eddeos ou exigir certificados de autentica\u00e7\u00e3o para compartilhar determinado conte\u00fado. Por exemplo, para que v\u00eddeos de deepfakes sejam postados no Facebook, eles precisar\u00e3o ser marcados como verificados ap\u00f3s serem analisados pela empresa .<\/p>\n\n<p>Pode at\u00e9 chegar um momento em que paremos de considerar a realidade virtual e a realidade aumentada como tecnologias avan\u00e7adas por causa de qu\u00e3o avan\u00e7ada a IA se tornou. Todo o conte\u00fado digital pode se misturar, ent\u00e3o \u00e9 dif\u00edcil dizer o que \u00e9 aut\u00eantico e o que n\u00e3o \u00e9, o que destruiria nossa confian\u00e7a em v\u00e1rias formas de m\u00eddia. A \u00fanica maneira de evitar que isso aconte\u00e7a \u00e9 se todos trabalharmos juntos como sociedade para acabar com essas pr\u00e1ticas antes que elas tenham alguma chance de se tornarem bem-sucedidas. N\u00e3o temos ideia de qu\u00e3o longe a tecnologia deepfake ir\u00e1 se tornar boa ou ruim para n\u00f3s, mas n\u00e3o podemos deixar que ela comprometa nossa capacidade de perceber a realidade.<\/p>\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-16018d1d wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link\" href=\"https:\/\/imp.i384100.net\/LPG9D0\" target=\"_blank\" rel=\"noreferrer noopener\">Descubra aqui os melhores cursos para Deepfakes Technologies<\/a><\/div>\n<\/div>\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n<h2 class=\"wp-block-heading\">Quando esperamos ver o uso em massa de deepfakes?<\/h2>\n\n<p>Deepfakes s\u00e3o v\u00eddeos gerados por intelig\u00eancia artificial ou algoritmos de aprendizado de m\u00e1quina. Os usu\u00e1rios do Deepfake podem pegar alguns segundos de v\u00eddeo e transform\u00e1-lo em algo que parece minutos. Deepfakes permite que uma pessoa comum crie trocas de rosto convincentes, imita\u00e7\u00f5es de voz ou qualquer outro tipo de manipula\u00e7\u00e3o que voc\u00ea possa ver em filmes.<\/p>\n\n<p>Provavelmente veremos o uso em massa de deepfakes em algum momento, porque a IA est\u00e1 melhorando no reconhecimento de rostos, vozes e outras coisas, o que possibilita que o uso desses tipos de t\u00e9cnicas se popularize.<\/p>\n\n<p>O p\u00fablico come\u00e7ar\u00e1 a ver o uso avan\u00e7ado de v\u00eddeos deepfake quando estiverem prontos para serem renderizados em tempo real. Isso significa, quando leva menos de alguns minutos para um algoritmo criar um v\u00eddeo realista. Quanto mais tempo demorar, menos prov\u00e1vel que as pessoas estejam dispostas a esperar que ele seja gerado. A maioria das pessoas n\u00e3o se importar\u00e1 ou perceber\u00e1 se n\u00e3o for realmente renderiza\u00e7\u00e3o em tempo real, porque a maioria parou de prestar aten\u00e7\u00e3o quando sabe que algo \u00e9 falso &#8211; desde que um algoritmo possa engan\u00e1-los com sucesso com os olhos sem muito esfor\u00e7o. Os avan\u00e7os tecnol\u00f3gicos em reconhecimento facial, algoritmos de aprendizado de m\u00e1quina e renderiza\u00e7\u00e3o digital podem fazer com que o consumidor m\u00e9dio comece a notar v\u00eddeos deepfake, mas provavelmente levar\u00e1 anos at\u00e9 que isso aconte\u00e7a.<\/p>\n\n<p>Come\u00e7aremos a ver esses tipos de v\u00eddeos em tr\u00eas a cinco anos porque n\u00e3o houve muito avan\u00e7o tecnol\u00f3gico recentemente e esse \u00e9 um conceito relativamente novo. J\u00e1 podemos criar v\u00eddeos falsos tradicionais que parecem reais usando softwares de edi\u00e7\u00e3o como Adobe Premiere Pro e After Effects. A \u00fanica diferen\u00e7a entre esses v\u00eddeos e deepfake \u00e9 que n\u00e3o podemos controlar o que as pessoas dizem ou como movem a boca, ent\u00e3o precisamos de software como o FakeApp, por exemplo, que usa algoritmos de aprendizado de m\u00e1quina para realizar trocas de rosto e coisas semelhantes. Levaria muito tempo e dinheiro para criar conte\u00fado suficiente para o p\u00fablico aceitar v\u00eddeos de aprendizado de m\u00e1quina como reais. Tamb\u00e9m precisamos de mais avan\u00e7os tecnol\u00f3gicos, como impressoras 3D baratas e de alta resolu\u00e7\u00e3o, que podem criar cabe\u00e7as em tamanho real sem perder muita clareza. Al\u00e9m disso, acho que provavelmente veremos esses tipos de v\u00eddeos em filmes antes de se tornarem populares nas m\u00eddias sociais porque os filmes t\u00eam uma vida \u00fatil mais longa do que apenas alguns minutos e as pessoas estar\u00e3o mais abertas a eles se os virem nos cinemas ou em menos anunciado pelas grandes produtoras.<\/p>\n\n<p>Pessoalmente, acho que nunca chegaremos ao ponto em que n\u00e3o distinguiremos os v\u00eddeos deepfake dos tradicionais, mas definitivamente mudaria a forma como vemos coisas como entrevistas e discursos. Na minha opini\u00e3o, n\u00e3o h\u00e1 muito que se possa fazer sobre esse tipo de tecnologia. N\u00e3o \u00e9 ilegal criar v\u00eddeos falsos, n\u00e3o \u00e9 ilegal public\u00e1-los on-line e \u00e9 imposs\u00edvel para qualquer outra pessoa dizer se um v\u00eddeo \u00e9 falso ou n\u00e3o se a pessoa que o criou quiser que o v\u00eddeo seja real.<\/p>\n\n<p>Eu n\u00e3o acho que o usu\u00e1rio m\u00e9dio do Facebook come\u00e7ar\u00e1 a perceber v\u00eddeos deepfake at\u00e9 que eles possam ser renderizados em tempo real. Embora sites como o FakeApp fa\u00e7am v\u00eddeos falsos usando algoritmos de aprendizado de m\u00e1quina em vez de software de edi\u00e7\u00e3o tradicional, esses tipos de v\u00eddeos s\u00e3o extremamente dif\u00edceis de criar devido \u00e0 quantidade de poder de computa\u00e7\u00e3o necess\u00e1ria para cada segundo de filmagem. A energia necess\u00e1ria sobrecarregaria os servidores e as redes, o que significa que levaria muito tempo para gerar um v\u00eddeo com um grau de autenticidade suficientemente alto.<\/p>\n\n<p>Devido \u00e0 natureza dos v\u00eddeos deepfake, n\u00e3o acho que veremos um aumento acentuado em seu uso imediatamente ap\u00f3s sua cria\u00e7\u00e3o. N\u00e3o \u00e9 ilegal public\u00e1-los ou redistribu\u00ed-los online, ent\u00e3o n\u00e3o h\u00e1 muito o que fazer se algu\u00e9m quiser compartilhar algo que criou. Na minha opini\u00e3o, provavelmente come\u00e7ar\u00e1 a se tornar um problema quando sites de m\u00eddia social como o Facebook come\u00e7arem a ter problemas com anunciantes por hospedar esses tipos de v\u00eddeos, porque podem causar indigna\u00e7\u00e3o entre os espectadores que tentam seguir suas vidas di\u00e1rias sem serem confrontados por v\u00eddeos falsos de amigos ou familiares. As pessoas foram enganadas com sucesso pela tecnologia CGI tradicional no passado, ent\u00e3o seria dif\u00edcil dizer quando algu\u00e9m est\u00e1 sendo enganado por um algoritmo de aprendizado de m\u00e1quina ou foi enganado por causa de um software de edi\u00e7\u00e3o. Acho que isso se tornar\u00e1 um problema quando as pessoas come\u00e7arem a perder a f\u00e9 no que veem e ouvem dos meios de comunica\u00e7\u00e3o, o que pode causar falta de confian\u00e7a nas figuras p\u00fablicas.<\/p>\n\n<p>Eu n\u00e3o acho que vamos realmente notificar o deepfake at\u00e9 que algum tipo de avan\u00e7o tecnol\u00f3gico seja feito. No momento, criar esses v\u00eddeos ainda consome muito tempo e consome muita energia de computa\u00e7\u00e3o, ent\u00e3o voc\u00ea pode imaginar quanto tempo cada um leva para renderizar. Seria um trabalho muito trabalhoso para pessoas que querem milh\u00f5es de c\u00f3pias por a\u00ed, j\u00e1 que teriam que fazer uma por uma, mas quando houver algo que possa ger\u00e1-las em escala, acho que veremos honestamente o quanto \u00e9 um problema isso pode se tornar.<\/p>\n\n<p>Eu n\u00e3o acho que as pessoas v\u00e3o realmente notar at\u00e9 que comecem a levar em considera\u00e7\u00e3o os \u00e2ngulos da c\u00e2mera. Se a pessoa que faz v\u00eddeos falsos conseguir obter imagens suficientes de algu\u00e9m falando ou se movendo no v\u00eddeo, n\u00e3o importar\u00e1 se estiver usando ferramentas de edi\u00e7\u00e3o tradicionais ou algoritmos de aprendizado de m\u00e1quina, porque o produto final parecer\u00e1 real o suficiente para passar como aut\u00eantico sem pensar muito sobre isso. Embora os v\u00eddeos deepfake sejam atualmente extremamente dif\u00edceis e demorados para criar, os avan\u00e7os na tecnologia que permitem que mais coisas sejam feitas em tempo real o tornar\u00e3o muito mais f\u00e1cil. No momento, o termo deepfake se refere a qualquer v\u00eddeo que tenha sido falsificado com algoritmos de aprendizado de m\u00e1quina e software de edi\u00e7\u00e3o tradicional, mas se algo fosse capaz de fazer as duas coisas ao mesmo tempo, ter\u00edamos um problema muito maior em nossas m\u00e3os.<\/p>\n\n<p>Acho que v\u00eddeos falsos n\u00e3o se tornar\u00e3o muito populares at\u00e9 que as pessoas encontrem uma maneira f\u00e1cil de faz\u00ea-los trabalhar para eles, em vez de contratar algu\u00e9m com um grande or\u00e7amento. N\u00e3o importa o qu\u00e3o barato ou caro essas coisas v\u00e3o ficar, a maioria das pessoas ainda precisa de uma quantidade substancial de tempo e dinheiro antes de poder criar suas pr\u00f3prias falsifica\u00e7\u00f5es sem contratar outra pessoa. Existem algumas pessoas por a\u00ed que far\u00e3o seus neg\u00f3cios dom\u00e9sticos onde vendem v\u00eddeos deepfake, mas na maioria das vezes acho que at\u00e9 que seja algo que qualquer um possa fazer, n\u00e3o ter\u00e1 muito impacto na sociedade.<\/p>\n\n<p>N\u00e3o acho que as pessoas come\u00e7ar\u00e3o a usar amplamente esses v\u00eddeos at\u00e9 que haja um grande incentivo financeiro para isso. No momento, se voc\u00ea criasse um v\u00eddeo com imagens falsas sem nenhum alvo reconhec\u00edvel ou espec\u00edfico, seria dif\u00edcil obter qualquer tipo de aten\u00e7\u00e3o porque n\u00e3o haveria nada que valesse a pena criticar em primeiro lugar. Mesmo que algu\u00e9m quisesse produzir um por divers\u00e3o, ainda h\u00e1 tempo e poder de computa\u00e7\u00e3o necess\u00e1rios para faz\u00ea-lo, ent\u00e3o n\u00e3o faria muito sentido se eles n\u00e3o tivessem um objetivo em mente. Se esses v\u00eddeos puderem se tornar extremamente convincentes em escala, acho que as pessoas come\u00e7ar\u00e3o a us\u00e1-los para fins negativos com o objetivo de ganhar dinheiro.<\/p>\n\n<p>Eu n\u00e3o acho que v\u00eddeos falsos realmente se tornar\u00e3o populares at\u00e9 que as pessoas possam produzir clipes baseados em conversas automaticamente. Por enquanto, a maioria das falsifica\u00e7\u00f5es s\u00e3o fotos b\u00e1sicas que s\u00e3o modificadas ou completamente reorganizadas para se adequarem a qualquer finalidade para a qual foram criadas. Se os algoritmos de deepfake fossem capazes de imitar mais movimentos da vida real, como sincroniza\u00e7\u00e3o labial ou atalhos de gestos, acho que abriria um novo mundo de possibilidades, onde as pessoas podem criar um produto final muito mais convincente. Se o v\u00eddeo for capaz de imitar movimentos da vida real que est\u00e3o falando, posso imaginar que eles se tornariam muito populares como forma de desinformar ou caluniar algu\u00e9m sem nenhuma consequ\u00eancia, porque ningu\u00e9m poderia realmente verificar se \u00e9 ou n\u00e3o real.<\/p>\n\n<div class=\"wp-block-buttons is-horizontal is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-499968f5 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link\" href=\"mailto:info@iotworlds.com\">Vamos discutir mais sobre tecnologias deepfake &#8211; Fale Conosco!<\/a><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Deepfake \u00e9 uma nova tecnologia que pode ser usada para manipular v\u00eddeo e \u00e1udio, com a inten\u00e7\u00e3o de produzir conte\u00fado&hellip;<\/p>\n","protected":false},"author":1,"featured_media":383173,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_lmt_disableupdate":"","_lmt_disable":"","footnotes":""},"categories":[1744,2250],"tags":[],"class_list":["post-386529","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog-pt-br-2","category-inteligencia-artificial"],"acf":[],"_links":{"self":[{"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/posts\/386529","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/comments?post=386529"}],"version-history":[{"count":0,"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/posts\/386529\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/media\/383173"}],"wp:attachment":[{"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/media?parent=386529"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/categories?post=386529"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/iotworlds.com\/pt-br\/wp-json\/wp\/v2\/tags?post=386529"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}