{"id":386533,"date":"2022-01-10T23:11:46","date_gmt":"2022-01-10T22:11:46","guid":{"rendered":"https:\/\/iotworlds.com\/deepfake-lo-que-necesita-saber\/"},"modified":"2022-06-25T08:14:57","modified_gmt":"2022-06-25T06:14:57","slug":"deepfake-lo-que-necesita-saber","status":"publish","type":"post","link":"https:\/\/iotworlds.com\/es\/deepfake-lo-que-necesita-saber\/","title":{"rendered":"Deepfake: lo que necesita saber"},"content":{"rendered":"\n<p>Deepfake es una nueva tecnolog\u00eda que se puede utilizar para manipular video y audio, con la intenci\u00f3n de producir contenido multimedia falso. Ha estado mucho en las noticias \u00faltimamente en t\u00e9rminos de su uso con fines pol\u00edticos, pero tiene muchos otros usos potenciales tanto en la industria como en el entretenimiento.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-what-is-a-deepfake-and-how-does-it-work\">Qu\u00e9 es un deepfake y c\u00f3mo funciona<\/h2>\n\n<p>Se crea un deepfake cuando alguien usa un programa de inteligencia artificial para generar una imagen, video o clip de audio de algo que nunca sucedi\u00f3 en la realidad. A menudo, estos son bastante f\u00e1ciles de identificar porque el contenido falso generalmente tiene errores o contradicciones cuando se compara con medios aut\u00e9nticos.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-how-to-use-deepfakes-for-good\">C\u00f3mo usar deepfakes para siempre<\/h2>\n\n<p>Hasta ahora, la gente ha utilizado esta tecnolog\u00eda para videos de s\u00e1tira.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-the-dangers-of-using-deepfakes-for-malicious-purposes\">Los peligros de usar deepfakes con fines maliciosos<\/h2>\n\n<p>Esta tecnolog\u00eda se puede utilizar para crear informaci\u00f3n err\u00f3nea que la gente creer\u00e1 sin dudar y que podr\u00eda tener consecuencias desastrosas en el futuro. Por ejemplo, imagine que se publicaron im\u00e1genes de un jefe de estado que dice que quiere lanzar un ataque nuclear.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-the-implications-of-the-future-of-fake-news-on-politics-journalism-and-society\">Las implicaciones del futuro de las fake news en la pol\u00edtica, el periodismo y la sociedad<\/h2>\n\n<p>En el futuro, ser\u00e1 m\u00e1s f\u00e1cil que nunca generar medios falsos que la gente creer\u00e1 sin dudar, lo que podr\u00eda tener consecuencias desastrosas en el futuro. Por ejemplo, imagine que se publicaron im\u00e1genes de un jefe de estado que dice que quiere lanzar un ataque nuclear.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-solutions-to-combat-these-issues-in-the-future\">Soluciones para combatir estos problemas en el futuro<\/h2>\n\n<p>Cada vez ser\u00e1 m\u00e1s importante que las personas de todos los or\u00edgenes posibles, incluidos los periodistas, verifiquen el contenido a trav\u00e9s de m\u00faltiples fuentes antes de reportar algo como cierto o incluso simplemente compartir algo en las redes sociales. Tambi\u00e9n puede ser beneficioso para las empresas de tecnolog\u00eda como YouTube o Facebook hacer algo m\u00e1s que confiar en que los usuarios marquen el contenido como algo problem\u00e1tico.<\/p>\n\n<h2 class=\"wp-block-heading\" id=\"h-concluding-remarks-about-the-importance-of-this-technology-s-potential-impact-on-society\">Observaciones finales sobre la importancia del impacto potencial de esta tecnolog\u00eda en la sociedad<\/h2>\n\n<p>En el futuro, ser\u00e1 m\u00e1s f\u00e1cil que nunca generar medios falsos que la gente creer\u00e1 sin dudar, lo que podr\u00eda tener consecuencias desastrosas en el futuro. Por ejemplo, imagine que se publicaron im\u00e1genes de un jefe de estado que dice que quiere lanzar un ataque nuclear.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes, \u00bfc\u00f3mo evitar que nos enga\u00f1en?<\/h2>\n\n<p>\u00abDeepfakes\u00bb es un t\u00e9rmino que se refiere a videos o im\u00e1genes editados de personas que parecen estar haciendo algo que en realidad no hicieron. Estos videos e im\u00e1genes profundamente falsos pueden crearse mediante el uso de software de inteligencia artificial (IA), como FakeApp. Los videos e im\u00e1genes falsos profundos podr\u00edan usarse para crear noticias falsas profundas o para cualquier n\u00famero de prop\u00f3sitos maliciosos. Por su seguridad, las personas deben asegurarse de tener el software actualizado, usar contrase\u00f1as \u00fanicas en cada sitio que visiten, nunca almacenar contrase\u00f1as en su navegador, deshabilitar Flash si no es necesario, evitar instalar extensiones de navegador que se ofrecen a trav\u00e9s de ventanas emergentes en la web. sitios en los que no conf\u00eda, evite descargar software pirateado si es posible y consulte nuestros consejos para evitar videos e im\u00e1genes falsos a continuaci\u00f3n.<\/p>\n\n<p>Hay algunos factores que pueden ayudarlo a evitar ser enga\u00f1ado por un video o una imagen profundamente falsos. Primero, debe mantener su software actualizado porque a menudo incluir\u00e1 actualizaciones de seguridad. Si su software no est\u00e1 actualizado, es posible que alguien aproveche las vulnerabilidades de seguridad en versiones anteriores del software para obtener acceso a su sistema sin su conocimiento. En segundo lugar, si usa contrase\u00f1as \u00fanicas (y las cambia regularmente), incluso si un sitio web es pirateado, no afectar\u00e1 a ning\u00fan otro sitio web que visite en el futuro con la misma contrase\u00f1a. Un tercer factor es asegurarse de que Flash est\u00e9 instalado cuando lo necesite.<\/p>\n\n<h2 class=\"wp-block-heading\">C\u00f3mo identificar un video deepfake<\/h2>\n\n<p>Los videos deepfake son videos que han sido manipulados usando IA para que parezca que alguien est\u00e1 diciendo o haciendo algo que no dijo. Los videos deepfake se pueden usar por una variedad de razones, que incluyen propaganda, entretenimiento y desinformaci\u00f3n.<\/p>\n\n<p>Para identificar un video falso profundo, hay algunas cosas que puede buscar. Una de las formas m\u00e1s f\u00e1ciles de identificar un deepfake es si la persona en el video se ve diferente a como se ve normalmente. Adem\u00e1s, puede buscar movimientos inusuales en los rasgos faciales de la persona o movimientos de labios no naturales. Tambi\u00e9n puede escuchar distorsiones de audio o inconsistencias.<\/p>\n\n<p>Si no est\u00e1 seguro de si un video es real o falso, puede ser \u00fatil preguntarse cu\u00e1l es el prop\u00f3sito del video. \u00bfQui\u00e9n se beneficiar\u00eda de falsificar este video? Si no parece haber una motivaci\u00f3n clara para falsificar el video, es m\u00e1s probable que el video sea exacto.<\/p>\n\n<p>Otra cosa que puede hacer si est\u00e1 tratando de averiguar si una persona dijo algo de cierta manera (por ejemplo, enga\u00f1osamente) ser\u00eda escuchar y comparar su pronunciaci\u00f3n con la de otros discursos que haya hecho. Por ejemplo, si alguien ha hablado p\u00fablicamente sobre un tema anteriormente pero nunca ha pronunciado una palabra de manera similar a como lo hizo en este nuevo discurso, eso indica enga\u00f1o.<\/p>\n\n<p>Los primeros deepfakes se crearon con Adobe After Effects, que requiere que los usuarios tengan conocimientos de edici\u00f3n de video. Sin embargo, m\u00e1s recientemente, la IA se ha utilizado para hacer deepfakes sin intervenci\u00f3n del usuario. Esto reduce la cantidad de trabajo de posproducci\u00f3n que se requiere para crear un video, pero hace poco para impedir que alguien produzca un video falso sin ser detectado.<\/p>\n\n<p>Una forma de protegerse de verse afectado por videos falsos profundos es ser esc\u00e9ptico al ver o leer noticias. Si algo parece extra\u00f1o, no lo crea hasta que haya confirmado que es verdad. Por ejemplo, verifique varias fuentes antes de creer algo que escuche en la televisi\u00f3n porque los videos falsos se est\u00e1n convirtiendo en una forma cada vez m\u00e1s com\u00fan de difundir informaci\u00f3n err\u00f3nea en l\u00ednea. Y recuerda: que algo parezca cierto no significa que lo sea.<\/p>\n\n<p>Algunos ejemplos de videos falsos anteriores incluyen uno en el que el expresidente Obama habl\u00f3 en un tono racista y otro en el que la actriz Gal Gadot parec\u00eda estar diciendo que pertenec\u00eda al \u201cEstado Isl\u00e1mico\u201d (ISIS). Estos videos muestran lo f\u00e1cil que puede ser para cualquier persona con acceso a la tecnolog\u00eda y la experiencia adecuadas crear falsificaciones profundas que parezcan reales. La facilidad con la que se pueden crear estos videos tambi\u00e9n hace que para muchas personas sea un desaf\u00edo distinguir qu\u00e9 es real y qu\u00e9 no.<\/p>\n\n<p>Obtener una comprensi\u00f3n de c\u00f3mo se hacen estos videos, as\u00ed como conocer algunas formas en que puede identificarlos, es esencial si desea protegerse de ser v\u00edctima o promover inadvertidamente informaci\u00f3n falsa en l\u00ednea. <\/p>\n\n<h2 class=\"wp-block-heading\">C\u00f3mo mantenerse informado en una sociedad de la posverdad<\/h2>\n\n<p>Si desea mantenerse informado, hay algunos pasos que puede seguir. El primer paso es evitar leer informaci\u00f3n que no haya sido corroborada por m\u00faltiples fuentes cre\u00edbles. Tambi\u00e9n debe considerar cu\u00e1l podr\u00eda ser la motivaci\u00f3n para compartir este tipo de informaci\u00f3n. Si la fuente parece parcial o si no hay una explicaci\u00f3n clara de por qu\u00e9 est\u00e1n compartiendo algo, entonces debes reconsiderar cu\u00e1nta confianza tienes en la informaci\u00f3n presentada. Adem\u00e1s, recuerda que el hecho de que algo parezca cierto no significa que lo sea. Puede ser imprudente basar su propia opini\u00f3n en informaci\u00f3n falsa, as\u00ed que trate de no sacar conclusiones precipitadas hasta que haya tenido tiempo de verificar lo que ve en l\u00ednea. Si no est\u00e1 seguro de si un video es real o falso, preg\u00fantese cu\u00e1l es el prop\u00f3sito del video. \u00bfQui\u00e9n se beneficiar\u00eda de falsificar este video? Tambi\u00e9n puede buscar movimientos inusuales en los rasgos faciales de la persona o movimientos de labios no naturales. Y, por \u00faltimo, si est\u00e1 tratando de averiguar si una persona dijo algo de cierta manera (por ejemplo, enga\u00f1osamente), ser\u00eda \u00fatil escuchar y comparar su pronunciaci\u00f3n con la de otros discursos que haya pronunciado. Por ejemplo, si alguien ha hablado p\u00fablicamente sobre un tema anteriormente pero nunca ha pronunciado una palabra de manera similar a como lo hizo en este nuevo discurso, eso indica enga\u00f1o.<\/p>\n\n<h2 class=\"wp-block-heading\">El rostro de la revoluci\u00f3n del deepfake<\/h2>\n\n<p>La revoluci\u00f3n de las falsificaciones profundas es un fen\u00f3meno continuo en el que las personas pueden crear videos de personas que dicen o hacen cosas que nunca hicieron. La tecnolog\u00eda detr\u00e1s de los deepfakes se llama \u00abaprendizaje profundo\u00bb, que es un tipo de aprendizaje autom\u00e1tico que permite que las computadoras aprendan a hacer cosas con el ejemplo.<\/p>\n\n<p>Esta tecnolog\u00eda ya se ha utilizado para crear videos falsos de celebridades, y solo empeorar\u00e1 a partir de ahora. Necesitamos ser conscientes de esta tecnolog\u00eda y estar preparados para las consecuencias.<\/p>\n\n<p>Las consecuencias de este tipo de tecnolog\u00eda son inmensas. Por un lado, es muy f\u00e1cil enga\u00f1ar a la gente para que piense que estos videos son reales. Pude encontrar un subreddit donde las personas crean videos falsos con relativa facilidad y la calidad es incre\u00edble. Un video creado por alguien en este subreddit obtuvo casi 11,000 votos a favor. Esto es preocupante porque significa que hay toda una comunidad dispuesta a compartir videos falsos como si fueran reales. Adem\u00e1s, no hay leyes contra las falsificaciones profundas, por lo que ser\u00e1 interesante ver c\u00f3mo progresa este tipo de cosas en los pr\u00f3ximos a\u00f1os.<\/p>\n\n<p>Otra consecuencia es que podemos perder nuestra confianza en los medios digitales en su conjunto y dejar de utilizarlos para cosas como la educaci\u00f3n y la documentaci\u00f3n. Un ejemplo es el video de Barack Obama hablando de \u00abnoticias falsas\u00bb que en realidad fue creada por otra persona. Esto demuestra lo f\u00e1cil que es hacer quedar mal a la gente, pero esta tecnolog\u00eda ser\u00e1 a\u00fan m\u00e1s peligrosa cuando se utilice con discursos pol\u00edticos que tengan implicaciones reales en la vida de las personas.<\/p>\n\n<p>Encontr\u00e9 un sitio web que puede crear videos falsos usando solo fotos de Facebook. Simplemente cargue de 3 a 20 im\u00e1genes de su rostro y el software las combinar\u00e1 en un video de aspecto realista en el que dice lo que quiera. Las personas ya est\u00e1n comenzando a usar estos videos para vengarse de sus ex o vengarse de las personas que los hicieron mal. Creo que esto es peligroso porque significa que podemos perder la confianza entre nosotros como humanos si el deepfake se vuelve m\u00e1s popular.<\/p>\n\n<p>Esta tecnolog\u00eda es adictiva y tiene el potencial de obsesionarnos con cosas que no existen. Muchas personas ya han perdido el tiempo tratando de desacreditar videos hechos con esta tecnolog\u00eda, lo que significa que est\u00e1n siendo enga\u00f1ados todo el tiempo. Un ejemplo es un video donde Barack Obama dice \u00abMatamos a Osama Bin Laden\u00bb que fue creado por alguien. Esto demuestra lo f\u00e1cil que es enga\u00f1ar a las personas que usan este tipo de tecnolog\u00eda, por lo que creo que todos deber\u00edan conocer su existencia antes de tomar cualquier tipo de decisi\u00f3n basada en lo que ven en l\u00ednea. Necesitamos leyes contra el deepfake porque creo que estos videos resultar\u00e1n destructivos para las relaciones entre las personas en la sociedad si se les permite progresar sin limitaciones. Dividir\u00e1 a nuestra sociedad en dos grupos, ya que los que saben ser\u00e1n cautelosos con todo lo que ven en l\u00ednea y los que no. Esto tendr\u00e1 un efecto negativo en nuestra sociedad en su conjunto porque las personas no podr\u00e1n confiar en lo que es real y lo que no, lo que significa que ser\u00e1 menos probable que nos comuniquemos entre nosotros o compartamos cosas importantes como documentaci\u00f3n y educaci\u00f3n a trav\u00e9s de medios digitales.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes, \u00bfpor qu\u00e9 tus datos no valen nada?<\/h2>\n\n<p>Hay tres tipos de datos que no valen nada: Deepfakes, Your Data, Your Future.<\/p>\n\n<p>Los deepfakes son videos creados con inteligencia artificial. Por lo general, se utilizan para crear pel\u00edculas transformando la cara de una persona en el cuerpo de otra persona, o para otros fines enga\u00f1osos. Este tipo de tecnolog\u00eda se puede utilizar para crear contenido de video falso que potencialmente podr\u00eda desestabilizar a nuestra sociedad. Al igual que Deepfakes, sus datos tampoco valen nada porque pueden manipularse para cualquier prop\u00f3sito. El \u00faltimo tipo de datos que no vale nada es tu futuro porque no se puede ver. La gente siempre est\u00e1 tratando de predecir el futuro, pero es bastante dif\u00edcil.<\/p>\n\n<h2 class=\"wp-block-heading\">Deepfakes &#8211; Lo que necesitas saber sobre esta pesadilla digital<\/h2>\n\n<p>Los deepfakes son un tipo de manipulaci\u00f3n digital que utiliza inteligencia artificial para crear videos de personas que parecen estar diciendo o haciendo cosas que nunca dijeron o hicieron. Los videos deepfake a menudo se usan para crear videos falsos, pero tambi\u00e9n se pueden usar para crear noticias falsas o para manipular la opini\u00f3n p\u00fablica.<\/p>\n\n<p>Los videos deepfake son una pesadilla digital porque pueden usarse para difundir mentiras y desinformaci\u00f3n. Tambi\u00e9n se pueden utilizar para chantajear a las personas o para da\u00f1ar su reputaci\u00f3n. Los videos deepfake son muy dif\u00edciles de detectar, por lo que es importante conocerlos y ser esc\u00e9ptico ante cualquier video que parezca demasiado bueno para ser verdad.<\/p>\n\n<p>Los videos deepfake est\u00e1n hechos con una combinaci\u00f3n de aprendizaje autom\u00e1tico e inteligencia artificial. El primer paso es crear un conjunto de datos que incluya un video de la persona que desea que diga o haga algo que nunca hizo. Puede usar herramientas disponibles gratuitamente para generar este conjunto de capacitaci\u00f3n, que incluir\u00e1 cientos o miles de videos cortos de su objetivo. Luego se utilizan algoritmos de aprendizaje autom\u00e1tico para tomar estos videos individuales y \u00abaprender\u00bb c\u00f3mo debe verse la cara cuando hace diferentes expresiones o dice diferentes palabras. Una vez que se han recopilado suficientes datos, los algoritmos de aprendizaje autom\u00e1tico pueden generar nuevos videos falsos que se ven muy realistas y naturales.<\/p>\n\n<p>El t\u00e9rmino Deepfakes fue acu\u00f1ado por un usuario an\u00f3nimo de Reddit.<\/p>\n\n<h2 class=\"wp-block-heading\">\u00bfQu\u00e9 es el audio falso profundo?<\/h2>\n\n<p>Deepfake audio es una tecnolog\u00eda emergente que permite la creaci\u00f3n de una grabaci\u00f3n falsa. Funciona de tal forma que crea un sonido o video con la voz de alguien y lo pone en el cuerpo de otra persona. Las personas suelen usar esto para avergonzar a otros, pero los deepfakes tambi\u00e9n se pueden usar para crear videos y grabaciones falsos para desacreditar o amenazar a pol\u00edticos y celebridades.<\/p>\n\n<p>Deepfake audio es una tecnolog\u00eda relativamente nueva que surgi\u00f3 en los \u00faltimos dos a\u00f1os, pero se est\u00e1 volviendo m\u00e1s popular debido a su facilidad de uso. Hay varios sitios web en l\u00ednea donde las personas cargan sonidos y otros usuarios pueden ponerlos en la boca de otra persona para crear videos. Este proceso es posible gracias a la inteligencia artificial (IA) que se puede utilizar para m\u00faltiples prop\u00f3sitos, incluida la edici\u00f3n de videos o la creaci\u00f3n de videos falsos. Funciona tomando datos de alg\u00fan tipo de fuente de audio y us\u00e1ndolos para su posterior procesamiento para completar el trabajo de video. La gente ha utilizado deepfakes con los discursos de los pol\u00edticos para desacreditarlos o con el audio expl\u00edcito de las celebridades para humillarlos.<\/p>\n\n<h2 class=\"wp-block-heading\">\u00bfCu\u00e1les son las posibles implicaciones de las falsificaciones profundas?<\/h2>\n\n<p>Deepfakes es un tipo de video generado por IA que ha aparecido recientemente en Internet. Estos videos son creados por algoritmos y hacen que las personas digan cosas que nunca dijeron o parezcan estar haciendo algo que nunca hicieron. De esta manera, los deepfakes pueden usarse como una forma de desinformaci\u00f3n para cambiar la percepci\u00f3n de la realidad de las personas. Es muy posible que los deepfakes contin\u00faen proliferando y se vuelvan m\u00e1s persuasivos a medida que pasa el tiempo porque los algoritmos pueden aprender de videos deepfake anteriores y mejorar con el tiempo. Esto podr\u00eda llevar a un punto en el que ya no habr\u00eda credibilidad en ninguna secuencia de video, lo que har\u00eda imposible creer todo lo que vemos o escuchamos.<\/p>\n\n<p>Una de las implicaciones m\u00e1s importantes a tener en cuenta es la cuesti\u00f3n de la autenticidad. Publicar noticias falsas se ha convertido en una pr\u00e1ctica cada vez m\u00e1s f\u00e1cil y com\u00fan, tanto que es dif\u00edcil saber si un video o una fotograf\u00eda son reales porque nunca podemos estar completamente seguros. Internet contribuye significativamente a este problema. Cuando busca cualquier cosa en Google, seguramente encontrar\u00e1 varios sitios web que presentan informaci\u00f3n contradictoria, lo que lo hace a\u00fan m\u00e1s confuso al intentar discernir qu\u00e9 es verdad y qu\u00e9 no. Si los deepfakes se vuelven ampliamente vistos como fuentes confiables de informaci\u00f3n, el efecto inmediato ser\u00e1 una p\u00e9rdida de confianza en todas las dem\u00e1s formas de contenido debido a su incertidumbre. Tambi\u00e9n podr\u00eda hacernos cuestionar todo lo que escuchamos o vemos, incluso las cosas que hemos registrado con nuestros propios ojos.<\/p>\n\n<p>En particular, los periodistas podr\u00edan verse afectados por la mayor presencia de deepfakes. Esta tecnolog\u00eda podr\u00eda hacer que les resulte imposible saber si las entrevistas que realizan son reales o no, lo que pone en juego su credibilidad. Si las personas ya no creen que lo que informan es exacto, entonces existe una buena posibilidad de que su audiencia disminuya y las personas recurran a fuentes que ofrecen contenido que parece m\u00e1s leg\u00edtimo, independientemente de su validez. Mientras las audiencias crean que obtienen la verdad de alg\u00fan otro lugar, su confianza en los principales medios de comunicaci\u00f3n seguir\u00e1 disminuyendo.<\/p>\n\n<p>Adem\u00e1s, las implicaciones de la desinformaci\u00f3n generalizada pueden provocar cambios en las relaciones internacionales si algunos pa\u00edses no abordan este problema con la suficiente rapidez. Por ejemplo, si se publica un video falso que hace parecer que los l\u00edderes de dos pa\u00edses se insultan entre s\u00ed, entonces sus respectivas poblaciones podr\u00edan volverse hostiles entre s\u00ed y desarrollar una falsa sensaci\u00f3n de hostilidad. Si el metraje original no se publica y refuta lo suficientemente r\u00e1pido, es probable que las personas contin\u00faen percibiendo la realidad distorsionada por el video falso, lo que hace que los intercambios violentos entre ciudadanos sean mucho m\u00e1s probables porque se les habr\u00e1 alentado a tomar medidas basadas en su ira hacia un individuo que en realidad no existe.<\/p>\n\n<p>Tambi\u00e9n podr\u00edamos ver una gran disminuci\u00f3n en Hollywood a medida que los espectadores dejen de ir a los cines porque prefieren ver pel\u00edculas en casa con deepfakes en lugar de no tener efectos visuales realistas. Es posible que la industria no pueda mantenerse al d\u00eda con la tecnolog\u00eda si evoluciona m\u00e1s r\u00e1pido que el tiempo que lleva producir pel\u00edculas, lo que provocar\u00eda una ca\u00edda significativa de los ingresos. Podr\u00edamos incluso empezar a ver pel\u00edculas completamente generadas por computadora porque los actores ya no son necesarios.<\/p>\n\n<p>Aunque los deepfakes podr\u00edan tener efectos positivos en el arte, existe un potencial mucho mayor de consecuencias negativas a medida que la IA contin\u00faa avanzando y extendi\u00e9ndose a trav\u00e9s de varias industrias. Es fundamental que las personas tomen conciencia del problema para que puedan determinar c\u00f3mo resolverlo antes de que la desinformaci\u00f3n se vuelva imposible de detener o se vuelva demasiado persuasiva para su propio bien. Por esta raz\u00f3n, los desarrolladores deben probar continuamente los algoritmos y encontrar formas de limitar sus capacidades para evitar que la informaci\u00f3n se distorsione. Esto puede implicar limitar el aspecto realista de los videos o requerir certificados de autenticaci\u00f3n para compartir cierto contenido. Por ejemplo, para que los videos de deepfakes se publiquen en Facebook, deber\u00e1n marcarse como verificados despu\u00e9s de que la empresa los revise.<\/p>\n\n<p>Incluso puede llegar un momento en el que dejemos de considerar la realidad virtual y la realidad aumentada como tecnolog\u00edas avanzadas debido a lo avanzada que se ha vuelto la IA. Todo el contenido digital podr\u00eda mezclarse, por lo que es dif\u00edcil saber qu\u00e9 es aut\u00e9ntico y qu\u00e9 no, lo que destruir\u00eda nuestra confianza en una serie de formas de medios. La \u00fanica forma en que podemos evitar que esto suceda es si todos trabajamos juntos como sociedad para poner fin a estas pr\u00e1cticas antes de que tengan alguna posibilidad de tener \u00e9xito. No tenemos idea de hasta d\u00f3nde llegar\u00e1 la tecnolog\u00eda deepfake, ya sea que resulte ser buena o mala para nosotros, pero no podemos permitir que comprometa nuestra capacidad de percibir la realidad.<\/p>\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-16018d1d wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link\" href=\"https:\/\/imp.i384100.net\/LPG9D0\" target=\"_blank\" rel=\"noreferrer noopener\">Descubre aqu\u00ed los mejores cursos para Deepfakes Technologies<\/a><\/div>\n<\/div>\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n<h2 class=\"wp-block-heading\">\u00bfCu\u00e1ndo esperamos ver un uso masivo de deepfakes?<\/h2>\n\n<p>Los deepfakes son videos generados por inteligencia artificial o algoritmos de aprendizaje autom\u00e1tico. Los usuarios de Deepfake pueden tomar unos segundos de video y convertirlo en algo que parezca minutos. Deepfakes le permite a una persona promedio crear intercambios de rostros convincentes, imitaciones de voz o cualquier otro tipo de manipulaci\u00f3n que pueda ver en las pel\u00edculas.<\/p>\n\n<p>Probablemente veremos el uso masivo de deepfakes en alg\u00fan momento porque la IA est\u00e1 mejorando en el reconocimiento de rostros, voces y otras cosas, lo que hace posible que el uso de este tipo de t\u00e9cnicas se generalice.<\/p>\n\n<p>El p\u00fablico comenzar\u00e1 a ver el uso avanzado de videos falsos profundos cuando est\u00e9n listos para reproducirse en tiempo real. Esto significa, cuando un algoritmo tarda menos de unos minutos en crear un video realista. Cuanto m\u00e1s tarde, menos probable es que la gente est\u00e9 dispuesta a esperar a que se genere. A la mayor\u00eda de la gente no le importar\u00e1 ni se dar\u00e1 cuenta si no se trata realmente de una representaci\u00f3n en tiempo real porque la mayor\u00eda ha dejado de prestar atenci\u00f3n una vez que saben que algo es falso, siempre que un algoritmo pueda enga\u00f1arlos con \u00e9xito con los ojos sin demasiado esfuerzo. Los avances tecnol\u00f3gicos en el reconocimiento facial, los algoritmos de aprendizaje autom\u00e1tico y la representaci\u00f3n digital pueden hacer que el consumidor promedio comience a notar los videos falsos, pero probablemente pasar\u00e1n a\u00f1os antes de que eso suceda.<\/p>\n\n<p>Comenzaremos a ver este tipo de videos en tres a cinco a\u00f1os porque no ha habido mucho avance tecnol\u00f3gico recientemente y este es un concepto relativamente nuevo. Ya podemos crear videos falsos tradicionales que parecen reales mediante el uso de software de edici\u00f3n como Adobe Premiere Pro y After Effects. La \u00fanica diferencia entre esos videos y los deepfakes es que no podemos controlar lo que dice la gente o c\u00f3mo mueven la boca, por lo que necesitamos un software como FakeApp, por ejemplo, que utiliza algoritmos de aprendizaje autom\u00e1tico para realizar intercambios de rostros y cosas similares. Se necesitar\u00eda mucho tiempo y dinero para crear suficiente contenido para que el p\u00fablico aceptara los videos de aprendizaje autom\u00e1tico como reales. Tambi\u00e9n necesitamos m\u00e1s avances tecnol\u00f3gicos, como impresoras 3D baratas de alta resoluci\u00f3n que puedan crear cabezas de tama\u00f1o real sin perder demasiada claridad. Adem\u00e1s, creo que probablemente veremos este tipo de videos en pel\u00edculas antes de que se vuelvan populares en las redes sociales porque las pel\u00edculas tienen una vida \u00fatil m\u00e1s larga que unos pocos minutos y las personas estar\u00e1n m\u00e1s abiertas a verlas si las ven en los cines o en menos publicitado por las grandes productoras.<\/p>\n\n<p>Personalmente, no creo que alguna vez lleguemos al punto en que no distingamos los videos deepfake de los tradicionales, pero definitivamente cambiar\u00eda la forma en que vemos cosas como entrevistas y discursos. En mi opini\u00f3n, no hay mucho que nadie pueda hacer con este tipo de tecnolog\u00eda. No es ilegal crear videos falsos, no es ilegal publicarlos en l\u00ednea y es imposible que nadie m\u00e1s sepa si un video es falso o no si la persona que lo crea quiere que sea real.<\/p>\n\n<p>No creo que el usuario promedio de Facebook comience a notar videos falsos hasta que puedan reproducirse en tiempo real. Aunque los sitios como FakeApp hacen videos falsos utilizando algoritmos de aprendizaje autom\u00e1tico en lugar del software de edici\u00f3n tradicional, este tipo de videos son extremadamente dif\u00edciles de crear debido a la cantidad de potencia inform\u00e1tica que necesita para cada segundo de metraje. La energ\u00eda necesaria ejercer\u00eda una enorme presi\u00f3n sobre los servidores y las redes, lo que significa que llevar\u00eda mucho tiempo generar un video con un grado de autenticidad lo suficientemente alto.<\/p>\n\n<p>Debido a la naturaleza de los videos falsos profundos, no creo que veamos un fuerte aumento en su uso inmediatamente despu\u00e9s de su creaci\u00f3n. No es ilegal publicarlos o redistribuirlos en l\u00ednea, por lo que no se puede hacer mucho si alguien quiere compartir algo que ha creado. En mi opini\u00f3n, lo m\u00e1s probable es que comience a convertirse en un problema cuando los sitios de redes sociales como Facebook comiencen a tener problemas con los anunciantes por alojar este tipo de videos porque podr\u00edan causar indignaci\u00f3n entre los espectadores que intentan continuar con su vida diaria sin verse confrontados por videos falsos. de amigos o familiares. Las personas han sido enga\u00f1adas con \u00e9xito por la tecnolog\u00eda CGI tradicional en el pasado, por lo que ser\u00eda dif\u00edcil saber cu\u00e1ndo alguien est\u00e1 siendo enga\u00f1ado por un algoritmo de aprendizaje autom\u00e1tico o si ha sido enga\u00f1ado por un software de edici\u00f3n. Creo que esto se convertir\u00e1 en un problema cuando las personas comiencen a perder la fe en lo que ven y escuchan de los medios de comunicaci\u00f3n, lo que podr\u00eda provocar una falta de confianza en las figuras p\u00fablicas.<\/p>\n\n<p>No creo que realmente estemos completamente informados sobre el deepfake hasta que se realice alg\u00fan tipo de avance tecnol\u00f3gico. En este momento, la creaci\u00f3n de estos videos a\u00fan requiere mucho tiempo y mucha potencia inform\u00e1tica, por lo que puede imaginar cu\u00e1nto tiempo lleva renderizar cada uno. Ser\u00eda un trabajo bastante laborioso para las personas que quieren millones de copias, ya que tendr\u00edan que hacerlo una por una, pero una vez que haya algo que pueda generarlas a escala, creo que honestamente veremos qu\u00e9 tanto problema. esto podr\u00eda convertirse.<\/p>\n\n<p>No creo que la gente realmente se d\u00e9 cuenta hasta que empiecen a tener en cuenta los \u00e1ngulos de la c\u00e1mara. Si la persona que hace videos falsos puede obtener suficientes im\u00e1genes de alguien hablando o movi\u00e9ndose en el video, entonces no importar\u00e1 si est\u00e1 usando herramientas de edici\u00f3n tradicionales o algoritmos de aprendizaje autom\u00e1tico porque el producto final se ver\u00e1 lo suficientemente real como para pasar como aut\u00e9ntico. sin pensar demasiado en ello. Aunque los videos deepfake actualmente son extremadamente dif\u00edciles y requieren mucho tiempo para crearlos, los avances en la tecnolog\u00eda que permiten hacer m\u00e1s cosas en tiempo real lo har\u00e1n mucho m\u00e1s f\u00e1cil. En este momento, el t\u00e9rmino deepfake se refiere a cualquier video que haya sido falsificado con algoritmos de aprendizaje autom\u00e1tico y software de edici\u00f3n tradicional, pero si algo pudiera hacer ambas cosas a la vez, tendr\u00edamos un problema mucho mayor en nuestras manos.<\/p>\n\n<p>Creo que los videos falsos no se volver\u00e1n demasiado populares hasta que las personas encuentren una manera f\u00e1cil de hacer que funcionen para ellos en lugar de tener que contratar a alguien m\u00e1s con un gran presupuesto. No importa cu\u00e1n baratas o costosas sean estas cosas, la mayor\u00eda de las personas a\u00fan necesitar\u00edan una cantidad sustancial de tiempo y dinero antes de poder crear sus propias falsificaciones sin contratar a otra persona. Hay algunas personas por ah\u00ed que har\u00e1n negocios desde sus hogares donde venden videos falsos, pero en su mayor parte creo que hasta que sea algo que cualquiera pueda hacer, no tendr\u00e1 demasiado impacto en la sociedad.<\/p>\n\n<p>No creo que la gente comience a usar estos videos de manera generalizada hasta que haya una gran cantidad de incentivos financieros para hacerlo. En este momento, si tuviera que crear un video con im\u00e1genes falsas sin ning\u00fan objetivo reconocible o espec\u00edfico, ser\u00eda dif\u00edcil obtener alg\u00fan tipo de atenci\u00f3n porque, en primer lugar, no habr\u00eda nada que valiera la pena criticar. Incluso si alguien quisiera producir uno por diversi\u00f3n, todav\u00eda hay el tiempo y la potencia inform\u00e1tica necesarios para hacerlo, por lo que no tendr\u00eda mucho sentido si no tuvieran un objetivo en mente. Si estos videos pueden volverse extremadamente convincentes a gran escala, creo que las personas comenzar\u00e1n a usarlos con fines negativos con el objetivo de ganar dinero.<\/p>\n\n<p>No creo que los videos falsos se vuelvan realmente populares hasta que las personas puedan producir clips basados en conversaciones autom\u00e1ticamente. Por ahora, la mayor\u00eda de las falsificaciones son im\u00e1genes fijas b\u00e1sicas que se modifican o reorganizan por completo para adaptarse al prop\u00f3sito para el que fueron creadas. Si los algoritmos deepfake pudieran imitar m\u00e1s movimientos de la vida real, como la sincronizaci\u00f3n de labios o los atajos de gestos, creo que se abrir\u00eda todo un nuevo mundo de posibilidades donde las personas pueden crear un producto final mucho m\u00e1s convincente. Si el video es capaz de imitar los movimientos de la vida real que hablan, entonces puedo imaginar que se volver\u00edan muy populares como una forma de desinformar o calumniar a alguien sin ninguna consecuencia porque nadie podr\u00eda verificar si es real o no.<\/p>\n\n<div class=\"wp-block-buttons is-horizontal is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-499968f5 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link\" href=\"mailto:info@iotworlds.com\">Hablemos m\u00e1s sobre las tecnolog\u00edas deepfake. \u00a1Cont\u00e1ctenos!<\/a><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Deepfake es una nueva tecnolog\u00eda que se puede utilizar para manipular video y audio, con la intenci\u00f3n de producir contenido&hellip;<\/p>\n","protected":false},"author":1,"featured_media":383175,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_lmt_disableupdate":"","_lmt_disable":"","footnotes":""},"categories":[1746,2252],"tags":[],"class_list":["post-386533","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog-es","category-inteligencia-artificial-es"],"acf":[],"_links":{"self":[{"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/posts\/386533","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/comments?post=386533"}],"version-history":[{"count":0,"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/posts\/386533\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/media\/383175"}],"wp:attachment":[{"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/media?parent=386533"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/categories?post=386533"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/iotworlds.com\/es\/wp-json\/wp\/v2\/tags?post=386533"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}