Deepfake


Deepfakes (un acrónimo de " aprendizaje profundo " y "falso" [1] ) son medios sintéticos [2] en la que una persona en una imagen o vídeo existente se reemplaza por la semejanza de otra persona. Si bien el acto de falsificar contenido no es nuevo, los deepfakes aprovechan técnicas poderosas del aprendizaje automático y la inteligencia artificial para manipular o generar contenido visual y de audio con un alto potencial de engaño. [3] Los principales métodos de aprendizaje automático utilizados para crear deepfakes se basan en el aprendizaje profundo e implican el entrenamiento de arquitecturas de redes neuronales generativas , como los codificadores automáticos [3] oredes generativas adversarias (GAN). [4] [5]

Deepfakes han llamado la atención generalizada por sus usos en vídeos pornográficos de celebridades , porno venganza , noticias falsas , engaños y fraude financiero . [6] [7] [8] [9] Esto ha provocado respuestas tanto de la industria como del gobierno para detectar y limitar su uso. [10] [11]

La manipulación de fotografías se desarrolló en el siglo XIX y pronto se aplicó a las películas . La tecnología mejoró constantemente durante el siglo XX y más rápidamente con el video digital .

La tecnología Deepfake ha sido desarrollada por investigadores de instituciones académicas a partir de la década de 1990 y más tarde por aficionados en comunidades en línea. [12] [13] Más recientemente, la industria ha adoptado estos métodos. [14]

Investigación académica

La investigación académica relacionada con los deepfakes se encuentra predominantemente dentro del campo de la visión por computadora , un subcampo de la informática. [12] Uno de los primeros proyectos emblemáticos fue el programa Video Rewrite, publicado en 1997, que modificó las imágenes de video existentes de una persona hablando para representar a esa persona pronunciando las palabras contenidas en una pista de audio diferente. [15] Fue el primer sistema en automatizar completamente este tipo de reanimación facial, y lo hizo utilizando técnicas de aprendizaje automático para establecer conexiones entre los sonidos producidos por el sujeto de un video y la forma de la cara del sujeto. [15]

Los proyectos académicos contemporáneos se han centrado en la creación de videos más realistas y en la mejora de técnicas. [16] [17] El programa "Synthesizing Obama", publicado en 2017, modifica las imágenes de video del ex presidente Barack Obama para representarlo pronunciando las palabras contenidas en una pista de audio separada. [16] El proyecto enumera como principal contribución a la investigación su técnica fotorrealista para sintetizar las formas de la boca a partir del audio. [16] El programa Face2Face, publicado en 2016, modifica las imágenes de video de la cara de una persona para representarla imitando las expresiones faciales de otra persona en tiempo real. [17] El proyecto enumera como principal contribución a la investigación el primer método para recrear expresiones faciales en tiempo real utilizando una cámara que no captura la profundidad, lo que hace posible que la técnica se realice utilizando cámaras de consumo habituales. [17]

En agosto de 2018, investigadores de la Universidad de California, Berkeley, publicaron un artículo en el que presentaba una aplicación de baile falsa que puede crear la impresión de una habilidad de baile magistral utilizando IA. [18] [19] Este proyecto expande la aplicación de deepfakes a todo el cuerpo; trabajos anteriores centrados en la cabeza o partes del rostro. [18]

Los investigadores también han demostrado que los deepfakes se están expandiendo a otros dominios, como la manipulación de imágenes médicas. [20] En este trabajo, se mostró cómo un atacante puede inyectar o extirpar automáticamente el cáncer de pulmón en una tomografía computarizada en 3D de un paciente. El resultado fue tan convincente que engañó a tres radiólogos y a una IA de detección de cáncer de pulmón de última generación. Para demostrar la amenaza, los autores realizaron con éxito el ataque a un hospital en una prueba de penetración de sombrero blanco .

Una encuesta de deepfakes, publicada en mayo de 2020, proporciona una línea de tiempo de cómo ha avanzado la creación y detección de deepfakes en los últimos años. [21] La encuesta identifica que los investigadores se han centrado en resolver los siguientes desafíos de la creación de deepfake:

  • Generalización. Los deepfakes de alta calidad a menudo se logran entrenando en horas de metraje del objetivo. Este desafío consiste en minimizar la cantidad de datos de entrenamiento necesarios para producir imágenes de calidad y permitir la ejecución de modelos entrenados en nuevas identidades (no vistos durante el entrenamiento).
  • Entrenamiento por parejas. El entrenamiento de un modelo supervisado puede producir resultados de alta calidad, pero requiere emparejamiento de datos. Este es el proceso de encontrar ejemplos de entradas y sus salidas deseadas para que el modelo aprenda. El emparejamiento de datos es laborioso y poco práctico cuando se entrena sobre múltiples identidades y comportamientos faciales. Algunas soluciones incluyen entrenamiento auto-supervisado (usando fotogramas del mismo video), el uso de redes no emparejadas como Cycle-GAN o la manipulación de incrustaciones de red.
  • Fuga de identidad. Aquí es donde la identidad del conductor (es decir, el actor que controla la cara en una recreación) se transfiere parcialmente a la cara generada. Algunas de las soluciones propuestas incluyen mecanismos de atención, aprendizaje de pocas oportunidades, desenredo, conversiones de límites y omisión de conexiones.
  • Oclusiones. Cuando parte de la cara está obstruida con una mano, cabello, anteojos o cualquier otro elemento, pueden ocurrir artefactos. Una oclusión común es una boca cerrada que oculta el interior de la boca y los dientes. Algunas soluciones incluyen la segmentación de imágenes durante el entrenamiento y la pintura.
  • Coherencia temporal. En videos que contienen deepfakes, pueden ocurrir artefactos como parpadeo y jitter porque la red no tiene contexto de los fotogramas anteriores. Algunos investigadores proporcionan este contexto o utilizan nuevas pérdidas de coherencia temporal para ayudar a mejorar el realismo. A medida que la tecnología mejora, la interferencia disminuye.

En general, se espera que los deepfakes tengan varias implicaciones en los medios y la sociedad, la producción de los medios, las representaciones de los medios, las audiencias de los medios, el género, la ley y la regulación, y la política. [22]

Desarrollo amateur

El término deepfakes se originó a finales de 2017 de un usuario de Reddit llamado "deepfakes". [23] Él, así como otros en la comunidad de Reddit r / deepfakes, compartieron deepfakes que crearon; muchos videos involucraban rostros de celebridades intercambiados sobre los cuerpos de actrices en videos pornográficos, [23] mientras que el contenido no pornográfico incluía muchos videos con el rostro del actor Nicolas Cage intercambiado en varias películas. [24]

Otras comunidades en línea permanecen, incluidas las comunidades de Reddit que no comparten pornografía, como r / SFWdeepfakes (abreviatura de "deepfakes seguros para el trabajo"), en las que los miembros de la comunidad comparten deepfakes que representan a celebridades, políticos y otros en escenarios no pornográficos. [25] Otras comunidades en línea continúan compartiendo pornografía en plataformas que no han prohibido la pornografía deepfake. [26]

Desarrollo comercial

En enero de 2018, se lanzó una aplicación de escritorio patentada llamada FakeApp. [27] Esta aplicación permite a los usuarios crear y compartir videos fácilmente con sus rostros intercambiados. [28] A partir de 2019, FakeApp ha sido reemplazada por alternativas de código abierto como Faceswap, DeepFaceLab basado en línea de comandos y aplicaciones web como DeepfakesWeb.com [29] [30] [31]

Las empresas más grandes también están comenzando a utilizar deepfakes. [14] El gigante de aplicaciones móviles Momo creó la aplicación Zao que permite a los usuarios superponer su rostro en clips de televisión y películas con una sola imagen. [14] La empresa japonesa de inteligencia artificial DataGrid hizo un deepfake de cuerpo completo que puede crear una persona desde cero. [32] Tienen la intención de utilizarlos para la moda y la confección.

También existen deepfakes de audio y software de inteligencia artificial capaz de detectar deepfakes y clonar voces humanas después de 5 segundos de tiempo de escucha. [33] [34] [35] [36] [37] [38] Una aplicación móvil deepfake, Impressions, se lanzó en marzo de 2020. Fue la primera aplicación para la creación de videos deepfake de celebridades desde teléfonos móviles. [39] [40]

Resurrección

La tecnología Deepfakes no solo se puede usar para fabricar mensajes y acciones de otros, sino que también se puede usar para revivir a personas fallecidas. El 29 de octubre de 2020, Kim Kardashian publicó un video de su difunto padre Robert Kardashian ; la cara en el video de Robert Kardashian fue creada con technogy deepfake. [41] Este holograma fue creado por la empresa Kaleida, donde utilizan una combinación de tecnologías de rendimiento, seguimiento de movimiento, SFX, VFX y DeepFake en su creación de hologramas . [42]

También hubo un caso en el que Joaquin Oliver, víctima del tiroteo en Parkland, resucitó con tecnología deepfake. Los padres de Oliver se unieron en nombre de su organización Nonprofit Change the Ref, con McCann Health para producir este video profundamente falso que aboga por la campaña de votación por la seguridad de las armas. [43] En este mensaje deepfake, muestra a Joaquín animando a los espectadores a votar.

Tecnología deepfake utilizada para crear morphing facial

Los deepfakes se basan en un tipo de red neuronal llamada autocodificador . [5] [44] Consisten en un codificador, que reduce una imagen a un espacio latente de menor dimensión, y un decodificador, que reconstruye la imagen a partir de la representación latente. Los deepfakes utilizan esta arquitectura al tener un codificador universal que codifica a una persona en el espacio latente. [45] La representación latente contiene características clave sobre sus rasgos faciales y postura corporal. Esto luego se puede decodificar con un modelo entrenado específicamente para el objetivo. [5] Esto significa que la información detallada del objetivo se superpondrá a las características faciales y corporales subyacentes del video original, representadas en el espacio latente. [5]

Una actualización popular de esta arquitectura conecta una red generativa de adversarios al decodificador. [45] Un GAN entrena un generador, en este caso el decodificador, y un discriminador en una relación de confrontación. [45] El generador crea nuevas imágenes a partir de la representación latente del material fuente, mientras que el discriminador intenta determinar si la imagen se genera o no. [45] Esto hace que el generador cree imágenes que imitan la realidad extremadamente bien, ya que cualquier defecto sería detectado por el discriminador. [46] Ambos algoritmos mejoran constantemente en un juego de suma cero . [45] Esto hace que los deepfakes sean difíciles de combatir, ya que evolucionan constantemente; cada vez que se determina un defecto, se puede corregir. [46]

Chantaje

Los deepfakes se pueden utilizar para generar material de chantaje que incrimine falsamente a una víctima. Sin embargo, dado que las falsificaciones no se pueden distinguir de manera confiable de los materiales genuinos, las víctimas de un chantaje real ahora pueden afirmar que los verdaderos artefactos son falsos, lo que les otorga una negación plausible. El efecto es anular la credibilidad de los materiales de chantaje existentes, lo que borra la lealtad a los chantajistas y destruye el control del chantajista. Este fenómeno puede denominarse "inflación de chantaje", ya que "devalúa" el chantaje real, dejándolo sin valor. [47] Es posible reutilizar hardware de minería de criptomonedas con un pequeño programa de software para generar este contenido de chantaje para cualquier número de sujetos en grandes cantidades, aumentando el suministro de contenido de chantaje falso de forma ilimitada y altamente escalable. [48]

Pornografía

Muchos deepfakes en Internet presentan pornografía de personas, a menudo celebridades femeninas cuya imagen se usa típicamente sin su consentimiento. [49] La pornografía deepfake apareció de manera prominente en Internet en 2017, particularmente en Reddit . [50] Un informe publicado en octubre de 2019 por la startup holandesa de ciberseguridad Deeptrace estimó que el 96% de todos los deepfakes en línea eran pornográficos. [51] El primero que llamó la atención fue el deepfake de Daisy Ridley , que apareció en varios artículos. [50] Otros deepfakes pornográficos prominentes eran de otras celebridades. [50] [52] [53] [54] En octubre de 2019, la mayoría de los sujetos deepfake en Internet eran actrices británicas y estadounidenses. [49] Sin embargo, alrededor de una cuarta parte de los sujetos son surcoreanos, la mayoría de los cuales son estrellas del K-pop. [49] [55]

En junio de 2019, se lanzó una aplicación descargable de Windows y Linux llamada DeepNude que usaba redes neuronales, específicamente redes generativas de confrontación , para quitar la ropa de las imágenes de mujeres. La aplicación tenía una versión paga y no paga, y la versión paga costaba 50 dólares. [56] [57] El 27 de junio, los creadores eliminaron la aplicación y reembolsaron a los consumidores. [58]

Política

"> Reproducir medios
Video deepfake: Vladimir Putin advierte a los estadounidenses sobre la interferencia electoral y la creciente división política

Los deepfakes se han utilizado para tergiversar políticos conocidos en videos.

  • En videos separados, el rostro del presidente argentino Mauricio Macri ha sido reemplazado por el rostro de Adolf Hitler , y el rostro de Angela Merkel ha sido reemplazado por el de Donald Trump . [59] [60]
  • En abril de 2018, Jordan Peele colaboró ​​con Buzzfeed para crear un deepfake de Barack Obama con la voz de Peele; sirvió como un anuncio de servicio público para aumentar la conciencia de los deepfakes. [61]
  • En enero de 2019, la afiliada de Fox , KCPQ, emitió un deepfake de Trump durante su discurso en la Oficina Oval , burlándose de su apariencia y color de piel (y posteriormente despidió a un empleado que se consideró responsable del video). [62]
  • Durante la campaña electoral de la Asamblea Legislativa de Delhi de 2020 , el Partido Bharatiya Janata de Delhi utilizó una tecnología similar para distribuir una versión de un anuncio de campaña en inglés de su líder, Manoj Tiwari , traducido al Haryanvi para apuntar a los votantes de Haryana . Un actor proporcionó una voz en off, y se utilizó inteligencia artificial entrenada con video de los discursos de Tiwari para sincronizar los labios con la nueva voz en off. Un miembro del personal del partido lo describió como un uso "positivo" de la tecnología deepfake, que les permitió "acercarse de manera convincente al público objetivo, incluso si el candidato no hablaba el idioma del votante". [63]
  • En abril de 2020, la rama belga de Extinction Rebellion publicó un video deepfake de la primera ministra belga Sophie Wilmès en Facebook. [64] El video promovió un posible vínculo entre la deforestación y COVID-19 . Tuvo más de 100.000 visitas en 24 horas y recibió muchos comentarios. En la página de Facebook donde apareció el video, muchos usuarios interpretaron el video deepfake como genuino. [sesenta y cinco]
  • Bruno Sartori ha parodiado a políticos como Jair Bolsonaro y Donald Trump . [66]

En junio de 2019, el Comité de Inteligencia de la Cámara de Representantes de los Estados Unidos celebró audiencias sobre el posible uso malicioso de deepfakes para influir en las elecciones. [67]

Arte

La primera actriz de cine impulsada por IA: una ciber Ornella Muti de la obra de arte en video de Joseph Ayerle "Un'emozione per semper 2.0" (2018)

En marzo de 2018, la artista multidisciplinar José Ayerle publicó el videoartwork Un'emozione per sempre 2.0 (Título Inglés: El juego italiano ). El artista trabajó con la tecnología Deepfake para crear una actriz de IA , una versión sintética de la estrella de cine de los 80 Ornella Muti , viajando en el tiempo de 1978 a 2018. El Instituto de Tecnología de Massachusetts refirió esta obra de arte en el estudio "Sabiduría creativa". [68] El artista utilizó el viaje en el tiempo de Ornella Muti para explorar reflexiones generacionales, al tiempo que investigaba cuestiones sobre el papel de la provocación en el mundo del arte. [69] Para la realización técnica, Ayerle utilizó escenas de la modelo fotográfica Kendall Jenner . El programa reemplazó la cara de Jenner por una cara calculada por IA de Ornella Muti. Como resultado, la actriz de IA tiene el rostro de la actriz italiana Ornella Muti y el cuerpo de Kendall Jenner.

Interino

Se ha especulado sobre el uso de deepfakes para crear actores digitales para películas futuras. Los seres humanos construidos / alterados digitalmente ya se han utilizado en películas antes, y los deepfakes podrían contribuir a nuevos desarrollos en un futuro próximo. [70] Los fans ya han utilizado la tecnología Deepfake para insertar caras en películas existentes, como la inserción de la cara joven de Harrison Ford en la cara de Han Solo en Solo: A Star Wars Story , [71] y técnicas similares a las utilizadas de deepfakes se utilizaron para la actuación de la princesa Leia en Rogue One . [72]

A medida que la tecnología deepfake avanza cada vez más, Disney ha mejorado sus efectos visuales utilizando tecnología de intercambio de caras deepfake de alta resolución. [73] Disney mejoró su tecnología a través de un entrenamiento progresivo programado para identificar expresiones faciales, implementando una función de intercambio de caras e iterando para estabilizar y refinar la salida. [73] Esta tecnología deepfake de alta resolución se implementará en la producción de películas y televisión, lo que ahorrará importantes costos operativos y de producción. [74] El modelo de generación deepfake de Disney puede producir medios generados por IA con una resolución de 1024 x 1024, que es mucho mayor y produce resultados más realistas que los modelos comunes que producen medios con una resolución de 256 x 256. [74] Además, con esta tecnología, Disney tiene la oportunidad de revivir a los actores y personajes muertos con un rápido y sencillo cambio de rostro; Disney ahora puede resucitar y revivir personajes para que los fanáticos los disfruten. [75]

meme de Internet

En 2020, surgió un meme de Internet utilizando deepfakes para generar videos de personas cantando el coro de "Baka Mitai" (ば か み た い) , una canción del juego Yakuza 0 en la serie de videojuegos Yakuza . En la serie, el jugador canta la canción melancólica en un minijuego de karaoke . La mayoría de las iteraciones de este meme utilizan un video de 2017 subido por el usuario Dobbsyrules, quien sincroniza los labios con la canción, como plantilla. [76] [77]

Medios de comunicación social

Los deepfakes han comenzado a ser utilizados en plataformas de redes sociales populares, en particular a través de Zao, una aplicación china de deepfake que permite a los usuarios sustituir sus propios rostros por los de personajes en escenas de películas y programas de televisión como Romeo + Juliet y Game of Thrones . [78] La aplicación originalmente se enfrentó a un escrutinio sobre sus datos de usuario invasivos y su política de privacidad, después de lo cual la compañía emitió una declaración en la que afirmaba que revisaría la política. [79] En enero de 2020, Facebook anunció que estaba introduciendo nuevas medidas para contrarrestar esto en sus plataformas. [80]

Marionetas

Las fotografías deepfake se pueden utilizar para crear títeres , personas inexistentes, que están activas tanto en línea como en los medios tradicionales. Una fotografía deepfake parece haber sido generada junto con una leyenda de una persona aparentemente inexistente llamada Oliver Taylor, cuya identidad fue descrita como estudiante universitaria en el Reino Unido. El personaje de Oliver Taylor presentó artículos de opinión en varios periódicos y participó activamente en los medios en línea atacando a un académico jurídico británico ya su esposa, como "simpatizantes del terrorismo". El académico había llamado la atención internacional en 2018 cuando inició una demanda en Israel contra NSO, una empresa de vigilancia, en nombre de personas en México que alegaron haber sido víctimas de la tecnología de piratería telefónica de NSO . Reuters solo pudo encontrar escasos registros de Oliver Taylor y "su" universidad no tenía registros de él. Muchos expertos estuvieron de acuerdo en que "su" foto es una deepfake. Varios periódicos no se han retractado de "sus" artículos ni los han eliminado de sus sitios web. Se teme que tales técnicas sean un nuevo campo de batalla en la desinformación . [81]

También se han desplegado colecciones de fotografías deepfake de personas inexistentes en las redes sociales como parte de la propaganda partidista israelí . La página de Facebook "Primavera sionista" presentaba fotos de personas inexistentes junto con sus "testimonios" que pretendían explicar por qué habían abandonado su política de izquierda para abrazar a la derecha , y la página también contenía un gran número de publicaciones de Prime. El ministro de Israel, Benjamin Netanyahu, y su hijo y de otras fuentes de la derecha israelí. Las fotografías parecen haber sido generadas por tecnología de " síntesis de imágenes humanas ", software de computadora que toma datos de fotos de personas reales para producir una imagen compuesta realista de una persona inexistente. En gran parte del "testimonio", la razón dada para abrazar la derecha política fue el impacto de enterarse de una supuesta incitación a la violencia contra el primer ministro. Los locutores de televisión israelíes de derecha luego transmitieron el "testimonio" de esta persona inexistente basándose en el hecho de que estaban siendo "compartidos" en línea. Las emisoras transmitieron la historia, a pesar de que las emisoras no pudieron encontrar a esas personas, explicando "¿Por qué importa el origen?" Otros perfiles falsos de Facebook, perfiles de personas ficticias, contenían material que supuestamente contenía tal incitación contra el primer ministro de derecha, en respuesta a lo cual el primer ministro se quejó de que había un complot para asesinarlo. [82] [83]

Fraude

Los deepfakes de audio se han utilizado como parte de estafas de ingeniería social , engañando a las personas haciéndoles creer que están recibiendo instrucciones de una persona de confianza. [84] En 2019, el CEO de una empresa de energía con sede en el Reino Unido fue estafado por teléfono cuando un individuo que usó tecnología de audio deepfake para suplantar la voz del director ejecutivo de la empresa matriz de la empresa le ordenó transferir 220.000 € a una cuenta bancaria húngara. . [85]

Credibilidad y autenticidad

Aunque las fotos falsas han sido abundantes durante mucho tiempo, las películas falsas han sido más difíciles y la presencia de deepfakes aumenta la dificultad de clasificar los videos como genuinos o no. [59] El investigador de inteligencia artificial Alex Champandard ha dicho que la gente debe saber qué tan rápido se pueden corromper las cosas con la tecnología deepfake, y que el problema no es técnico, sino que debe resolverse confiando en la información y el periodismo. [59] Los deepfakes se pueden aprovechar para difamar, suplantar y difundir desinformación. [86] El problema principal es que la humanidad podría caer en una época en la que ya no se puede determinar si el contenido de un medio corresponde a la verdad. [59]

De manera similar, el profesor asociado de ciencias de la computación Hao Li de la Universidad del Sur de California afirma que los deepfakes creados para uso malicioso, como las noticias falsas, serán aún más dañinos si no se hace nada para difundir la tecnología deepfake. [87] Li predijo que los videos genuinos y los deepfakes se volverían indistinguibles en tan solo medio año, a partir de octubre de 2019, debido al rápido avance en inteligencia artificial y gráficos por computadora. [87]

El ex zar del fraude de Google , Shuman Ghosemajumder , ha llamado a los deepfakes un área de "preocupación social" y dijo que inevitablemente evolucionarán hasta el punto en que se puedan generar automáticamente, y una persona podría usar esa tecnología para producir millones de videos deepfake. [88]

Las consecuencias de un deepfake no son lo suficientemente importantes como para desestabilizar todo el sistema de gobierno; sin embargo, los deepfakes poseen la capacidad de dañar tremendamente a entidades individuales. [89] Esto se debe a que los deepfakes a menudo están dirigidos a un individuo y / o sus relaciones con otros con la esperanza de crear una narrativa lo suficientemente poderosa como para influir en la opinión o las creencias públicas. Esto se puede hacer mediante el phishing de voz deepfake, que manipula el audio para crear llamadas telefónicas o conversaciones falsas. [89] Otro método de uso de deepfake son los comentarios privados fabricados, que manipulan los medios para transmitir a las personas que expresan comentarios dañinos. [89]

En septiembre de 2020, Microsoft hizo público que estaban desarrollando una herramienta de software de detección de Deepfake. [90]

Eventos de ejemplo

"> Reproducir medios
"Kim Jong-Un"

Las falsificaciones profundas del líder norcoreano Kim Jong-un y el presidente ruso Vladimir Putin también han sido creadas por un grupo de defensa no partidista RepresentUs . [91] Estos deepfakes estaban destinados a transmitirse públicamente como comerciales para transmitir la noción de que la interferencia de estos líderes en las elecciones estadounidenses sería perjudicial para la democracia de los Estados Unidos; el comercial también tenía como objetivo sorprender a los estadounidenses para que se dieran cuenta de lo frágil que es la democracia y de cómo los medios y las noticias pueden influir significativamente en el camino del país independientemente de su credibilidad. [91] Sin embargo, estos comerciales incluyeron un comentario final que detallaba que el metraje no era real, y los comerciales finalmente no se emitieron debido a los temores y la sensibilidad con respecto a cómo pueden reaccionar los estadounidenses. [91]

Un clip del discurso de Nancy Pelosi en el Center for American Progress dado el 22 de mayo de 2019 se ralentizó, además de que se modificó el tono, para que pareciera que estaba borracha; sin embargo, los críticos argumentan que esto no es un deepfake. [92]

Donald Trump deepfake

Un deepfake de Donald Trump se creó fácilmente a partir de una parodia que Jimmy Fallon realizó en The Tonight Show de NBC . En esta parodia (emitida el 4 de mayo de 2016), Jimmy Fallon se disfrazó de Donald Trump y fingió participar en una llamada telefónica con Barack Obama, conversando de una manera que lo presentaba presumiendo de su victoria en las primarias en Indiana. [93] El 5 de mayo de 2019 se creó una deepfake de Donald Trump (tomada de esta parodia). [93] En este deepfake, la cara de Jimmy Fallon se transformó en la cara de Donald Trump (el audio siguió siendo el mismo). Este video de deepfake fue subido a YouTube por el fundador de Derpfakes con una intención cómica.

Barack Obama deepfake

El actor estadounidense Jordan Peele , BuzzFeed y Monkeypaw Productions crearon y produjeron un deepfake de Barack Obama (subido a YouTube el 17 de abril de 2018) que mostraba a Barack Obama maldiciendo y poniendo apodos a Donald Trump. [94] En este deepfake, la voz y la boca de Peele se transformaron y manipularon en la voz y el rostro de Obama. La intención de este video era retratar las peligrosas consecuencias y el poder de los deepfakes, y cómo los deepfakes pueden hacer que cualquiera diga algo.

También han surgido posibles innovaciones positivas junto con la creciente popularidad y la creación de deepfakes. Por ejemplo, se pueden crear videos de capacitación corporativos usando avatares deepfaked y sus voces. Un ejemplo de esto es Synthesia, que utiliza tecnología deepfake con avatares para crear videos personalizados. [95]

Microsoft ha desarrollado una aplicación llamada "Seeing AI" que utiliza inteligencia artificial y tecnología deepfake para narrar el mundo que te rodea y ayudar a las personas ciegas o con baja visión. [96] Con la tecnología deepfake, esta aplicación puede narrar texto en documentos, escanear productos y códigos de barras, reconocer a las personas y sus emociones, describir la ubicación y el entorno a su alrededor, identificar moneda y billetes y comunicar estas características en diferentes idiomas en un volumen y tono que se ajusta a su entorno. [96]

Plataformas de redes sociales

Gorjeo

Twitter está tomando medidas activas para manejar medios sintéticos y manipulados en su plataforma. Para evitar que la desinformación se propague, Twitter está colocando un aviso en los tweets que contienen medios manipulados y / o deepfakes que indican a los espectadores que los medios están manipulados. [97] También habrá una advertencia que aparecerá para los usuarios que planean retuitear, dar me gusta o interactuar con el tweet. [97] Twitter también trabajará para proporcionar a los usuarios un enlace junto al tuit que contiene medios sintéticos o manipulados que enlazan con un Momento de Twitter o un artículo de noticias creíble sobre el tema relacionado, como una acción de desacreditación. [97] Twitter también tiene la capacidad de eliminar cualquier tweet que contenga deepfakes o medios manipulados que puedan suponer un daño a la seguridad de los usuarios. [97] Con el fin de mejorar la detección de Twitter de deepfakes y medios manipulados, Twitter ha pedido a los usuarios interesados ​​en asociarse con ellos que trabajen en soluciones de detección de deepfake para completar un formulario (que vence el 27 de noviembre de 2020). [98]

Facebook

Facebook ha realizado esfuerzos para fomentar la creación de deepfakes con el fin de desarrollar un software de detección de deepfake de última generación. Facebook fue el socio destacado en la organización del Deepfake Detection Challenge (DFDC) , celebrado en diciembre de 2019, para 2114 participantes que generaron más de 35000 modelos. [99] Los modelos de mejor rendimiento con la mayor precisión de detección se analizaron en busca de similitudes y diferencias; Estos hallazgos son áreas de interés en futuras investigaciones para mejorar y refinar los modelos de detección de deepfake. [99] Facebook también ha detallado que la plataforma eliminará los medios generados con inteligencia artificial utilizada para alterar el habla de un individuo. [100] Sin embargo, los medios que se han editado para alterar el orden o el contexto de las palabras en el mensaje de uno permanecerán en el sitio pero se etiquetarán como falsos, ya que no fueron generados por inteligencia artificial. [100]

Detección

La mayor parte de la investigación académica sobre deepfake busca detectar los videos. [101] La técnica más popular es usar algoritmos similares a los que se usan para construir el deepfake para detectarlos. [101] Al reconocer patrones en cómo se crean los deepfakes, el algoritmo es capaz de detectar inconsistencias sutiles. [101] Los investigadores han desarrollado sistemas automáticos que examinan los videos en busca de errores, como patrones de iluminación parpadeantes irregulares. [12] Esta técnica también ha sido criticada por crear una " publicación de objetivo móvil " en la que, en cualquier momento, los algoritmos de detección mejoran, al igual que los deepfakes. [101] El Deepfake Detection Challenge, organizado por una coalición de empresas tecnológicas líderes, espera acelerar la tecnología para identificar contenido manipulado. [102]

Un equipo de la Universidad de Buffalo publicó un artículo en octubre de 2020 que describe su técnica de usar reflejos de luz en los ojos de los representados para detectar deepfakes con una alta tasa de éxito, incluso sin el uso de una herramienta de detección de IA, al menos para el momento. [103]

Otras técnicas utilizan blockchain para verificar la fuente de los medios. [104] Los videos deberán verificarse a través del libro mayor antes de que se muestren en las plataformas de redes sociales. [104] Con esta tecnología, solo se aprobarían videos de fuentes confiables, disminuyendo la propagación de medios deepfake posiblemente dañinos. [104]

Se sugirió la firma digital de todos los videos e imágenes por parte de cámaras y cámaras de video, incluidas las cámaras de los teléfonos inteligentes, para combatir las falsificaciones profundas. [105] Eso permite rastrear cada fotografía o video hasta su propietario original que puede usarse para perseguir a los disidentes. [105]

Reacción de internet

Desde 2017, Samantha Cole de Vice publicó una serie de artículos que cubren noticias relacionadas con la pornografía deepfake. [106] [107] [108] [56] [54] [109] [110] [23] El 31 de enero de 2018, Gfycat comenzó a eliminar todos los deepfakes de su sitio. [108] [10] En Reddit , el subreddit r / deepfakes fue prohibido el 7 de febrero de 2018, debido a la violación de la política de "pornografía involuntaria". [111] [112] [113] [114] [115] En el mismo mes, representantes de Twitter declararon que suspenderían las cuentas sospechosas de publicar contenido deepfake no consensuado. [109] El sitio de chat Discord ha tomado medidas contra los deepfakes en el pasado, [116] y ha adoptado una postura general contra los deepfakes. [10] [117] En septiembre de 2018, Google agregó "imágenes pornográficas sintéticas involuntarias" a su lista de prohibiciones, lo que permite que cualquiera solicite el bloque de resultados que muestren sus desnudos falsos. [118] [ verifique la sintaxis de la cita ] En febrero de 2018, dijo Pornhub que prohibiría los videos deepfake en su sitio web porque se considera "contenido no consensuado" que viola sus términos de servicio. [107] También declararon previamente a Mashable que eliminarán el contenido marcado como deepfakes. [119] Writers from Motherboard de Buzzfeed News informó que la búsqueda de "deepfakes" en Pornhub aún arrojaba varios videos recientes de deepfakes. [107]

Facebook ha declarado anteriormente que no eliminaría los deepfakes de sus plataformas. [120] En cambio, los videos serán marcados como falsos por terceros y luego tendrán una prioridad menor en los feeds de los usuarios. [106] Esta respuesta se solicitó en junio de 2019 después de que un deepfake con un video de 2016 de Mark Zuckerberg circulara en Facebook e Instagram . [120]

Respuesta legal

En los Estados Unidos, ha habido algunas respuestas a los problemas que plantean los deepfakes. En 2018, la Ley de Prohibición malicioso profunda falsa fue introducida en el Senado de Estados Unidos , [121] y en 2019 la Ley de Responsabilidad DEEPFAKES se introdujo en la Cámara de Representantes . [11] Varios estados también han introducido legislación sobre deepfakes, incluidos Virginia, [122] Texas, California y Nueva York. [123] El 3 de octubre de 2019, el gobernador de California Gavin Newsom promulgó los proyectos de ley de la asamblea núm. 602 y núm. 730. [124] [125] El proyecto de ley de la asamblea núm. 602 proporciona a las personas objeto de contenido sexualmente explícito deepfake elaborado sin su consentimiento causa de acción contra el creador del contenido. [124] El proyecto de ley núm. 730 de la Asamblea prohíbe la distribución de medios de audio o visuales falsos y maliciosos dirigidos a un candidato que se postula para un cargo público dentro de los 60 días de su elección. [125]

, Noviembre de 2019 China anunció que deepfakes y otras imágenes sintéticamente fingido deben tener un claro aviso sobre su falsedad a partir de 2020. El incumplimiento podría ser considerado un crimen de la Administración ciberespacio de China, declaró en su página web. [126] El gobierno chino parece reservarse el derecho de enjuiciar tanto a los usuarios como a las plataformas de video en línea que no cumplan con las reglas. [127]

En el Reino Unido, los productores de material deepfake pueden ser procesados ​​por acoso, pero hay llamamientos para convertir el deepfake en un delito específico; [128] en los Estados Unidos, donde se han presentado cargos tan variados como robo de identidad , acoso cibernético y pornografía por venganza , también se ha discutido la noción de un estatuto más completo. [118]

En Canadá, el Communications Security Establishment publicó un informe que decía que los deepfakes podrían usarse para interferir en la política canadiense, particularmente para desacreditar a los políticos e influir en los votantes. [129] [130] Como resultado, hay varias formas en que los ciudadanos de Canadá pueden lidiar con los deepfakes si son su objetivo. [131]

Respuesta de DARPA

La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) ha financiado un proyecto en el que las personas competirán para crear videos, audio e imágenes generados por IA, así como herramientas automatizadas para detectar estos deepfakes. [132] DARPA incluso se ha esforzado por organizar un "día de los proponentes" de un proyecto afiliado al Programa de Forense Semántica en el que se impulsa a los investigadores a prevenir la propagación viral de los medios manipulados por la IA. [133] DARPA y el Programa de Análisis Forense Semántico también están trabajando juntos para detectar estos medios manipulados por IA a través de esfuerzos enfocados en entrenar a las computadoras para que utilicen el sentido común y el razonamiento lógico. [133] DARPA también ha creado un programa de medios forenses (MediFor), para mitigar el daño cada vez mayor que plantean los deepfakes y los medios generados por IA. [134] Este programa tiene como objetivo no solo detectar deepfakes, sino también proporcionar información sobre cómo se crearon los medios. [134] Al mismo tiempo, el objetivo de DARPA es abordar y enfatizar el papel consecuente de los deepfakes y su influencia en la toma de decisiones. [134]

  • La edición de mediados de diciembre de 1986 de la revista Analog publicó la novela "Picaper" de Jack Wodhams. Su trama gira en torno a videos mejorados o generados digitalmente producidos por hábiles piratas informáticos que sirven a abogados y figuras políticas sin escrúpulos. [135]
  • La película de 1987 The Running Man, protagonizada por Arnold Schwarzenegger, representa a un gobierno autocrático que usa computadoras para reemplazar digitalmente los rostros de los actores con los de los fugitivos buscados para que parezca que los fugitivos habían sido neutralizados.
  • En el tecno-thriller de 1992 A Philosophical Investigation de Philip Kerr , "Wittgenstein", el personaje principal y asesino en serie, hace uso de un software similar a Deepfake y un traje de realidad virtual para tener relaciones sexuales con un avatar de la teniente de policía. Isadora "Jake" Jakowicz asignado para atraparlo. [136]
  • La película de 1993 Rising Sun, protagonizada por Sean Connery y Wesley Snipes, representa a otro personaje, Jingo Asakuma, que revela que un disco de computadora ha alterado digitalmente las identidades personales para implicar a un competidor.
  • La tecnología Deepfake es parte de la trama del drama The Capture de BBC One de 2019 . La serie sigue al exsoldado británico Shaun Emery, acusado de agredir y secuestrar a su abogado. Se utilizan imágenes de CCTV manipuladas por expertos para tenderle una trampa y engañar a la policía que lo investiga. [137] [138]
  • Al Davis frente a la NFL - La estructura narrativa de este documental 2021, parte de ESPN 's 30 por 30 series documentales, usos deepfake versiones de dos personajes centrales de la película, tanto fallecido- Al Davis , que eran dueños de los Raiders de Las Vegas durante el la permanencia del equipo en Oakland y Los Ángeles , y Pete Rozelle , el comisionado de la NFL que frecuentemente chocaba con Davis. [139] [140]

  • Captura de movimiento facial
  • StyleGAN
  • Medios sintéticos
  • Actor virtual
  • Tecnología de reemplazo de identidad
  • Hiperrealidad

  1. ^ Brandon, John (16 de febrero de 2018). "Aterrador porno de alta tecnología: los videos espeluznantes 'deepfake' están en aumento" . Fox News . Consultado el 20 de febrero de 2018 .
  2. ^ "Prepárate, no cunda el pánico: medios sintéticos y deepfakes" . testigo.org . Consultado el 25 de noviembre de 2020 .
  3. ^ a b Kietzmann, J .; Lee, LW; McCarthy, IP; Kietzmann, TC (2020). "Deepfakes: ¿truco o trato?". Horizontes de negocios . 63 (2): 135-146. doi : 10.1016 / j.bushor.2019.11.006 .
  4. ^ Schwartz, Oscar (12 de noviembre de 2018). "¿Pensaste que las noticias falsas eran malas? Las falsificaciones profundas son donde la verdad va a morir" . The Guardian . Consultado el 14 de noviembre de 2018 .
  5. ^ a b c d PhD, Sven Charleer (17 de mayo de 2019). "Diversión familiar con deepfakes. O cómo conseguí que mi esposa entrara en el Tonight Show" . Medio . Consultado el 8 de noviembre de 2019 .
  6. ^ "¿Qué son los deepfakes y por qué el futuro de la pornografía es aterrador?" . Highsnobiety . 20 de febrero de 2018 . Consultado el 20 de febrero de 2018 .
  7. ^ "Los expertos temen que la tecnología de intercambio de rostros pueda iniciar un enfrentamiento internacional" . El esquema . Consultado el 28 de febrero de 2018 .
  8. ^ Roose, Kevin (4 de marzo de 2018). "Aquí vienen los videos falsos, también" . The New York Times . ISSN  0362-4331 . Consultado el 24 de marzo de 2018 .
  9. ^ Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damian (octubre de 2019), Adversarial Learning of Deepfakes in Accounting , arXiv : 1910.03810 , Bibcode : 2019arXiv191003810S
  10. ^ a b c Ghoshal, Abhimanyu (7 de febrero de 2018). "Twitter, Pornhub y otras plataformas prohíben el porno de celebridades generado por IA" . La próxima web . Consultado el 9 de noviembre de 2019 .
  11. ^ a b Clarke, Yvette D. (28 de junio de 2019). "HR3230 - 116 ° Congreso (2019-2020): Defender a todas y cada una de las personas de las apariencias falsas manteniendo la explotación sujeta a la Ley de responsabilidad de 2019" . www.congress.gov . Consultado el 16 de octubre de 2019 .
  12. ^ a b c Harwell, Drew (12 de junio de 2019). "Los mejores investigadores de IA se apresuran a detectar videos 'deepfake': 'Estamos superados ' " . The Washington Post . Consultado el 8 de noviembre de 2019 .
  13. ^ Sánchez, Julián (8 de febrero de 2018). "Gracias a la IA, el futuro de las 'fake news' está siendo pionero en el porno casero" . NBC News . Consultado el 8 de noviembre de 2019 .
  14. ^ a b c Porter, Jon (2 de septiembre de 2019). "Otra aplicación de deepfake convincente se vuelve viral y provoca una reacción de privacidad inmediata" . The Verge . Consultado el 8 de noviembre de 2019 .
  15. ^ a b Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Reescritura de vídeo: conducción del habla visual con audio". Actas de la 24ª Conferencia Anual sobre Gráficos por Computadora y Técnicas Interactivas . 24 : 353–360. doi : 10.1145 / 258734.258880 . S2CID  2341707 .
  16. ^ a b c Suwajanakorn, Supasorn; Seitz, Steven M .; Kemelmacher-Shlizerman, Ira (julio de 2017). "Sintetizar a Obama: aprender sincronización de labios de audio". ACM Trans. Gráfico . 36 (4): 95: 1–95: 13. doi : 10.1145 / 3072959.3073640 . S2CID  207586187 .
  17. ^ a b c Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, cristiano; Nießner, Matthias (junio de 2016). "Face2Face: captura de rostros en tiempo real y recreación de videos RGB". 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) . IEEE: 2387–2395. arXiv : 2007.14808 . doi : 10.1109 / CVPR.2016.262 . ISBN 9781467388511. S2CID  206593693 .
  18. ^ a b Farquhar, Peter (27 de agosto de 2018). "Un programa de inteligencia artificial pronto estará aquí para ayudarlo a bailar deepface, pero no lo llame deepfake" . Business Insider Australia . Consultado el 27 de agosto de 2018 .
  19. ^ "Deepfakes para bailar: ahora puedes usar IA para simular esos movimientos de baile que siempre quisiste" . The Verge . Consultado el 27 de agosto de 2018 .
  20. ^ Mirsky, Yisroel; Mahler, Tom; Shelef, Ilan; Elovici, Yuval (2019). CT-GAN: manipulación maliciosa de imágenes médicas en 3D mediante aprendizaje profundo . págs. 461–478. ISBN 978-1-939133-06-9.
  21. ^ Mirsky, Yisroel; Lee, Wenke (12 de mayo de 2020). "La creación y detección de deepfakes: una encuesta". arXiv : 2004.11138 . doi : 10.1145 / 3425780 . S2CID  216080410 . Cite journal requiere |journal=( ayuda )
  22. ^ Karnouskos, Stamatis (2020). "Inteligencia artificial en medios digitales: la era de los deepfakes" (PDF) . Transacciones IEEE sobre tecnología y sociedad . 1 (3): 1. doi : 10.1109 / TTS.2020.3001312 . S2CID  221716206 . Consultado el 9 de julio de 2020 .
  23. ^ a b c Cole, Samantha (24 de enero de 2018). "Estamos realmente jodidos: todo el mundo está haciendo pornografía falsa generada por IA ahora" . Vice . Consultado el 4 de mayo de 2019 .
  24. ^ Haysom, Sam (31 de enero de 2018). "La gente está utilizando tecnología de intercambio de caras para agregar Nicolas Cage a películas al azar y lo que es 2018" . Mashable . Consultado el 4 de abril de 2019 .
  25. ^ "r / SFWdeepfakes" . Reddit . Consultado el 12 de diciembre de 2018 .
  26. ^ Hathaway, Jay (8 de febrero de 2018). "Aquí es donde 'deepfakes', el nuevo porno de celebridades falsas, fue tras la prohibición de Reddit" . El punto diario . Consultado el 22 de diciembre de 2018 .
  27. ^ "¿Qué es un deepfake y cómo se hacen?" . Consejos técnicos en línea . 23 de mayo de 2019 . Consultado el 8 de noviembre de 2019 .
  28. ^ Robertson, Adi (11 de febrero de 2018). "Estoy usando IA para intercambiar caras entre Elon Musk y Jeff Bezos, y soy muy malo en eso" . The Verge . Consultado el 8 de noviembre de 2019 .
  29. ^ "Deepfakes web | La mejor aplicación de intercambio de caras en línea" . Deepfakes web . Consultado el 21 de febrero de 2021 .
  30. ^ "Faceswap es el software líder en Deepfakes multiplataforma, libre y de código abierto" . 15 de octubre de 2019 - a través de WordPress.
  31. ^ "DeepFaceLab es una herramienta que utiliza el aprendizaje automático para reemplazar caras en videos. Incluye binario de Windows 7,8,10 preconstruido y listo para funcionar (mira readme.md) .: iperov / DeepFaceLab" . 19 de junio de 2019 - a través de GitHub.
  32. ^ Pangburn, DJ (21 de septiembre de 2019). "Has sido advertido: los deepfakes de cuerpo completo son el siguiente paso en el mimetismo humano basado en IA" . Empresa rápida . Consultado el 8 de noviembre de 2019 .
  33. ^ Lyons, Kim (29 de enero de 2020). "La FTC dice que la tecnología detrás de los deepfakes de audio está mejorando" . The Verge .
  34. ^ "Muestras de audio de" Transferir el aprendizaje de la verificación del altavoz a la síntesis de texto a voz de varios altavoces " " . google.github.io .
  35. ^ Jia, Ye; Zhang, Yu; Weiss, Ron J .; Wang, Quan; Shen, Jonathan; Ren, Fei; Chen, Zhifeng; Nguyen, Patrick; Pang, Ruoming; Moreno, Ignacio López; Wu, Yonghui (2 de enero de 2019). "Transferir el aprendizaje de la verificación del altavoz a la síntesis de texto a voz de varios altavoces". arXiv : 1806.04558 . Código bibliográfico : 2018arXiv180604558J . Cite journal requiere |journal=( ayuda )
  36. ^ "Computación Visual TUM: Prof. Matthias Nießner" . www.niessnerlab.org .
  37. ^ "Recarga de página completa" . IEEE Spectrum: Noticias de tecnología, ingeniería y ciencia .
  38. ^ "Contribución de datos a la investigación de detección de deepfake" .
  39. ^ Thalen, Mikael. "Ahora puedes convertirte en una celebridad con unos pocos clics" . punto diario . Consultado el 3 de abril de 2020 .
  40. ^ Matthews, Zane. "Diversión o miedo: la aplicación Deepfake pone caras de celebridades en tus selfies" . Kool1079 . Consultado el 6 de marzo de 2020 .
  41. ^ "Kanye West, Kim Kardashian y su padre: ¿Deberíamos hacer hologramas de los muertos?" . BBC News . 31 de octubre de 2020 . Consultado el 11 de noviembre de 2020 .
  42. ^ Modems, The (30 de octubre de 2020). "KANYE WEST LE DIO A KIM KARDASHIAN UN HOLOGRAMA DE SU PADRE PARA SU CUMPLEAÑOS" . themodems . Consultado el 11 de noviembre de 2020 .
  43. ^ "La víctima de Parkland, Joaquín Oliver, vuelve a la vida en una desgarradora súplica a los votantes" . adage.com . 2 de octubre de 2020 . Consultado el 11 de noviembre de 2020 .
  44. ^ Zucconi, Alan (14 de marzo de 2018). "Comprensión de la tecnología detrás de DeepFakes" . Alan Zucconi . Consultado el 8 de noviembre de 2019 .
  45. ^ a b c d e Kan, CE (10 de diciembre de 2018). "¿Qué diablos son los VAE-GAN?" . Medio . Consultado el 8 de noviembre de 2019 .
  46. ^ a b "Estos nuevos trucos pueden ser más astutos que los videos deepfake, por ahora" . Cableado . ISSN  1059-1028 . Consultado el 9 de noviembre de 2019 .
  47. ^ Limberg, Peter (24 de mayo de 2020). "Inflación de chantaje" . CultState . Consultado el 18 de enero de 2021 .
  48. ^ "Para Kappy" . Telegraph . 24 de mayo de 2020 . Consultado el 18 de enero de 2021 .
  49. ^ a b c Dickson, EJ (7 de octubre de 2019). "Deepfake Porn sigue siendo una amenaza, especialmente para las estrellas de K-Pop" . Rolling Stone . Consultado el 9 de noviembre de 2019 .
  50. ^ a b c Roettgers, Janko (21 de febrero de 2018). "Productores de pornografía ofrecen ayudar a Hollywood a eliminar videos de deepfake" . Variedad . Consultado el 28 de febrero de 2018 .
  51. ^ "El estado de Deepfake: panorama, amenazas e impacto" (PDF) . Deeptrace . 1 de octubre de 2019 . Consultado el 7 de julio de 2020 .
  52. ^ Goggin, Benjamín. "De la pornografía a 'Game of Thrones': cómo los deepfakes y los videos falsos de aspecto realista triunfan" . Business Insider . Consultado el 9 de noviembre de 2019 .
  53. ^ Lee, Dave (3 de febrero de 2018). "El ' porno falso' tiene graves consecuencias" . Consultado el 9 de noviembre de 2019 .
  54. ^ a b Cole, Samantha (19 de junio de 2018). "La solución de inteligencia artificial de Gfycat para combatir los deepfakes no funciona" . Vice . Consultado el 9 de noviembre de 2019 .
  55. ^ Zoe, Freni (24 de noviembre de 2019). "Deepfake Porn está aquí para quedarse" . Medio .
  56. ^ a b Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26 de junio de 2019). "Esta horrible aplicación desnuda una foto de cualquier mujer con un solo clic" . Vice . Consultado el 2 de julio de 2019 .
  57. ^ Cox, Joseph (9 de julio de 2019). "GitHub eliminó las versiones de código abierto de DeepNude" . Vice Media .
  58. ^ "pic.twitter.com/8uJKBQTZ0o" . 27 de junio de 2019.
  59. ^ a b c d "Wenn Merkel plötzlich triunfa sobre Gesicht trägt: die gefährliche Manipulation von Bildern und Videos" . az Aargauer Zeitung. 3 de febrero de 2018.
  60. ^ Patrick Gensing. "Deepfakes: Auf dem Weg in eine Alternative Realität?" .
  61. ^ Romano, Aja (18 de abril de 2018). "El anuncio de servicio público simulado de Obama de Jordan Peele es una advertencia de doble filo contra las noticias falsas" . Vox . Consultado el 10 de septiembre de 2018 .
  62. ^ Swenson, Kyle (11 de enero de 2019). "Una estación de televisión de Seattle transmitió imágenes manipuladas del discurso de Trump en la Oficina Oval. El empleado ha sido despedido" . The Washington Post . Consultado el 11 de enero de 2019 .
  63. ^ Christopher, Nilesh (18 de febrero de 2020). "Acabamos de ver el primer uso de Deepfakes en una campaña electoral india" . Vice . Consultado el 19 de febrero de 2020 .
  64. ^ "#TellTheTruthBelgium" . Extinction Rebellion Bélgica . Consultado el 21 de abril de 2020 .
  65. ^ Holubowicz, Gerald (15 de abril de 2020). "Extinction Rebellion s'empare des deepfakes" . Journalism.design (en francés) . Consultado el 21 de abril de 2020 .
  66. ^ Economista, Revista (28 de abril de 2020). "Amabie: la criatura mítica que vuelve al coronavirus" . The Economist . ISSN  0013-0613 . Consultado el 3 de junio de 2021 .
  67. ^ O'Sullivan, Donie. "Congreso para investigar deepfakes como video manipulado de Pelosi causa revuelo" . CNN . Consultado el 9 de noviembre de 2019 .
  68. ^ Katerina Cizek, William Uricchio y Sarah Wolozin: sabiduría colectiva | Instituto de Tecnología de Massachusetts [1]
  69. ^ ANSA | Ornella Muti en cortometraggio a Firenze
  70. ^ Kemp, Luke (8 de julio de 2019). "En la era de los deepfakes, ¿podrían los actores virtuales sacar a los humanos del negocio?" . The Guardian . ISSN  0261-3077 . Consultado el 20 de octubre de 2019 .
  71. ^ Radulovic, Petrana (17 de octubre de 2018). "Harrison Ford es la estrella de Solo: A Star Wars Story gracias a la tecnología deepfake" . Polígono . Consultado el 20 de octubre de 2019 .
  72. ^ Winick, Erin. "Cómo actuar como títere de Carrie Fisher hizo carrera para la princesa Leia de Rogue One" . Revisión de tecnología del MIT . Consultado el 20 de octubre de 2019 .
  73. ^ a b "Intercambio de caras neuronales de alta resolución para efectos visuales | Disney Research Studios" . Consultado el 7 de octubre de 2020 .
  74. ^ a b "La tecnología deepfake de Disney podría utilizarse en cine y televisión" . Blooloop . Consultado el 7 de octubre de 2020 .
  75. ^ A, Jon Lindley (2 de julio de 2020). "Disney se aventura en traer de vuelta 'actores muertos' a través del reconocimiento facial" . Tech Times . Consultado el 7 de octubre de 2020 .
  76. ^ C, Kim (22 de agosto de 2020). "Baile del ataúd y más: los memes musicales de 2020 hasta ahora" . Tiempos de música . Consultado el 26 de agosto de 2020 .
  77. ^ Sholihyn, Ilyas (7 de agosto de 2020). "Alguien fingió profundamente a los políticos de Singapur para sincronizar los labios con esa canción de memes japoneses" . AsiaOne . Consultado el 26 de agosto de 2020 .
  78. ^ Damiani, Jesse. "La aplicación china Deepfake Zao se vuelve viral, enfrenta críticas inmediatas sobre los datos del usuario y la política de seguridad" . Forbes . Consultado el 18 de noviembre de 2019 .
  79. ^ Porter, Jon (2 de septiembre de 2019). "Otra aplicación de deepfake convincente se vuelve viral y provoca una reacción de privacidad inmediata" . The Verge . Consultado el 18 de noviembre de 2019 .
  80. ^ "Antes de las elecciones irlandesas y estadounidenses, Facebook anuncia nuevas medidas contra los videos 'deepfake'" . Independiente, es decir . Consultado el 7 de enero de 2020 .
  81. ^ Reuters, 15 de julio de 2020, Deepfake utilizado para atacar a una pareja de activistas muestra una nueva frontera de desinformación
  82. ^ Revista 972, 12 de agosto de 2020, "¿'Izquierdistas por Bibi'? Propaganda Deepfake pro-Netanyahu expuesta: según una serie de publicaciones de Facebook, el primer ministro israelí se está ganando a los seguidores de izquierda, excepto que ninguna de las personas en Pregunta existe "
  83. ^ El Séptimo Ojo 9 de junio de 2020, הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית
  84. ^ Statt, Nick (5 de septiembre de 2019). "Los ladrones ahora están utilizando deepfakes de IA para engañar a las empresas para que les envíen dinero" . Consultado el 13 de septiembre de 2019 .
  85. ^ Damiani, Jesse. "Se utilizó una voz deepfake para estafar a un director ejecutivo de $ 243.000" . Forbes . Consultado el 9 de noviembre de 2019 .
  86. ^ "Falsificaciones profundas armadas: seguridad nacional y democracia en JSTOR" . www.jstor.org . Consultado el 21 de octubre de 2020 .
  87. ^ a b "Perfect Deepfake Tech podría llegar antes de lo esperado" . www.wbur.org . Consultado el 9 de noviembre de 2019 .
  88. ^ Sonnemaker, Tyler. "Mientras las plataformas de redes sociales se preparan para la ola entrante de deepfakes, el antiguo 'zar del fraude' de Google predice que el mayor peligro es que los deepfakes eventualmente se volverán aburridos" . Business Insider . Consultado el 14 de abril de 2021 .
  89. ^ a b c Bateman, Jon (2020). "Resumen" . Deepfakes y medios sintéticos en el sistema financiero : 1–2.
  90. ^ Kelion, Leo. "Herramienta de detección de deepfake presentada por Microsoft" . BBC . Consultado el 15 de abril de 2021 .
  91. ^ a b c "Deepfake Putin está aquí para advertir a los estadounidenses sobre su perdición autoinfligida" . Revisión de tecnología del MIT . Consultado el 7 de octubre de 2020 .
  92. ^ Towers-Clark, Charles. "Mona Lisa y Nancy Pelosi: las implicaciones de los deepfakes" . Forbes . Consultado el 7 de octubre de 2020 .
  93. ^ a b "El auge del deepfake y la amenaza a la democracia" . el guardián . Consultado el 3 de noviembre de 2020 .
  94. ^ Fagan, Kaylee. "Un video viral que parecía mostrar a Obama llamando a Trump 'dips ---' muestra una nueva tendencia inquietante llamada 'deepfakes ' " . Business Insider . Consultado el 3 de noviembre de 2020 .
  95. ^ Chandler, Simon. "Por qué los deepfakes son un positivo neto para la humanidad" . Forbes . Consultado el 3 de noviembre de 2020 .
  96. ^ a b "Ver la aplicación AI de Microsoft" . www.microsoft.com . Consultado el 3 de noviembre de 2020 .
  97. ^ a b c d "Ayúdanos a dar forma a nuestro enfoque de los medios sintéticos y manipulados" . blog.twitter.com . Consultado el 7 de octubre de 2020 .
  98. ^ "TechCrunch" . TechCrunch . Consultado el 7 de octubre de 2020 .
  99. ^ a b "Resultados del desafío de detección de deepfake: una iniciativa abierta para avanzar en la inteligencia artificial" . ai.facebook.com . Consultado el 7 de octubre de 2020 .
  100. ^ a b Paul, Katie (4 de febrero de 2020). "Twitter para etiquetar deepfakes y otros medios engañosos" . Reuters . Consultado el 7 de octubre de 2020 .
  101. ^ a b c d 18 de junio, Kara Manke | 201920 junio; 2019 (18 de junio de 2019). "Los investigadores utilizan peculiaridades faciales para desenmascarar 'deepfakes ' " . Noticias de Berkeley . Consultado el 9 de noviembre de 2019 .CS1 maint: nombres numéricos: lista de autores ( enlace )
  102. ^ "Únase al desafío de detección de Deepfake (DFDC)" . deepfakedetectionchallenge.ai . Consultado el 8 de noviembre de 2019 .
  103. ^ Hu, Shu; Li, Yuezun; Lyu, Siwei (2020). "Exposición de rostros generados por GAN mediante reflejos especulares corneales inconsistentes" (PDF) . arxiv.org . arXiv : 2009.11924 . Consultado el 1 de abril de 2021 .
  104. ^ a b c "La solución Blockchain a nuestros problemas de Deepfake" . Cableado . ISSN  1059-1028 . Consultado el 9 de noviembre de 2019 .
  105. ^ a b Leetaru, Kalev. "Por qué las firmas digitales no evitarán las falsificaciones profundas, pero ayudarán a los gobiernos represivos" . Forbes . Consultado el 17 de febrero de 2021 .
  106. ^ a b Cole, Samantha (11 de junio de 2019). "Este Deepfake de Mark Zuckerberg prueba las políticas de videos falsos de Facebook" . Vice . Consultado el 9 de noviembre de 2019 .
  107. ^ a b c Cole, Samantha (6 de febrero de 2018). "Pornhub está prohibiendo videos porno falsos generados por IA, dice que no son consensuales" . Vice . Consultado el 9 de noviembre de 2019 .
  108. ^ a b Cole, Samantha (31 de enero de 2018). "Los creadores de pornografía falsos generados por IA han sido expulsados ​​de su anfitrión favorito" . Vice . Consultado el 18 de noviembre de 2019 .
  109. ^ a b Cole, Samantha (6 de febrero de 2018). "Twitter es la última plataforma para prohibir la pornografía generada por IA" . Vice . Consultado el 8 de noviembre de 2019 .
  110. ^ Cole, Samantha (11 de diciembre de 2017). "Porno falso asistido por IA está aquí y todos estamos jodidos" . Vice . Consultado el 19 de diciembre de 2018 .
  111. ^ Böhm, Markus (7 de febrero de 2018). " " Deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor" . Spiegel en línea . Consultado el 9 de noviembre de 2019 .
  112. ^ barbara.wimmer. "Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos" . futurezone.at (en alemán) . Consultado el 9 de noviembre de 2019 .
  113. ^ en línea, heise. "Deepfakes: Auch Reddit verbannt falso-porno" . heise online (en alemán) . Consultado el 9 de noviembre de 2019 .
  114. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de" . ESTÁNDAR DER (en alemán) . Consultado el 9 de noviembre de 2019 .
  115. ^ Robertson, Adi (7 de febrero de 2018). "Reddit prohíbe las comunidades pornográficas de IA 'deepfakes'" . The Verge . Consultado el 9 de noviembre de 2019 .
  116. ^ Price, Rob (27 de enero de 2018). "Discord acaba de cerrar un grupo de chat dedicado a compartir videos porno editados con IA para incluir celebridades" . Business Insider Australia . Consultado el 28 de noviembre de 2019 .
  117. ^ "Twitter prohíbe el porno generado por IA 'deepfake'" . Engadget . Consultado el 28 de noviembre de 2019 .
  118. ^ a b Harrell, Drew. "Los videos de pornografía falsa se utilizan como armas para acosar y humillar a las mujeres: 'Todo el mundo es un objetivo potencial ' " . The Washington Post . Consultado el 1 de enero de 2019 .
  119. ^ Gilmer, Damon Beres y Marcus. "Una guía de 'deepfakes', la última crisis moral de Internet" . Mashable . Consultado el 9 de noviembre de 2019 .
  120. ^ a b "Facebook ha prometido dejar un video deepfake de Mark Zuckerberg" . Revisión de tecnología del MIT . Consultado el 9 de noviembre de 2019 .
  121. ^ Sasse, Ben (21 de diciembre de 2018). "S.3805 - 115º Congreso (2017-2018): Ley de prohibición de falsificaciones profundas maliciosas de 2018" . www.congress.gov . Consultado el 16 de octubre de 2019 .
  122. ^ " El porno de venganza ' Deepfake' ahora es ilegal en Virginia" . TechCrunch . Consultado el 16 de octubre de 2019 .
  123. ^ Brown, Nina Iacono (15 de julio de 2019). "El Congreso quiere resolver deepfakes para 2020. Eso debería preocuparnos" . Revista Slate . Consultado el 16 de octubre de 2019 .
  124. ^ a b "Bill Text - AB-602 Representación de un individuo que utiliza tecnología digital o electrónica: material sexualmente explícito: causa de la acción" . leginfo.legislature.ca.gov . Consultado el 9 de noviembre de 2019 .
  125. ^ a b "Texto del proyecto de ley - Elecciones AB-730: medios visuales o de audio engañosos" . leginfo.legislature.ca.gov . Consultado el 9 de noviembre de 2019 .
  126. ^ "China busca erradicar las fake news y deepfakes con nuevas reglas de contenido en línea" . Reuters.com . Reuters . 29 de noviembre de 2019 . Consultado el 17 de diciembre de 2019 .
  127. ^ Statt, Nick (29 de noviembre de 2019). "China tipifica como delito la publicación de deepfakes o fake news sin divulgación" . The Verge . Consultado el 17 de diciembre de 2019 .
  128. ^ Solicite un proyecto de ley de upskirting para incluir la prohibición de la pornografía 'deepfake' The Guardian
  129. ^ https://cyber.gc.ca/sites/default/files/publications/tdp-2019-report_e.pdf consulte la página 18
  130. ^ Bogart, Nicole (10 de septiembre de 2019). "Cómo los deepfakes podrían afectar las elecciones canadienses de 2019" . Elección Federal 2019 . Consultado el 28 de enero de 2020 .
  131. ^ "¿Qué puede hacer la ley sobre Deepfake" . mcmillan.ca . Consultado el 28 de enero de 2020 .
  132. ^ "El ejército de Estados Unidos está financiando un esfuerzo para atrapar deepfakes y otros trucos de IA" . Revisión de tecnología del MIT . Consultado el 7 de octubre de 2020 .
  133. ^ a b "DARPA está asumiendo el problema de Deepfake" . Nextgov.com . Consultado el 7 de octubre de 2020 .
  134. ^ a b c "Análisis forense de medios" . www.darpa.mil . Consultado el 7 de octubre de 2020 .
  135. ^ "Picaper" . Base de datos de ficción especulativa de Internet . Consultado el 9 de julio de 2019 .
  136. ^ Philip Kerr, Una investigación filosófica , ISBN 978-0143117537
  137. ^ Bernal, Natasha (8 de octubre de 2019). "La inquietante verdad detrás de The Capture y los deepfakes de la vida real" . El telégrafo . Consultado el 24 de octubre de 2019 .
  138. ^ Crawley, Peter (5 de septiembre de 2019). "The Capture: Un thriller de la BBC de vigilancia, distorsión y duplicidad" . The Irish Times . Consultado el 24 de octubre de 2019 .
  139. ^ "ESPN Films Último documental 30 por 30 Al Davis vs. La NFL se estrenará el 4 de febrero" (Comunicado de prensa). ESPN. 15 de enero de 2021 . Consultado el 5 de febrero de 2021 .
  140. ^ Sprung, Shlomo (1 de febrero de 2021). "Documental de ESPN 'Al Davis Vs The NFL' utiliza tecnología Deepfake para devolver a la vida al propietario de los Raiders tardíos" . Forbes . Consultado el 4 de febrero de 2021 .

  • Sasse, Ben (19 de octubre de 2018). "Esta nueva tecnología podría hacer que la política estadounidense caiga en picada" . Opiniones. The Washington Post . Consultado el 10 de julio de 2019 .
  • Desafío de detección de audio falso / falso (ASVspoof)
  • Desafío de detección de deepfake (DFDC)