Saltar navegación. Ir directamente al contenido principal

Síguenos

“Deepfake”: la tecnología que falsea la realidad

Tiempo de lectura: 3 minutos

Leer más tarde Artículo Deepfake

Deepfake

Publicado el 03 de diciembre de 2019 a las 07:00 por Bankia

Hace 2.400 años, Platón alentaba a los ciudadanos a desconfiar del conocimiento que le sugerían sus sentidos. Les advertía de que sus percepciones les estaban engañando y que sólo hallarían el conocimiento apoyándose en el saber que otorga la razón. Su planteamiento, uno de los más antiguos del racionalismo, nos recuerda que a menudo la Historia nos tiene reservadas lecciones que aún son aplicables en la actualidad.

Hoy, nuestros sentidos siguen traicionando a nuestro conocimiento, pero en el siglo XXI las sombras que se proyectan en la caverna llegan de la mano de tecnologías como el deepfake.

¿Qué es un ‘deepfake'?

Un deepfake es un vídeo o un audio que manipula la realidad. Emplea la inteligencia artificial a través del aprendizaje profundo (deep learning) y va un paso más allá de las célebres noticias falsas. Los deepfakes sustituyen las caras y las voces de los protagonistas de vídeos y audios, ejecutando una maniobra engañosa que confunde los sentidos y que dificulta distinguir entre el contenido real y el falso. Esta tecnología ya está creando problemas a grandes compañías y su expansión puede llegar a afectar a sectores clave como las telecomunicaciones, la seguridad o la banca.

La técnica deepfake recopila fotografías, sonidos o vídeos de una persona para que el ordenador genere de forma autónoma contenido falso a partir de un algoritmo. En el caso de vídeos, al principio se requerían en torno a 300 imágenes de partida para conseguir una reproducción fiable, pero el último avance del Centro de Inteligencia Artificial de Samsung en Moscú ha simplificado mucho la tarea.

Su equipo ha desarrollado un nuevo modelo de redes neuronales que permite, en el caso de los vídeos deepfake, crear un retrato animado a partir de una única fotografía. Han dado vida así a la Mona Lisa, a la joven de la perla de Vermeer, a Albert Einstein y a Salvador Dalí, entre otros. Al final de este vídeo se pueden ver sus versiones animadas.

¿Qué impacto tiene ya el ‘deepfake' en la sociedad?

Los primeros casos de deepfakes con repercusión mediática se remontan a 2016, con Barack Obama como protagonista. Entonces el objetivo no era malintencionado, sino un experimento académico de la universidad de Washington bautizado Synthesizing Obama. El resultado despertó el interés público y en 2017 un usuario de Reddit trasladó esta suplantación audiovisual de identidad a la industria pornográfica.

El polémico boom acabó salpicando a personajes famosos y el contenido se viralizó. También afectó al ámbito político. Ese mismo año un deepfake suplantó al emir catarí, Tamim bin Hamad al-Thani. El falso dirigente apareció profiriendo un discurso en el que alababa a sus enemigos políticos. Arabia Saudí aprovechó para acusarle de apoyar el terrorismo y convenció a otros Estados árabes para imponer un bloqueo al país. Oportunista o no, fue un factor más para justificar sus acciones.

¿Puede afectar el ‘deepfake' al sector bancario?

El presidente de una gran compañía financiera anuncia a través de un vídeo la caída de su empresa en bolsa; la directora general de una multinacional se dirige a los empleados anunciando nuevas medidas restrictivas y el CEO de una corporación ordena al gestor financiero que realice una transferencia urgente para una adquisición inesperada. Son situaciones poco frecuentes, con graves consecuencias y, en este caso, mentiras con intereses.

Aunque estos escenarios aún parezcan lejanos, lo cierto es que esta tecnología ya permite recrearlos de forma muy realista. En concreto, este verano la empresa de ciberseguridad estadounidense Symantec anunció que habían registrado tres casos de grandes compañías víctimas del deepfake telefónico. Suplantar la voz de directivos para cometer estafas a corporaciones o para derrumbar la reputación de marca son dos de los posibles riesgos.

Aunque en el ámbito bancario, el uso de deepfakes a día de hoy no está extendido, conviene adoptar una actitud preventiva para evitar hipotéticas complicaciones futuras que ya están afectando a otras industrias.

De hecho, la Agencia de Proyectos de Investigación Avanzados de Defensa del Departamento de Defensa de Estados Unidos ya está mostrando la importancia de esa prevención. Ha invertido cerca de 68 millones de dólares en el programa MediFor para desarrollar tecnología de detección de deepfakes.

Claves para identificar vídeos ‘deepfake'

La creación de deepfakes es cada vez más sencilla, en el mercado actual ya hay aplicaciones gratuitas que permiten que cualquiera se inicie en este mundo. Por ello, y ante la proliferación de estos contenidos engañosos, es conveniente extremar las precauciones con aplicaciones que identifiquen las manipulaciones como FaceForensics, Serelay o Truepic.

Además, es recomendable conocer los factores clave para localizar un deepfake. Son pequeñas pistas, aún hoy detectables, que evitarán que engañen a nuestros sentidos:

  • Los movimientos del personaje son bruscos, rápidos e imprevistos
  • El color del rostro del personaje tiene un matiz diferente al del resto del cuerpo
  • Los labios y el parpadeo de los ojos no se mueven de manera sincronizada
  • El pelo del personaje se mueve de forma artificial

En una entrevista reciente en MIT Technology Review, el padre de los deepfakes, Hao Li, que ha dedicado su vida profesional a desarrollar técnicas para intercambiar rostros de la forma más convincente posible, reconoció que en la actualidad su enfoque ha cambiado. Impactado por la deriva que han tomado los deepfakes, Hao Li utiliza ahora sus conocimientos para desarrollar herramientas que combatan los vídeos falsos y que ayuden a despejar la realidad de sombras.

1 comentario

Leer más tarde

Puedes dejarnos tus comentarios Comentar

Comentarios

Utiliza el siguiente formulario para darnos tu opinión. La dirección de correo electrónico es necesaria para poder ponernos en contacto contigo, en ningún momento se publicará en este sitio web.

Tu opinión es lo que mantiene vivo el debate en este blog. Por eso nos encanta que comentes pero queremos que conozcas cuáles son las normas que fijamos para que este espacio sea un entorno agradable:

  • Los comentarios están moderados y no aparecen en el blog nada más ser enviados.
  • Comenta sobre el tema del que habla esta entrada. No se aceptan comentarios sobre otros temas (off-topic) o de promoción o publicidad.
  • No insultes, ridiculices ni faltes al respeto a ninguna persona a la que te refieras en tu comentario, ya sea el autor, otro comentarista o hacia el propio banco o sus profesionales. Intenta mantener un ambiente de respeto hacia los demás: que el paseo por este blog sea agradable para quienes leen y quienes comentan.

Los campos con asterisco * son obligatorios.

Condiciones de privacidad

Los datos personales del usuario recogidos en el presente formulario, incluida su dirección de correo electrónico, serán tratados y, en su caso, incorporados a bases de datos bajo la responsabilidad de Bankia, con domicilio social en calle Pintor Sorolla Nº8, 46002 Valencia, y CIF A-14010342, con la única finalidad de supervisar, mantener y controlar la publicación de el/los comentario/s realizado/s por el usuario y en base a su consentimiento. Los datos personales solicitados son obligatorios, por lo que, de no facilitarse, Bankia no podrá publicar el/s comentario/s.No se cederán datos a terceros, salvo: (i) obligación legal; (ii) sea necesario para el mantenimiento y control de la relación contractual; (iii) que el titular haya consentido previamente. El usuario, titular de los datos personales, puede dirigir las solicitudes de acceso, rectificación, supresión, limitación, oposición y portabilidad que procedan, acreditando su identidad, a la dirección de correo electrónico protecciondedatos@bankia.com o al apartado de correos nº 61076 Madrid 28080, indicando "GDPR-derechos PARCOL". Puede consultar la Información Adicional de Protección de Datos incluida en: https://www.bankia.es/es/particulares/privacidad

El/los comentario/s realizado/s por el usuario, deberá/n ser respetuoso/s con el resto de comentarios e información mostrados en el blog. Bankia no se hace responsable del contenido de los comentarios personales que los usuarios puedan solicitar publicar en el blog ni del uso ilícito o inadecuado de los mismos por otros usuarios. No se aceptará ningún comentario con fines comerciales y/o propagandísticos. La publicación de los comentarios deberán ser aprobados por los administradores del blog, por lo que es posible que pase un tiempo desde que se realice el mismo hasta su publicación en el blog.

Deseo suscribirme al boletín del blog de Bankia, S.A – Condiciones de privacidad

Los datos personales del usuario recogidos en este apartado, incluida su dirección de correo electrónico, serán tratados y, en su caso, incorporados a bases de datos bajo la responsabilidad de Bankia, con domicilio social en calle Pintor Sorolla Nº8, 46002 Valencia, y CIF A-14010342, con la única finalidad de gestionar y mantener la solicitud de suscripción al boletín del blog de Bankia, S.A. Los datos personales solicitados son obligatorios, por lo que, de no facilitarse, Bankia no podrá gestionar la solicitud. No se cederán datos a terceros, salvo: (i) obligación legal; (ii) sea necesario para el mantenimiento y control de la relación contractual; (iii) que el titular haya consentido previamente. El usuario, titular de los datos personales, puede dirigir las solicitudes de acceso, rectificación, cancelación, limitación, oposición y portabilidad que procedan, acreditando su identidad, a la dirección de correo electrónico protecciondedatos@bankia.com o al apartado de correos nº 61076 Madrid 28080, indicando "GDPR-derechos PARCOL". Puede consultar la Información Adicional de Protección de Datos incluida en: https://www.bankia.es/es/particulares/privacidad

1 comentario

03 de diciembre de 2019 a las 08:21José González de Murillo Morales
¡¡Aterrador!!

Bankia

comunicaciondigital@bankia.com

Twitter

Youtube

Cerrar menú