Las falsificaciones en línea han alcanzado un nuevo nivel con el caso de Oliver Taylor, un estudiante en la Universidad de Birmingham, en Reino Unido y “periodista israelí” cuyos editoriales y artículos independientes revelan un interés activo en el antisemitismo y los asuntos judíos. A pesar de las numerosas publicaciones, Taylor parece ser un personaje creado artificialmente, ya que la universidad no tiene constancia de que se trate de un veinteañero de ojos marrones, mientras que sus fotografías parecen ser una deepfake.
PUBLICIDAD
Los textos de Oliver Taylor fueron publicados en varios periódicos, entre ellos el “Jerusalem Post” y el “Times of Israel”. Ambos declararon que han intentado y no han podido confirmar su identidad. En un artículo publicado en el periódico judío estadounidense “The Algemeiner”, Taylor había acusado al activista Mazen Masri y a su esposa, la defensora de los derechos de los palestinos Ryvka Barnard, de ser “conocidos simpatizantes del terrorismo”.
“Si la intención de la deepfake de Oliver Taylor es ‘sacar’ a un par de activistas que trabajan en contra de los intereses de Israel, entonces esto tendrá un efecto perjudicial en la credibilidad del Gobierno israelí a los ojos del mundo”, explicó a Publinews Internacional David Tuffley, profesor titular de ciberseguridad en la Universidad de Griffith, en Australia.
Y añadió: “Puede que el Gobierno israelí no haya estado detrás de Taylor, pero el mundo seguirá percibiendo que es responsable. Podría ser parte de una campaña de desinformación diseñada para dañar la imagen de Israel como parte de una estrategia geopolítica más amplia. Así es como pueden ser los alucinantes ‘psyops’ (operaciones psicológicas)”.
Los avances de la tecnología de deepfake hacen cada vez más difícil diferenciar entre la realidad y la ficción, según los expertos.
“La tecnología deepfake está mejorando con la ayuda de la poderosa inteligencia artificial (IA) que puede crear una cabeza parlante y una voz que suena exactamente como la original”, dijo Tuffley.
“Al mismo tiempo, es la IA la que también ofrece la mejor defensa al proporcionar la detección de deepfake. Los humanos son complicados, pero actúan más o menos consistentemente a lo largo del tiempo, por lo que una IA puede ser programada para reconocer una supuesta obra escrita por un humano, pero que carece de la complejidad o consistencia de un humano real. La IA también puede comparar la obra con trabajos anteriores de esa persona. Y si hay poco o ningún trabajo anterior de esa persona, eso es sospechoso”, concluyó.
PUBLICIDAD
¿Cómo se detectan los periodistas deepfake?
- “No podemos detectar las deepfakes. Hay una carrera de armas tecnológicas entre los que las hacen y los que tratan de detectarlas. Y los que las hacen están ganando. Solo se puede detectar a un periodista deepfake aprendiendo a identificar fuentes fiables y dependiendo de ellas para hacer sus deberes”. Toby Walsh, profesor de IA en la UNSW en Sídney, Australia.
- “Este problema necesita soluciones técnicas, corporativas y sociales. Así como la tecnología permite imágenes deepfake, también puede ayudarnos a detectarlas. Necesitamos que las plataformas de redes sociales jueguen un papel más importante en la lucha contra las cuentas de noticias falsas. Como consumidores de noticias, necesitamos cuestionar lo que leemos y elegir fuentes de noticias de buena reputación. También necesitamos que los gobiernos inviertan en periodismo público de calidad y gratuito”. Anastasia Powell, profesora adjunta de criminología y estudios de justicia en la Universidad RMIT, en Australia.
- “Hay soluciones tecnológicas, pero no son infalibles. Es importante establecer si un colaborador es quien dice ser. Esto puede establecerse en muchos casos mediante un conjunto rudimentario de preguntas de fondo. A los medios de comunicación con poco dinero puede no importarles mucho si la gente es quien dice ser si pueden conseguir artículos gratis. Pero la circulación de información asociada con identidades falsas que no pueden ser responsabilizadas subrayará su credibilidad”. Mark Andrejevic, profesor de estudios de comunicaciones y medios de comunicación en la Universidad de Monash, en Australia
4 preguntas a…
Siwei Lyu, profesor en el Departamento de Informática e Ingeniería de la Universidad Estatal de Nueva York en Búfalo
- ¿Por qué es peligroso el caso del periodista falso Oliver Taylor?
El peligro más significativo que creo es que estas deepfakes de identidad erosionan nuestra confianza en los medios visuales en línea. Con el retrato sintético realista y el perfil personal, es difícil saber si alguien es una persona real o si fue creado con el propósito de engañar.
- ¿Cómo saber si la fuente de la información es real?
La detección visual es posible centrándose en los artefactos introducidos por el algoritmo de síntesis. Por ejemplo, los fondos de esas imágenes suelen ser borrosos o inconsistentes (por ejemplo, las líneas no son continuas o son onduladas), los detalles de los pelos o los vellos faciales son borrosos, los dos ojos tienen colores diferentes y cuando hay joyas normalmente no se pueden sintetizar con precisión. Sin embargo, la calidad del algoritmo sintético –por ejemplo, los basados en un modelo de red neural conocido como redes adversas generativas (RAG o GAN, por sus siglas en inglés)– está mejorando, por lo que la detección visual también se está volviendo más difícil. El mejor enfoque para desacreditar esa falsificación visual es la validación cruzada. Una falsificación solo puede parecer real desde una única perspectiva. No solo hay que mirar los perfiles de LinkedIN, en este caso, si las víctimas buscan al periodista y al periódico que se suponía que representaba, la desinformación puede quedar expuesta.
- ¿Existe alguna ley al respecto?
Hasta la fecha, no hay pruebas que sugieran quién está detrás de este incidente. Podría ser un inocuo hacker gastando una broma o una agencia más poderosa haciendo esto para “probar el agua” para ataques más extensos y sofisticados. Esperaremos a ver cómo va la investigación. Actualmente, el Congreso de los EE. UU. tiene la Ley IOGAN, que restringe el uso de imágenes de suplantación de identidad sintetizadas.
- ¿Deberíamos esperar más casos similares en el futuro?
Predigo que el nivel de sofisticación y realismo de este tipo de ataques aumentará en un futuro próximo. Podríamos ver más ataques orquestados que se extiendan a través de múltiples plataformas sociales (FB, Twitter, LinkedIn) para hacer el perfil falso más creíble. Además, la calidad y el control de la generación de imágenes falsas también mejorarán en un futuro próximo, ya que hay muchas actividades de investigación en estas áreas. Es poco probable que los medios de comunicación falsos en línea desaparezcan y tenemos que aprender a vivir con ellos. Como cuando se trata de un virus, ninguna droga es suficiente sin un mayor nivel de inmunidad, creo que la clave para luchar contra los medios falsos en línea es aumentar el nivel de conciencia de los usuarios ordinarios en línea.