Doctor de la Universidad de Cádiz advierte sobre el peligro de la tecnología del ‘deepfake’

La tecnología y la informática avanzan a pasos agigantados y cada día nos sorprende más la capacidad que tienen las aplicaciones y programas informáticos en realizar diferentes acciones, algunas tan interesantes y polémicas como el llamado “deepfake”.

Sobre ello ha querido alertar el doctor por la Universidad de Cádiz y Granada, Andrés Ortiz, especialista en ingeniería electrónica quién indica que estas tecnologías basadas en la inteligencia artificial, tipo “deepfake”, son peligrosos pues pueden llegar a generar vídeos falsos de personas que engañen al gran público con las graves consecuencias que esto puede tener.

Junto al doctor Francisco Jesús Martínez es codirector del curso “Introducción práctica a la inteligencia artificial y al deep learning” que celebra la Universidad Internacional de Andalucía (UNIA) en Baeza y que hace que la atenció se fije en el problema que plantea.

Un ejemplo de ello podría ser el uso de la IA en el anuncio de una cerveza andaluza en la que la protagonista es Lola Flores, o las imágenes de personas realizando acciones temerarias y que, realmente, sólo la aplicación de la IA (inteligencia artificial) a determinadas animaciones usando el rostro del interesado/a.

El director indicaba que este tipo de vídeos de generación de caras “requieren todavía cierta tecnología de postproducción para que queden lo suficientemente finos y no los genera directamente la máquina” aunque todo es cuestión de tiempo. En este sentido se avanza de forma rápida y por ello tiene mucha importante la ética en la inteligencia artificial, algo que se imparte en el curso dado la nula legislación al respecto.

Te Interesa:  30 fantasías sexuales que debes realizar en esta vida

Andrés Ortiz decía que además hay empresas que se meten en la privacidad gracias a los metadatos a fin de subir sus ventas, en los metadatos hay una gran cantidad de información personal que puede servir para saber las tendencias y orientaciones o gustos de una persona. Así el navegar por la red es algo que hacemos de forma normal, casi natural, pero deja un rastro que es muy interesante -por la información personal- para las empresas-
“No nos podemos imaginar la cantidad de información que se puede generar simplemente sacando el móvil del bolsillo, se genera mucha más información personal que desde el ordenador y de carácter mucho más personal” entre la que podía estar nuestra ubicación, últimos movimientos, compras o intereses.

Así se trata que, actualmente, las empresas “analicen de forma automática los gustos de los clientes para ofrecer productos más especializados” como hacen Facebook o Google y que ya se está extrapolando a pequeñas empresas merced a las herramientas informáticas que se le ofrece.

Te Interesa:  Interpretan un mural en el Templo de los Guerreros, Chichén Itza, donde aparecen aztecas y vikingos

En la actualidad Andrés Ortiz es profesor del departamento de Ingeniería de Comunicaciones de la Universidad de Málaga e investigador principal del grupo de procesamiento de señales biomédicas, sistemas inteligentes y seguridad en las comunicaciones ‘BioSiP TIC-251’ e investiga sobre la aplicación de la IA en el terreno de la biomedicina, en su curso se orienta al “deep learning” pretendiendo explicar al estudiante “lo que hay y lo que se puede llegar a hacer” con esta tecnología.

Así el “deepfake” usa la IA para ponerle la cara de una persona en otro cuerpo y soltar un discurso que nunca dio, esto, en la actualidad, con todo lo que genera las vacunas y la polémica con los antivacunas puede resultar muy peligroso por el poder de convicción que tienen.

Impacto

El impacto que tiene es muy diverso:

Acoso: se han denunciado “deepfake” sexuales con caras insertadas en cuerpos y empleados para acosar a una persona.

Falsificación política: algo muy usual donde se presenta a políticos diciendo frases que jamás dijo “los deepfakes no parecen tener un efecto superior al resto de desinformación”, observa Soubhik Barari, investigador en ciencias políticas de la Universidad de Harvard.

Te Interesa:  ¿Quien era el mago Merlín y sus hechizos mágicos?

Crear dudas: Sam Gregory, director de Witness, indica que: “Hay una presión creciente sobre periodistas y defensores de derechos humanos para que demuestren que aportan material auténtico. Rápidamente se usa el argumento del deepfake para decir que ningún vídeo es demostrablemente cierto. La retórica alrededor de esta tecnología es tan peligrosa como la tecnología en sí”.

Detectar un “deepfake”

Puede resultar difícil de detectar pero los expertos indican las forma: “Es importante fijarse en el tono de piel, si los movimientos de la cara concuerdan con los del cuerpo y también analizar críticamente la fuente y el mensaje”, explica Ruth García, técnico de ciberseguridad para ciudadanos del Instituto Nacional de Ciberseguridad (Incibe).

Vía informática dependerá del algoritmo que se haya utilizado y es una tarea más compleja en el que cada día se avanza más.

Se debe proteger a las personas y “víctimas” de todo ello con un marco legislativo correcto y, sobre todo potenciar el hábito de consumir noticias auténticas de medios solventes contra todo lo que es la desinformación.