Artículo de información

José Carlos Botto Cayo y Abel Marcial Oruna Rodríguez

7 de setiembre del 2023

La inteligencia artificial (IA) ha revolucionado múltiples ámbitos de la sociedad moderna, desde la medicina hasta la investigación científica. Sin embargo, el vertiginoso avance de esta tecnología ha despertado serias inquietudes sobre su potencial para ser utilizada de forma maliciosa o irresponsable. Uno de los peligros más preocupantes son los llamados «deep fakes», contenidos audiovisuales falsos hiperrealistas generados por IA que socavan la confianza en lo que vemos. (Ros, 2023)

En una reciente mesa redonda, la empresa Intel abogó por asumir un rol protagónico en el uso ético de la IA, implementando iniciativas para combatir los «deep fakes» y promover la inclusión, privacidad y seguridad. La habilidad de la IA para manipular la realidad resalta la importancia de un marco ético robusto. Si bien esta tecnología ofrecegrandes beneficios para la humanidad, su uso negligente o malintencionado podría tener consecuencias catastróficas. El debate sobre la IA responsable busca equilibrar innovación y valores para construir un futuro más justo y seguro. (Ros, 2023).

Que es un “deep fake”

Un deep fake es un video que muestra imágenes falsas, generalmente de rostros de personas, que parecen reales. Se crean con técnicas de inteligencia artificial llamadas deep learning, que utilizan algoritmos de redes neuronales (Visus, 2021).

La inteligencia artificial aprende de cientos o miles de imágenes de un rostro u objeto. Usa redes neuronales generativas antagónicas (GAN) con algoritmos que aprenden patrones de las imágenes y luego los reproducen para crear nuevas imágenes falsas (Visus, 2021).

Los deep fakes funcionan mediante modelos de redes neuronales generativas, el deep learning. Los algoritmos aprenden de bases de datos de imágenes de ejemplo para crear nuevas imágenes falsas muy realistas de personas (Visus, 2021).

De manera similar, se recrean voces falsas con gran potencial tanto para uso positivo como negativo, generando videos creíbles de personas diciendo o haciendo cosas inapropiadas (Visus, 2021).

Riesgos con la suplantación

La inteligencia artificial ha abierto nuevas posibilidades para la suplantación de identidad y el robo de datos personales. Los ciberdelincuentes pueden aprovechar el rastro digital que dejamos en internet para entrenar modelos de IA y generar deepfakes hiperrealistas. Un claro ejemplo es la creación de audios con la voz de una persona para engañar a terceros, como ocurrió con un ejecutivo británico que transfirió 243.000 dólares a un estafador tras recibir una llamada falsa de su jefe (Varios, 2023).

Del mismo modo, los deepfakes audiovisuales podrían utilizarse para superar verificaciones biométricas y acceder a cuentas bancarias u otros servicios sensibles. Si bien estos videos falsos se han usado hasta ahora para parodias, su sofisticación creciente gracias a la IA genera un grave peligro de usurpación de identidad a gran escala. Es necesario que juristas, fuerzas del orden y tribunales actualicen leyes y protocolos para lidiar con estos nuevos tipos de fraudes potenciados por la tecnología. La IA plantea un reto sin precedentes para la protección de datos personales y la seguridad ciudadana (Varios, 2023).

El peligro

La tecnología deepfake permite suplantar identidades mediante IA, lo que abre nuevas posibilidades para estafas y fraudes. Aunque por ahora no engaña a la biométrica, el robo de datos personales representa un peligro real. Los ciberdelincuentes ya han utilizado estas técnicas para perpetrar fraudes millonarios haciéndose pasar por altos ejecutivos de empresas. También se han detectado casos donde se crean deepfakes de famosos para promocionar estafas con criptomonedas (Peralta, 2023).

Si bien los sistemas biométricos actuales pueden detectar estas manipulaciones, los expertos advierten que se debe reforzar la protección de los datos que utilizan. Una vulneración masiva de información personal podría dar a los estafadores el material necesario para crear deepfakes prácticamente indetectables. Es crucial que empresas y gobiernos inviertan en soluciones de ciberseguridad y en educar a los ciudadanos para prevenir el robo de sus datos. La IA ofrece grandes beneficios, pero un uso irresponsable puede facilitar crímenes devastadores (Peralta, 2023).

Como detectar los usos falsos

Ante el avance de los deepfakes, surgen nuevas herramientas para detectar estos contenidos manipulados. Un ejemplo es FakeCatcher de Intel, que analiza el flujo sanguíneo en los píxeles del video para identificar anomalías. Con una precisión del 96%, es capaz de determinar si un video es falso en milisegundos. Otras técnicas se centran en irregularidades en los ojos, movimientos no naturales o fallas en la sincronización del audio (Holgado, 2023).

Aunque los deepfakes se ven cada vez más realistas, aún es posible reconocerlos prestando atención a ciertos detalles. Los expertos recomiendan desconfiar si hay falta de parpadeos, asimetrías en el rostro, pupilas extrañas o movimientos rígidos. También hay que considerar el contexto y la fuente original del video. Si bien la IA facilita crear deepfakes, la tecnología para detectarlos avanza a la par, permitiendo protegernos de posibles fraudes o noticias falsas (Holgado, 2023).

Referencias

Holgado, R. (8 de Junio de 2023). 20 minutos. Obtenido de «Un efecto secundario de los deepfakes es la suplantación de identidad»: ¿cómo detectar un vídeo falso generado por IA?: https://www.20minutos.es/tecnologia/inteligencia-artificial/un-efecto-secundario-de-los-deepfakes-es-la-suplantacion-de-identidad-como-detectar-un-video-falso-generado-por-ia-5135107/

Peralta, L. A. (6 de Marzo de 2023). Retina tendencias. Obtenido de Robos millonarios utilizando inteligencia artificial: ¿Pueden los ‘deepfakes’ suplantar nuestra identidad?: https://retinatendencias.com/negocios/robos-millonarios-utilizando-inteligencia-artificial-pueden-los-deepfakes-suplantar-nuestra-identidad/

Ros, I. (23 de Marzo de 2023). Muy computer. Obtenido de La importancia del uso responsable de la IA: cuando no puedes creer en lo que ves: https://www.muycomputer.com/2023/03/23/la-importancia-del-uso-responsable-de-la-ia-cuando-no-puedes-creer-en-lo-que-ves/

Varios. (24 de Mayo de 2023). Navas & Cusi. Obtenido de Riesgos de la Inteligencia Artificial: La usurpación de identidad : https://www.navascusi.com/riesgos-inteligencia-artificial-usurpacion-identidad/

Visus, A. (7 de Setiembre de 2021). Esic. Obtenido de Que es un Deep fakes, cómo se crean, cuáles fueron los primeros y su futuro: https://www.esic.edu/rethink/tecnologia/deep-fakes-que-es-como-se-crean-primeros-y-futuros