- En 2023, se registraron 113,000 videos de pornografía deepfake, con un incremento del 54% frente a 2022
- Las estafas deepfake de voz ahora apuntan a centros de llamadas de tarjetas de crédito y CEOs, generando pérdidas financieras
- Por Daniel Mazzucchelli, director de Expansión de Sumsub en Latinoamérica
Clase Turista
Una mujer recibió un enlace por correo electrónico y al abrirlo, vio un video pornográfico que parecía real y llevaba su nombre, aunque no era ella, sino un deepfake. El video incluía descripciones detalladas sobre su vida personal, como su nombre, su mejor amigo de la infancia y, para su horror, incluso su dirección de casa. En otro caso, dos abuelos recibieron una llamada de quien creyeron era su nieto, pidiendo dinero para una fianza, diciendo que estaba en la cárcel sin billetera ni teléfono. La abuela, de 73 años, retiró todo el dinero que pudo, pero luego descubrió que se trataba de un fraude deepfake.
Estos casos no son raros; son una muestra de cómo el fraude digital está afectando nuestras vidas de formas cada vez más personales y sofisticadas, convirtiéndose en una verdadera pesadilla de Halloween. El fraude deepfake puede causar depresión, ansiedad, pérdidas financieras y ciberacoso, y han aumentado en los últimos años debido a herramientas como Midjourney y filtros de IA en TikTok. Aunque existen métodos para detectarlos, como la Detección de Usuarios Reales, su efectividad es limitada.
Deepfake AI, cada vez más utilizado en diversos sectores
Los deepfakes, videos y audios creados con inteligencia artificial que imitan de manera sorprendentemente realista a personas, han capturado la atención mundial por sus implicaciones éticas y de seguridad. Lo que comenzó como una innovación tecnológica fascinante ha evolucionado a una herramienta capaz de engañar y manipular. En Sumsub, hemos explorado los casos más comunes de uso de los deepfakes y cómo han impactado diferentes aspectos de nuestra vida cotidiana.
1. Pornografía deepfake
Durante años, la IA ha sido utilizada sistemáticamente para abusar y acosar a mujeres. Los algoritmos de machine learning ahora pueden insertar imágenes de mujeres en videos pornográficos sin su permiso, y hoy en día, la pornografía deepfake es endémica.
La propagación de la pornografía deepfake es agravada por la distribución a través de plataformas ampliamente disponibles como Google, Cloudflare y Twitch, y sus consecuencias para las víctimas pueden llegar a ser graves, incluyendo depresión, autoagresiones y suicidio.
2. Guerra informativa y propaganda
Los deepfakes se utilizan para manipular la opinión pública y difundir desinformación, creando contenido falso que parece real. Esto se hace a menudo en momentos críticos, como elecciones o conflictos armados, con el objetivo de polarizar comunidades y dañar la reputación de figuras públicas, medios o naciones enteras. Aunque más tarde se demuestre que el contenido es un fraude de deepfake, el daño a menudo es irreversible y las reputaciones afectadas son difíciles de restaurar.
3. Estafas románticas
Los deepfakes también se están utilizando en estafas románticas para crear identidades falsas y engañar a las víctimas, ganando su confianza para obtener dinero o información personal. Los estafadores, expertos en manipulación, emplean esta tecnología para aparentar ser personas atractivas en busca de romance. Un caso reciente involucró a una mujer de Utah, en Estados Unidos, que fue condenada por una estafa que costó a sus víctimas más de 6 millones de dólares. Sin duda, esto nos advierte de la importancia de ser escéptico cuando personas desconocidas se acercan en línea.
4. Deepfakes de voz
Las aplicaciones de IA pueden recrear voces únicas analizando características como edad, género y acento, lo que permite a los estafadores usar un deepfake de voz para suplantar a familiares, colegas o figuras públicas.
De acuerdo con la firma de seguridad Pindrop, la mayor parte del fraude digital de deepfake de voz se dirige a centros de llamadas de tarjetas de crédito y a CEOs, quienes pueden ser engañados para realizar transacciones financieras importantes.
5. Publicidad y cine
Los deepfakes se usan cada vez más en publicidad y cine para recrear versiones jóvenes de actores o revivir a actores fallecidos en pantalla, y en publicidad para insertar caras de celebridades en modelos y promover productos. No obstante, el uso sin consentimiento puede perjudicar las carreras de los actores suplantados y dañar la credibilidad de las industrias del entretenimiento y la publicidad.
Cómo detectar el fraude deepfake: claves para protegerse de la manipulación digital
¿Cómo podemos detectar deepfakes y asegurarnos de que nuestras fotos no sean utilizadas por estafadores? Aunque no se puede eliminar por completo el riesgo de abuso de deepfakes, en Sumsub recomendamos tomar medidas preventivas, tales como:
- Ser escéptico ante acercamientos inesperados de personas «atractivas» o «famosas» en línea.
- Verificar llamadas o mensajes de video de familiares pidiendo dinero o información sensible usando otros medios.
- Examinar las imágenes detalladamente para detectar inconsistencias, como iluminación incorrecta, distorsiones o fondos antinaturales, y observar la falta de parpadeos o movimientos de respiración en videos.
- Limitar el compartir fotos personales en línea y ajusta la configuración de privacidad.
- Evitar compartir fotos de alta resolución y sin editar.
- Leer los términos de las aplicaciones de IA para asegurarte de que no volverán a utilizar tus fotos una vez que las hayas subido.
- Contactar a las autoridades locales si tus fotos o videos son robados o usados inapropiadamente.
En un mundo donde la tecnología avanza rápidamente, los fraudes deepfake se han convertido en una amenaza real que puede transformar la vida de cualquiera en una auténtica pesadilla, digna de una noche de Halloween. Sin embargo, estar informados y tomar medidas de protección, como verificar fuentes, no compartir información personal y utilizar herramientas que detecten falsificaciones, puede ayudarnos a evitar caer en estas trampas digitales. Al fin y al cabo, con la preparación adecuada, podemos asegurarnos de que la próxima historia de terror no sea la nuestra.