La tecnología deepfake, accesible para todos, plantea riesgos de suplantación de identidad y desinformación. Aprende a identificar y protegerte de estos peligros.
Actualmente, la tecnología conocida como deepfake ha dejado de ser un avance exclusivo de las grandes productoras cinematográficas y se ha vuelto accesible para el público en general. Esta tecnología permite la creación de imágenes, videos o grabaciones mediante Inteligencia Artificial (IA), y ha sido utilizada para fines que van más allá del entretenimiento, incluyendo la suplantación de identidad, la generación de información falsa, fraudes, estafas y manipulaciones políticas, entre otros usos.
En una conversación con BioBioChile, Manuel Pérez, subdirector del Centro de Datos e Inteligencia Artificial (CDIA) de la Universidad de Concepción, abordó los riesgos asociados con la proliferación de deepfakes. Pérez identificó señales e inconsistencias en los modelos de IA y ofreció consejos para evitar convertirse en víctima de estos montajes.
La amenaza que representa el deepfake es considerable. Con el auge de aplicaciones que permiten aplicar filtros a fotografías y videos, el acceso a esta tecnología se ha democratizado. Según Pérez, un deepfake se define como “una imagen falsa que es generada por modelos de Inteligencia Artificial, entrenados con el fin de reemplazar partes de una imagen, y así, generar una distinta que parezca real”. Esta capacidad de imitar la apariencia y la voz de una persona ha suscitado un intenso debate a nivel internacional.
El uso de esta tecnología ha sido objeto de controversia, especialmente tras incidentes como el de estudiantes del colegio Saint George, quienes crearon y difundieron imágenes eróticas de compañeras menores de edad utilizando aplicaciones de IA. Este tipo de incidentes ha generado preocupación en la comunidad informática, ya que el daño a la reputación personal y el aumento de delitos relacionados con deepfake son factores alarmantes. Pérez enfatiza que “se pueden generar imágenes, videos y audios de personas diciendo o haciendo cosas que realmente nunca sucedieron”, lo que puede llevar a fraudes y estafas.
Un informe de la compañía de seguridad Kaspersky revela que el 72% de la población chilena no es capaz de distinguir una imagen generada por deepfake. Para identificar lo que es real y lo que no, Pérez sugiere examinar cuidadosamente el material audiovisual. A pesar de la amplia disponibilidad de aplicaciones que permiten crear contenido asistido por IA, muchas de estas herramientas presentan limitaciones e inconsistencias que pueden ser detectadas al analizar los detalles de los montajes.
El experto del CDIA recomienda prestar atención a características como el cabello, la textura del rostro, las sombras y los patrones de luz, ya que “los mejores modelos aún siguen teniendo inconsistencias en la generación de datos, como en las expresiones faciales o gestos que no son naturales”. Además, señala que estos modelos a menudo carecen de la comprensión de factores culturales específicos de cada país y son difíciles de procesar en tiempo real, lo que significa que los videos generados suelen ser grabaciones anteriores.
En el contexto de las noticias falsas que se difunden a través de montajes con IA, Pérez aconseja no confiar únicamente en una fuente de información, sino explorar otras y verificar la veracidad de los hechos. Aunque existen herramientas diseñadas para detectar patrones de deepfake, esta tecnología sigue siendo utilizada como una estrategia para confundir y manipular a la opinión pública.
Para evitar ser víctima de deepfake, Manuel Pérez ofrece varias recomendaciones: gestionar de manera personal la presencia en línea, cuidar las configuraciones de privacidad, evitar tener perfiles públicos, ser cauteloso con la información que se comparte, no aceptar solicitudes de amistad de desconocidos en redes sociales, y leer atentamente los términos y condiciones al descargar aplicaciones. También sugiere evitar aplicaciones que requieran acceso a datos personales, fotografías y videos.
En cuanto a la legislación, las redes sociales pueden convertirse en un arma de doble filo, facilitando la suplantación de identidad a través de la tecnología deepfake. Romina Garrido, abogada y subdirectora del Laboratorio de Innovación Pública de la Escuela de Gobierno (GobLab) de la Universidad Adolfo Ibáñez, señala que actualmente no existe un delito tipificado en la legislación chilena que aborde específicamente esta problemática.
Si una persona se ve afectada por la circulación de contenido falso generado por IA, Pérez enfatiza la importancia de reportar estos casos, ya que muchas plataformas cuentan con detectores de contenido falso. Además, se recomienda acercarse a las autoridades policiales si se ha sido víctima de un deepfake.
En la actualidad, se encuentra en trámite un proyecto de ley que busca sancionar la violencia digital en sus diversas formas. La generación y difusión de montajes que perjudican la reputación de una persona puede afectar derechos fundamentales garantizados por la Constitución de Chile. En este contexto, la víctima tiene la opción de interponer un recurso de protección ante la Corte de Apelaciones. Los derechos vulnerados incluyen el derecho a la protección de la honra, que establece que toda persona tiene derecho a que su imagen pública no sea objeto de imputaciones o conductas que no ha realizado, así como el derecho a la integridad psicológica, que busca prevenir daños a la salud mental de las personas.


