ESCUCHA ESTA NOTICIA
|
Por: Alfredo Lopez Ariza
En la era de la inteligencia artificial, no todas las innovaciones son motivo de celebración. Una de las más alarmantes y menos reguladas es el uso de deepfakes con fines no consensuales, especialmente en la producción y distribución de pornografía falsa.
Esta tecnología, que permite superponer rostros humanos sobre cuerpos ajenos en situaciones sexuales simuladas, representa un riesgo inminente para la privacidad individual, la integridad psicosocial y la seguridad pública. En la República Dominicana, donde aún no existen leyes específicas para abordar esta amenaza, la urgencia de actuar no puede ser postergada.
No se trata de casos aislados. El portal de periodismo investigativo Bellingcat ha documentado cómo plataformas como Clothoff, AnyDream y el extinto MrDeepFakes han sido cómplices y muchas veces promotoras de una industria global que trivializa la violencia digital.
En uno de sus reportajes, expone el caso de MrDeepFakes, sitio líder en este tipo de contenidos, cuyo administrador fue identificado como David Do, un farmacéutico canadiense. La página alojaba más de 70,000 videos falsos con más de 2,200 millones de reproducciones, muchos de ellos con rostros de celebridades o mujeres comunes sin su consentimiento. Para expertos como Adam Dodge, abogado especializado en violencia digital, este tipo de contenido es equiparable a una nueva forma de agresión sexual.
El problema no es solo ético: es estructural. Estas plataformas operan con facilidad utilizando mecanismos de pago disfrazados, como el caso de AnyDream, que canalizó sus transacciones mediante Stripe y PayPal bajo la fachada de un sitio llamado “Hire Afar”. Si estas prácticas se dan incluso en países con marcos legales avanzados, ¿qué puede esperarse en contextos como el dominicano, donde las leyes aún no han sido actualizadas para enfrentar los delitos digitales más recientes?
La República Dominicana necesita con urgencia un marco legal que tipifique la creación, posesión y distribución de contenidos deepfake no consensuados como delitos, especialmente cuando estos se vinculan con violencia de género, extorsión o suplantación de identidad. Para ello, es fundamental actualizar la Ley 53-07 sobre Crímenes y Delitos de Alta Tecnología, promulgada en 2007, para incorporar de manera explícita delitos como la manipulación audiovisual con inteligencia artificial, el ciberacoso y la suplantación digital con fines sexuales. Hoy, esa ley resulta obsoleta ante el ritmo acelerado de los avances tecnológicos.
Existen precedentes que pueden servir de modelo. En mayo de 2025, Estados Unidos promulgó el Take It Down Act, una ley impulsada durante la administración Trump que obliga a las plataformas a retirar, en un plazo máximo de 48 horas, cualquier imagen íntima no consensuada —incluidos los deepfakes— cuando la víctima así lo solicite. También contempla sanciones penales de hasta tres años de prisión para quienes difundan este tipo de material. Aunque su aplicación aún genera debate por su relación con la libertad de expresión, la legislación marca un hito importante en la protección de la integridad digital.
Más allá del daño íntimo, el uso de estas tecnologías, incluida la clonación de voces, representa un riesgo creciente para la integridad de los procesos democráticos. En contextos electorales, estas herramientas pueden ser utilizadas para manipular al electorado mediante campañas de descrédito y desinformación, especialmente en un país donde el debate político se aleja cada vez más de las ideas para centrarse en ataques personales.
De no regularse a tiempo, su uso malicioso se convertirá en parte del arsenal de actores políticos que priorizan el fin sobre los medios, una amenaza previsible de cara a las elecciones de 2028.
El desarrollo de la inteligencia artificial debe ir de la mano con una visión ética firme. Pero esa ética no puede quedarse en el discurso: debe traducirse en leyes concretas. Regular estas tecnologías no significa restringir la creatividad, sino evitar que se conviertan en herramientas de agresión disfrazadas de innovación.