Pornografía infantil con Inteligencia Artificial no es delito en Colombia
Expertos afirman que este fenómeno en Colombia no es posible que sea penalizado, ya que no hay el marco jurídico para catalogarlo como tal.
Caracol Radio siguió casos en los que fotos de niños y niñas reales son usadas para crear contenido pornográfico a partir de inteligencia artificial. Con estas herramientas, las personas pueden eliminar la ropa de fotos, cambiar las características del cuerpo del menor, alterar la forma de su cuerpo e intercambiar sus caras con cuerpos que no corresponden.
A la fecha, la Policía de Ciberdelitos ha dado con más de 17 mil páginas web que contienen tanto material pornográfico manipulado con inteligencia artificial como grabado con menores de forma real. Además, de 70 capturas en lo que va en este año por el delito de pornografía infantil.
Estos casos se están presentando, no solo en niños, sino también, “entre adolescentes y en edad todavía escolar”, según el penalista Francisco Bernate.
El experto agrega que las medidas correctivas son, “cursos de rehabilitación; además de escenarios de indemnización a la persona que está afectada, pero no son hechos que tengan penas de cárcel”.
Le puede interesar: Mis Preguntas con Roberto Pombo: ¿Cuáles son los efectos de la pornografía?
¿Por qué no es un delito la pornografía infantil hecha con IA?
Estos hechos pueden ser encajados en un delito de injuria o daño informático, ya que Colombia cuenta con leyes que delimitan acciones contra uso de información personal y delitos contra menores, según la interpretación del abogado especialista en propiedad intelectual y TIC, Wilson Ríos.
El jurista menciona que buscadores como Google o redes sociales no se hacen responsables del uso que se hagan con las imágenes publicadas, pues los usuarios le otorgan, “una licencia de uso, es decir, una autorización para utilizarlas” permanentemente.
En Colombia solo se considera delito una imagen que corresponde a la realidad o que no se ha tergiversado con ningún tipo de tecnología, según la penalista de la Universidad del Rosario, Laura Pinilla. De determinarse estos hechos como injuria tendrían, “una pena de 1 a 4 años y medio. En cambio, la pornografía infantil tiene una pena de 10 a 20 años”.
¿Cómo funcionan estos grupos donde hay contenido explícito con IA?
El contenido explícito de pornografía infantil generada mediante inteligencia artificial llega cada vez más fácil a través de grupos y publicaciones en redes sociales como Facebook y Telegram.
Aunque estas aplicaciones de mensajería tienen políticas que permiten bloquear y dar de baja estos espacios, los interesados hacen uso de ciertos “códigos” que les permiten evadir los controles.
Según pudo identificar Caracol Radio, estos usuarios buscan palabras como “Carros Pesados”, que hace referencia a siglas de ‘Child Porn’ o porno infantil en español.
Otra forma de modificar el lenguaje con palabras clave para encontrar el contenido pornográfico es buscar la palabra “niña”, que arroja como resultado de publicaciones con fotos de menores.
Le puede interesar: Fue enviado a la cárcel padrastro de niña de 3 años por pornografía infantil
También un estudio de la ONG We Protect señala que los blancos de estos abusadores son niñas menores de 13 años a través de videojuegos en los que se pueden tener conversaciones escritas directas y que ha aumentado en los últimos cuatro años un 80% este tipo de conducta.
Las publicaciones de estas redes también ofrecen servicios para realizar “desnudos”, es decir, que una Inteligencia Artificial que elimine la ropa de una fotografía. Por esto, los usuarios pagan solo un poco más de 10 mil pesos colombianos al mes.
Esta tecnología es llamada ‘deepfakes’ y, según el informe más reciente de Thorn, ONG que busca prevenir el abuso sexual infantil en el mundo, fue en un 96% para videos pornográficos.
“¿Estás aburrido de los mismos actores y actrices porno de siempre? Si buscas algo nuevo y excitante, ¡aquí tienes una atrevida sugerencia! Estas avanzadas aplicaciones de deepnude utilizan la inteligencia artificial para recrear imágenes de desnudos ya existentes con un toque personal”, se lee en uno de los primeros artículos que aparecen en los buscadores con sugerencias de este estilo.
Caracol Radio pudo acceder a cinco de las aplicaciones que utilizan esta modalidad llamada ‘deepfake’ sugeridas sin ninguna restricción y los términos de estas dejan en responsabilidad a los usuarios de su uso y sugieren no usarlas para cometer algún acto ilegal.
¿Desde cuándo estos casos se están presentando en Colombia?
Estas modalidades de creación de contenido explicito infantil fueron reportados a Red PaPaz, ONG que protege los derechos de menores de edad, desde finales del año 2023 y se han presentado una cifra alrededor de 50 casos.
Alejandro Castañeda, jefe del Centro de Internet Seguro en Red PaPaz, concuerda con expertos que estos hechos también se presentan, “en entornos escolares con los mismos niños o niñas y adolescentes siendo los agresores o posibles agresores” y que resulta difícil catalogar estas imágenes por la exactitud que poseen con la realidad.
Antes estas modificaciones a imágenes se realizaban con programas de edición como Photoshop, en los que se necesitaba un conocimiento para lograr un resultado. Sin embargo, “la inteligencia artificial generativa lo que están haciendo es facilitar y amplificar”, aseguró Castañeda.