Alteración de imágenes de menores, el lado oscuro de la inteligencia artificial
Puede ser utilizada para manipular fotos y cometer delitos. Surgieron casos en charlas con jóvenes de nuestra ciudad.
Técnico Superior en Comunicación Social, con 26 años de experiencia en la redacción del diario La Nueva. Trabajó en las secciones Deportes y La Región. Desde hace más de una década se desempeña en la sección Seguridad. Distinguido en 2017 con el Premio Adepa en la categoría Periodismo Judicial.
La irrupción y el auge de la inteligencia artificial (IA) plantea avances y expectativas de beneficios en numerosos ámbitos, aunque cuando la tecnología cae en las manos equivocadas o es utilizada con otros objetivos se transforma en una herramienta peligrosa.
Un deepfake es un video, imagen o grabación de audio manipulado utilizando IA para que parezca real, aunque en realidad es falso.
Esto permite reemplazar rostros, cuerpos, manipular expresiones faciales, sintetizar voces y crear contenido que parece auténtico, pero resulta adulterado.
En nuestra ciudad se trabaja en la prevención de delitos como el grooming mediante la difusión de material informativo en redes sociales o charlas con adolescentes en escuelas, clubes o asociaciones.
En estos encuentros surgieron comentarios de una cuestión que preocupa: la alteración por parte de jóvenes de fotografías de compañeras de colegio o chicas conocidas para luego difundirlas.
El objetivo puede ser una simple broma o una acción que no tenga como finalidad un delito, pero también está presente la alternativa de la generación de la imagen con la intención de venderla como material de abuso sexual infantil.
En el primero de los casos quienes las originan no dimensionan que pueden quedar envueltos en una investigación penal a partir de la distribución de material de menores de edad.
“Estamos teniendo situaciones entre los propios chicos de 16 y 17 años. En las charlas ha surgido que toman fotos de compañeras y les manipulan el cuerpo. El objetivo puede ser un `chiste´, del cual no se midieron las consecuencias, o bien puede ser utilizado como material de abuso sexual infantil para venderlas, difundirlas o comercializarlas”, explicó Romina Cavallo, integrante de la Fundación Ser y Hacer.
“Es importante informar para saber que esto existe y que en la casa o en las escuelas se pueda hablar y prevenir”, agregó.
También consideró que “a veces los chicos no miden las consecuencias y piensan que no pasa nada. Entre los 16 y 18 años ese adolescente es punible. Están incurriendo en un delito. Nos hemos encontrado con padres que quieren denunciar estos casos”.
“Cuando estuve en un evento en Córdoba disertó un especialista en IA y hablaba de sus beneficios, cuando le mencioné que también se estaba utilizando para hacer daño, engañar y cometer delitos quedó impactado”, siguió diciendo.
Cavallo refirió que resulta necesario “informar, concientizar y hablar sobre todas estas cuestiones que no están bien”.
Imagen de "señuelo"
Otra problemática que resulta muy preocupante es la utilización de este tipo de tecnología en casos de grooming, donde los responsables alteran imágenes y las utilizan como “señuelo” para las víctimas.
El año pasado la Policía Federal desmanteló una red que utilizaba software de inteligencia artificial para generar imágenes de menores en situaciones comprometedoras.
Operaba, según se estableció, a través de plataformas de redes sociales y logró atraer a numerosos adolescentes mediante la creación de perfiles falsos y la edición de fotografías que pretendían simular situaciones íntimas.
Para solicitar las charlas y talleres de la Fundación Ser y Hacer hay que escribir al mail [email protected]
“Un adulto capta a un menor y, por ejemplo, en una videollamada la víctima ve a otro adolescente, pero en realidad esa imagen está generada con IA. Hay que insistir en que estén atentos y observen, porque hay detalles que te alertan, no se ve bien la cara, el fondo, etc”.
“En los talleres no buscamos demonizar o condenar que los adolescentes se conozcan a través de las redes sociales. No tiene nada de malo si se conversa y se les enseña a hacerlo con la mayor seguridad y responsabilidad".
“Por ejemplo, encontrarse en un lugar público, hacerlo de día, ir acompañado y asegurarse que la persona que esté allí sea la de la foto del perfil. No como sucedió con 'Mica' (Micaela Ortega), quien confió en lo que le dijo su amiga inexistente 'Rochi' (era un hombre) . Otra cuestión a tomar en cuenta es si esa persona, por ejemplo, le dice al chico o la chica que no le cuente a nadie que se van a encontrar, son alarmas a las que se les debe prestar atención”, cerró Cavallo.
De qué manera piensa el groomer
Maniobras. “Hay que dejar en claro que el groomer puede ser un adulto que se hace pasar por un menor, que lo puede hacer con inteligencia artificial o de otra forma, pero también están los casos donde con su perfil real de adulto busca manipular a ese chico o esa chica”, explicó Cavallo.
Atención. “Al pedofilo y a quienes se dedican a la distribución de imágenes lo que más les interesa es obtener una foto con la cara de ese niño, niña o adolescente, porque sino no les sirve”.
Cuidado. "Tenemos que prestar atención a lo que publicamos cuando ponemos fotos de nuestros hijos. Ver si las redes están públicas o contamos con seguidores que no conocemos, porque está el riesgo de que tomen esas imágenes y hagan cualquier cosa”.
Ayuda. Para solicitar acompañamiento legal y emocional en caso de Grooming se puede llamar al teléfono del Dispositivo PAR (291) 4550042.