Un vacío legal dentro de los colegios hizo proliferar en varios de distintos lugares del país prácticas escandalosas reñidas con la probidad de las alumnas, a las que inescrupulosos compañeros les trucaban fotos con Inteligencia Artificial para que aparecieran desnudas y vendían las imágenes por Internet.
Ocurrió en varias oportunidades este año, comenzando con al menos 15 chicas de la Facultad de Arquitectura, Urbanismo y Diseño de San Juan, que fueron víctimas de un estudiante que, a partir de 10 fotografías publicadas en las redes sociales, aplicó deep learning, que usa redes neuronales (como las del cerebro) artificiales y aprendizaje de máquina para imitar funciones similares a la inteligencia humana y generar así imágenes que se manipulan para eliminar la ropa y reemplazarla por piel de aspecto realista.
Como delito no prosperó, aunque el juez logró imputar al acusado porque le descubrieron en sus dispositivos imágenes de menores en situación de abuso sexual.
El vacío legal se produce al intentarse encuadrar el comportamiento del detenido con una figura penal.
Si se individualizase a quien está detrás-, sí puede accionarse por daños y perjuicios e invocando el derecho a la imagen, que es un bien jurídico tutelado en art. 53 del Código Civil. (Para esto) sería necesario que las fotografías tomadas como base de la generación artificial fueran de la/las personas damnificadas.
A partir de las tribulaciones judiciales, esta práctica se extendió por varios establecimientos, de Colegiales, en la Ciudad de Buenos Aires; San Martín; La Plata, y Córdoba, entre los que trascendieron, en los que menores de edad realizaban esta maniobra lucrativa, ya que los packs de fotos de compañeras que tienen entre 13 y 17 años, eran comercializados a 25 mil pesos.
Participan en la red muchos adultos que les envían los links para que ellos se unan y ahí les empiezan a dar créditos y transferencias, pidiéndoles fotos de sus amigas y conocidas.
Uno de los casos es de un joven de 17 años y estudiante del Colegio San Agustiniano de San Andrés, que vendía a través de la plataforma Discord fotos de sus compañeras alteradas con inteligencia artificial para que parecieran desnudas.
Lo dejó al descubierto un compañero que se hizo pasar por comprador, porque estaba también en este grupo en el que había 8.000 personas.
Y cuando le dieron el CBU, salió el nombre real. Pasó todas las capturas y los links a una ONG que se dedica al grooming.
La madre de una de las estudiantes reveló que las víctimas fueron alrededor de 22 chicas, y que la denuncia se radicó a fines de agosto pasado y recayó en la Fiscalía de Responsabilidad Penal juvenil de San Martín.
El modus operandi consistía en robar imágenes de los perfiles de redes sociales de las jóvenes, modificarlas con una herramienta de IA y ofrecerlas a través de un grupo.
Un escándalo similar se desató en mayo de este año en un colegio católico de la ciudad de La Plata, luego de que un grupo de padres denunciara que un alumno de 13 años, de segundo año secundario, había alterado fotos de 13 compañeras, de entre 13 y 15 años, robadas de sus Instagram personales, a fin de modificarlas para que se vieran desnudas y viralizarlas, según publicó el medio platense El Día.
Las fotos llegaron a varios colegios de la ciudad, a lugares aledaños y en estados de WhatsApp.
Un estudiante de la Escuela Superior de Comercio Manuel Belgrano (ESCMB), una institución educativa de nivel preuniversitario, dependiente de la Universidad Nacional de Córdoba (UNC), fue imputado por el delito de “lesiones graves” calificadas en el contexto de violencia de género.
Se trata del alumno que, con el uso de una inteligencia artificial (IA), fusionó imágenes de mujeres sexualizadas con los rostros de sus compañeras escolares y divulgó ese material en sitios de contenido pornográficos.
Los leguleyos consideraron que la decisión de la fiscalía fue “un parche”, una solución “momentánea”, ya que “no hay remedio legal” en estas situaciones, pese a que el impacto de este suceso en la vida de las víctimas fue significativo.
Estiman que se naturalizó el problema en la sociedad cuando se trata de un caso de lesiones graves, físicas y psicológicas.
Las instituciones educativas no tuvieron tampoco las reacciones que se hubieran esperado: que de inmediato tomaran cartas en el asunto y dieran una respuesta más activa y efectiva.
Las denuncias hacia el alumno, cuya identidad se mantiene preservada ya en su momento era menor de edad, ocurrieron en julio pasado.
Las víctimas aseguraron haber encontrado fotos y videos de mujeres desnudas que estaban alteradas con inteligencia artificial, ya que tenían sus rostros en ellos.
Asimismo, un grupo de padres del Instituto Compañía de María, ubicado en Céspedes al 3100, del barrio porteño de Colegiales, denunció que al menos tres alumnos de un colegio católico trucaron más de 400 fotos de sus compañeras, exalumnas y docentes desnudas y las viralizaron en redes sociales.
Las imágenes fueron realizadas en febrero y desde entonces circulan hasta en grupos de otros colegios de la zona.
Empezó en un grupo de chicos de 2° y 3° año que se juntaban a jugar a la Play. Usaban un programa que les daba un límite de fotos para editar, así que abrieron diferentes usuarios e hicieron más de 400 fotos de alumnas, exalumnas y profesoras.
La denuncia fue radicada en la Defensoría de Niños, Niñas y Adolescentes y el colegio hizo una presentación, pero no mucho más.
A principios de julio del año pasado, 15 estudiantes de la Facultad de Urbanismo de la Universidad de San Juan denunciaron que alguien estaba vendiendo fotos de ellas desnudas, solo que jamás se las habían sacado.
Con un bot de Telegram podía tomar las imágenes de chicas en las redes sociales y “desnudarlas” a través de Inteligencia Artificial.
Ante la denuncia, la Justicia logró dar con la cuenta de correo electrónico asociada al perfil que hacía esas publicaciones bajo el alias “MarioMJohn68″ y de allí sacar los datos para dar con la identidad del responsable: era un compañero de la Facultad.
En Chile, siete alumnas del Colegio Saint George fueron víctimas del “deepfake”, luego de que un grupo de compañeros utilizará Inteligencia Artificial (IA) para hacerlas aparecer desnudas y viralizaran esos registros en redes sociales.
Padres y madres de las estudiantes interpusieron un recurso de protección ante la Corte de Apelaciones de Santiago, donde se acusa al colegio de no activar el denominado “protocolo de sexualidad”.
En Chorrillos, Perú, se conoció otro caso en que los presuntos responsables de modificar con ayuda de inteligencia artificial (IA) fotos de escolares, que luego las vendían como pornografía infantil y no fueron expulsados.
—
Este correo electrónico ha sido analizado en busca de virus por el software antivirus de AVG.
www.avg.com