Delito por desnudar a alguien con Inteligencia Artifial

Recientemente, ha salido en los medios de comunicación, el caso de creación de desnudos a partir de fotos de unas jóvenes menores de edad de Almendralejo, Badajoz.

Esta técnica se denomina DeepFake y, el Instituto Nacional de Ciberseguridad, INCIBE, (https://www.incibe.es/aprendeciberseguridad/deepfakes)  lo define como la suma de los términos Deep learning o aprendizaje profundo, el cual hace referencia a una de las ramas de la inteligencia artificial. Y, Fake o falso, que hace referencia a la elaboración de falacias en la red, del mismo modo que las fake news.

Podríamos definir de manera sencilla los deepfakes como fotos o vídeos manipulados para hacer creer a los usuarios que los ven que una determinada persona, tanto si es anónima como si es personaje público, realiza declaraciones o acciones que nunca ocurrieron. Para la creación de dichos vídeos, se utilizan herramientas o programas dotados de tecnología de inteligencia artificial que permiten el intercambio de rostros en imágenes y la modificación de la voz.

Aunque en los medios se hace referencia, de forma genérica a la Inteligencia Artificial, más bien, es la tecnología utilizada por los programas o aplicaciones, las cuales, en este caso concreto, a partir de una foto real, recrean la misma foto, pero sin ropa. Para poder hacer esto, mostrar zonas del cuerpo que no se ven, tiene que recurrir a una base de datos de imágenes reales, y utilizando las mismas, escoge las que más se puedan asemejar a la imagen real, analizando parámetros como color de piel, corpulencia, etc.…

En este caso, los presuntos autores, son compañeros de clase, también menores de edad, quienes obtuvieron las imágenes de los perfiles de Instagram de las menores y, a través de una aplicación la cual, por 10 € permite recrear los desnudos de 25 fotos que se escojan, extorsionaban a las menores pidiéndoles dinero a cambio de borrar las fotos y, al negarse, les enviaban más imágenes de ellas desnudas. Esta conducta podría ser constitutiva de un delito de coacciones.

A pesar de que no hay un tipo específico en el código penal español que, por ahora, contemple el uso de la inteligencia artificial y la simulación de imágenes, estas conductas, al afectar a la intimidad de las víctimas, podría tener encaje legal en los delitos contra la intimidad y, en el caso de su difusión, al poder creer el receptor que la imagen es real, incluso podría ser constitutivo de un delito de pornografía infantil.

En todo caso, en defecto de alguna de las anteriores calificaciones, podría ser constitutivo de un delito contra la integridad moral.

Al ser los presuntos autores, menores de edad, es de aplicación la Ley del menor en cuanto a la determinación de la medida que se le imponga al autor y, en cuanto, a la responsabilidad civil, responderán los padres, madres o tutores legales del mismo.

A mayores, al aparecer las caras de las menores y ser perfectamente identificables, también cabría una sanción administrativa por parte de la Agencia Española de Protección de Datos, AEPD, por el tratamiento ilegítimo de los datos de carácter personal de las menores y, en su caso, por la difusión sin su consentimiento. La AEPD, cuenta con herramientas para frenar la difusión de contenido sensible, como el de este caso, a través del #CanalPrioritario (https://www.aepd.es/canalprioritario)

Cabe recordar la aplicación del principio non bis in ídem, por el que una misma conducta no puede ser sancionada doblemente, por el orden penal y el administrativo, prevaleciendo el primero.

Para más información contacte con nosotros, le informamos sin compromiso en el teléfono 988 609 224 y en de******@ar***********.com

Síganos en Facebook y vea nuestro blog de protección de datos, para mantenerse informado de todas las novedades

Comparte este artículo en tus redes
Toll Free
1-885-245-45635
New York
1-455-245-45623
Toronto
1-657-544-45623