Dany Soto presenta iniciativa a quien utilice inteligencia artificial con esos fines.
Crece el ciberacoso a través de “deepfakes”.
El Grupo Parlamentario del PRI, propuso reformar el artículo 182 del Código Penal a quien haga uso de la inteligencia artificial para crear, exponer, distribuir, difundir, exhibir, reproducir, transmitir, comercializar, ofertar, intercambiar y/o compartir imágenes, audios o videos de contenido sexual íntimo de una persona, sin su consentimiento.
Al realizar la ampliación de motivos, la diputada Dany Soto Hernández, puntualizó que la sanciones prevén castigar a quien incurra en este ilícito a través de materiales impresos, correo electrónico, mensajes telefónicos, redes sociales o cualquier otro medio tecnológico, con penas que irían desde los dos a los ocho años de prisión y multa de doscientos cincuenta a quinientos setenta y seis Unidades de Medida y Actualización (UMA).
La legisladora del GP-PRI, explicó que un “deepfake” es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona.
Informó que, en los últimos cuatro años, el ciberacoso contra las mujeres ha aumentado un 5.1%. En 2017 el 17.7% de las usuarias de internet aseguró haber sido víctima, mientras que el porcentaje aumentó a 22.8% en 2021, de acuerdo a las estadísticas registradas del Módulo sobre Ciberacoso (MOCIBA) del Instituto Nacional de Estadística y Geografía (INEGI).
De la misma forma, datos del propio INEGI, revelan que, a julio de 2022, del 36.7% de las mujeres que aseguraron ser víctimas de ciberacoso, casi la mitad, el 16.7%, corresponde a casos de suplantación de identidad.
Soto Hernández puntualizó que uno de los principales retos a enfrentar con el desarrollo de la Inteligencia Artificial es la protección de los datos personales y la privacidad de sus usuarios; especialmente cuando se hace de forma masiva, sin transparencia y sin su consentimiento.
Recordó un estudio realizado en 2019 por la compañía de ciberseguridad Deeptrace, encontró que 96% de esta clase de videos en línea eran de naturaleza íntima o sexual. Las víctimas eran fundamentalmente mujeres, con frecuencia actrices, músicas, y en menor medida profesionales de los medios de comunicación.
Finalmente, la diputada Dany Soto, indicó que las mujeres que son víctimas de esta tecnología, pueden enfrentar la estigmatización y la discriminación por parte de sus comunidades, e incluso de empleadores.