Caroline Mullet, estudiante de noveno grado de la escuela secundaria Issaquah, cerca de Seattle, asistió a su primer baile de bienvenida el otoño pasado, una fiesta con temática de James Bond con mesas de blackjack a la que asistieron cientos de niñas vestidas con vestidos de fiesta.

Unas semanas más tarde, ella y otras alumnas se enteraron de que un compañero de clase estaba circulando imágenes falsas de desnudos de chicas que habían asistido al baile, imágenes sexualmente explícitas que había fabricado utilizando una aplicación de inteligencia artificial diseñada para «despojar» automáticamente de fotos vestidas a personas reales. niñas y mujeres.

La señora Mullet, de 15 años, alertó a su padre: Marca, senador demócrata del estado de Washington. Aunque no estaba entre las chicas de las fotos, preguntó si se podía hacer algo para ayudar a sus amigas, quienes se sentían “extremadamente incómodas” porque sus compañeros de clase habían visto imágenes simuladas de ellas desnudas. Pronto, el senador Mullet y un colega en la Cámara de Representantes propusieron una legislación para prohibir el intercambio de representaciones explícitas de sexualidad de menores reales generadas por IA.

“Odio la idea de tener que preocuparme de que esto le vuelva a suceder a alguna de mis amigas, a mis hermanas o incluso a mí misma”, dijo Mullet a los legisladores estatales durante una audiencia sobre el proyecto de ley en enero.

La legislatura estatal pasó la factura sin oposición. El gobernador Jay Inslee, un demócrata, lo firmó el mes pasado.

Los Estados están en la primera línea de una nueva forma de explotación sexual entre pares que se está extendiendo rápidamente y acoso en las escuelas. Los niños de todo Estados Unidos han utilizado aplicaciones de “nudificación” ampliamente disponibles para inventar subrepticiamente imágenes sexualmente explícitas de sus compañeras de clase y luego han hecho circular los desnudos simulados a través de chats grupales en aplicaciones como Snapchat e Instagram.

Ahora, impulsados ​​en parte por relatos preocupantes de adolescentes como Mullet, los legisladores federales y estatales se apresuran a promulgar protecciones en un esfuerzo por seguir el ritmo de las aplicaciones explotadoras de IA.

Desde principios del año pasado, al menos dos docenas de estados han presentado proyectos de ley para combatir las imágenes sexualmente explícitas generadas por IA (conocidas como deepfakes) de personas menores de 18 años, según datos compilados por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro. Y varios estados han promulgado las medidas.

Entre ellos, Dakota del Sur este año. aprobó una ley que lo hace ilegal poseer, producir o distribuir material de abuso sexual generado por IA que represente a menores reales. El año pasado, Luisiana promulgó una ley falsa que criminaliza las representaciones sexualmente explícitas de menores generadas por IA.

“Tenía una sensación de urgencia al escuchar estos casos y ver cuánto daño se estaba haciendo”, dijo Representante Tina Orwallun demócrata que redactó la ley explícita-deepfake del estado de Washington después de enterarse de incidentes como el de Issaquah High.

Algunos legisladores y expertos en protección infantil dicen que tales reglas se necesitan con urgencia porque la fácil disponibilidad de aplicaciones de nudificación mediante IA está permitiendo la producción y distribución masiva de imágenes gráficas falsas que potencialmente pueden circular en línea durante toda la vida, amenazando la salud mental, la reputación y la salud física de las niñas. seguridad.

“Un niño con su teléfono en el transcurso de una tarde puede victimizar a 40 niñas, menores de edad”, dijo Yota Sourasdirector jurídico del Centro Nacional para Niños Desaparecidos y Explotados, “y luego sus imágenes están ahí afuera”.

En los últimos dos meses, los incidentes de desnudos ultrafalsos se han extendido en las escuelas. incluso en Richmond, Illinois.y Beverly Hills y Playa lagunaCalifornia

Sin embargo, pocas leyes en Estados Unidos protegen específicamente a las personas menores de 18 años de las aplicaciones explotadoras de IA.

Esto se debe a que muchos estatutos actuales que prohíben el material de abuso sexual infantil o la pornografía de adultos no consensuada (que involucra fotos o videos reales de personas reales) pueden no cubrir imágenes explícitas generadas por IA que usan rostros de personas reales, dijo el representante estadounidense Joseph D. Morelle, un demócrata. de Nueva York.

El año pasado presentó una factura eso convertiría en delito revelar imágenes íntimas de adultos o menores identificables generadas por IA. También daría a las víctimas, o a los padres, del deepfake el derecho a demandar a los perpetradores individuales por daños y perjuicios.

«Queremos que esto sea tan doloroso para cualquiera que siquiera considere hacerlo, porque es un daño que simplemente no se puede deshacer», dijo Morelle. “Aunque a un chico de 15 años le parezca una broma, esto es tremendamente serio”.

La representante estadounidense Alexandria Ocasio-Cortez, otra demócrata de Nueva York, presentó recientemente un proyecto de ley similar para permitir a las víctimas presentar demandas civiles contra los perpetradores de deepfake.

Pero ninguno de los proyectos de ley otorgaría explícitamente a las víctimas el derecho a demandar a los desarrolladores de aplicaciones de nudificación de IA, una medida que, según los abogados litigantes, ayudaría a interrumpir la producción masiva de deepfakes sexualmente explícitos.

«Se necesita legislación para detener la comercialización, que es la raíz del problema», dijo Elizabeth Hanley, abogada en Washington que representa a víctimas en casos de agresión y acoso sexual.

El código legal estadounidense prohíbe la distribución de generado por computadora Material de abuso sexual infantil que represente a menores identificables involucrados en conductas sexualmente explícitas. El mes pasado, la Oficina Federal de Investigaciones emitió una alerta advirtiendo que tales material ilegal incluido Imágenes realistas de abuso sexual infantil generadas por IA.

Sin embargo, las representaciones falsas generadas por IA de adolescentes reales sin ropa pueden no constituir “material de abuso sexual infantil”, dicen los expertos, a menos que los fiscales puedan demostrar que las imágenes falsas cumplen con los estándares legales para conducta sexual explícita o exhibición lasciva de genitales.

Algunos abogados defensores han tratado de sacar provecho de la aparente ambigüedad jurídica. Un abogado que defendió a un estudiante de secundaria en una demanda por deepfake en Nueva Jersey argumentó recientemente que el tribunal no debería impedir temporalmente que su cliente, que había creado imágenes de IA desnuda de una compañera de clase, vea o comparta las imágenes porque no eran dañinas ni ilegal. Las leyes federales, argumentó el abogado en un expediente judicial, no fueron diseñadas para aplicarse “a imágenes sintéticas generadas por computadora que ni siquiera incluyen partes reales del cuerpo humano”. (El acusado finalmente acordó no oponerse a una orden de restricción sobre las imágenes).

Ahora los estados están trabajando para aprobar leyes que pongan fin a las imágenes explotadoras de IA. Este mes, California introdujo un proyecto de ley para actualizar una prohibición estatal sobre material de abuso sexual infantil para cubrir específicamente el material abusivo generado por IA.

Y los legisladores de Massachusetts están concluyendo legislación que criminalizaría el intercambio no consensuado de imágenes explícitas, incluidos los deepfakes. También requeriría que una entidad estatal desarrollara un programa de desvío para menores que compartían imágenes explícitas para enseñarles sobre temas como el “uso responsable de la inteligencia artificial generativa”.

Los castigos pueden ser severos. Según la nueva ley de Luisiana, cualquier persona que, a sabiendas, cree, distribuya, promueva o venda deepfakes sexualmente explícitos de menores puede enfrentarse a una pena mínima de prisión de cinco a 10 años.

En diciembre, agentes de policía del condado de Miami-Dade arrestaron a dos niños de secundaria. por supuestamente crear y compartir imágenes falsas de desnudos con IA de dos compañeras de clase, de 12 y 13 años, según documentos policiales obtenidos por The New York Times a través de una solicitud de registros públicos. Los niños fueron acusados ​​de delitos graves de tercer grado bajo una ley estatal de 2022 prohibir representaciones sexuales alteradas sin consentimiento. (La oficina del fiscal estatal del condado de Miami-Dade dijo que no podía comentar sobre un caso abierto).

La nueva ley de deepfake en el estado de Washington adopta un enfoque diferente.

Después de enterarse del incidente en Issaquah High por su hija, el senador Mullet se acercó al representante Orwall, un defensor de los sobrevivientes de agresión sexual y ex trabajador social. Orwall, que había trabajado en uno de los primeros proyectos de ley sobre pornografía de venganza del estado, luego redactó un proyecto de ley de la Cámara para prohibir la distribución de imágenes íntimas o sexualmente explícitas de menores o adultos generadas por IA. (El Sr. Mullet, que patrocinó el proyecto de ley complementario del Senado, ahora es postularse para gobernador.)

Bajo la ley resultante, los primeros infractores podrían enfrentar cargos por delitos menores, mientras que las personas con condenas previas por revelar imágenes sexualmente explícitas enfrentarían cargos por delitos graves. El nuevo estatuto sobre deepfake entrará en vigor en junio.

«No es sorprendente que estemos atrasados ​​en materia de protecciones», dijo la Sra. Orwall. «Por eso queríamos avanzar tan rápido».



Source link

Comparte NdS

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *