Pico y Placa Medellín

viernes

2 y 8 

2 y 8

Pico y Placa Medellín

jueves

5 y 9 

5 y 9

Pico y Placa Medellín

miercoles

4 y 6 

4 y 6

Pico y Placa Medellín

martes

0 y 3  

0 y 3

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

1 y 7  

1 y 7

Unicef advierte que 1,2 millones de niños han sido desnudados con inteligencia artificial

La organización reveló en un informe que 1 de cada 25 niños ha sido víctima de este tipo de abuso. Estados Unidos y España ya han dado los primeros pasos para prohibir la creación y difusión de estos contenidos.

  • Hasta dos terceras partes de los niños afirmaron estar preocupados por que alguien tome su fotografía para crear este tipo de contenidos falsos. FOTO: Getty
    Hasta dos terceras partes de los niños afirmaron estar preocupados por que alguien tome su fotografía para crear este tipo de contenidos falsos. FOTO: Getty
hace 40 minutos
bookmark

La organización que se dedica a proteger los derechos de la infancia a nivel mundial publicó este miércoles un informe que asegura que alrededor de 1,2 millones de niños y niñas han sido desnudados utilizando “deepfakes”, que son imágenes o videos generados con inteligencia artificial (IA) en los que puede utilizarse el rostro de una persona real.

Lea: Videos y selfies imposibles con famosos: ¿cómo se hace y qué hay detrás de este trend con IA?

Según este estudio, en el que fueron incluidos datos de 11 países entre los que se encuentra Colombia, México, República Dominicana y Brasil, 1 de cada 25 menores han sido víctimas de este tipo de acoso. Esta cifra equivale, de acuerdo con la Unicef, a un niño por cada salón de clases.

“Los deepfakes –imágenes, vídeos o grabaciones de voz generados o manipulados por inteligencia artificial (IA) con apariencia de realidad– se están utilizando cada vez más para crear contenido sexualizado de niños y niñas, incluida la ‘nudificación’, que se refiere al uso de las herramientas de IA para retirar o modificar la ropa en fotografías con el fin de crear imágenes sexualizadas o desnudos falsos”, explica la organización en un comunicado sobre el informe.

Uno de los puntos sobre los que también alerta la organización es que hasta dos terceras partes de los niños afirmaron estar preocupados por que alguien tome su fotografía para crear este tipo de contenidos falsos, pero degradantes. Es ahí donde señala la Unicef que a pesar de que estas imágenes, videos y audios no son reales, esto continúa siendo un abuso porque el daño que ocasionan a la integridad de los menores es verídico.

Además, los “deepfakes” ayudarían a normalizar la explotación sexual infantil y también suponen un reto en cuanto a la regulación de IA y de redes sociales.

¿Qué leyes hay en el mundo para proteger a los menores de los “deepfakes”?

A medida en que estos contenidos generados con IA se han vuelto más comunes -sus principales víctimas han sido las mujeres-, en varios países se han presentado iniciativas con el fin de regularlos y judicializar a sus autores.

Uno de los casos más recientes ocurrió en enero con Grok, el asistente de IA de X (antes Twitter), el cual cuenta con una función de “desnudez digital” que inundó la red social con fotografías de mujeres y niños manipuladas y obscenas. A raíz de esto, Indonesia y Malasia bloquearon este sitio web argumentando que la decisión era con el fin de “proteger a las mujeres, los niños y el público en general de los riesgos del contenido pornográfico falso generado utilizando tecnología de inteligencia artificial”.

Le puede interesar: ¿Cómo protegerse del mercado del cibercrimen? Alerta por deepfakes y llamadas falsas que se comercializan en Colombia

Otros países también amenazaron con bloquear Grok como fue el caso de España. Ante esto, Elon Musk, el multimillonario dueño de X, decidió ponerle límites a esta función: ahora solo pueden acceder a este tipo de edición de imágenes y videos aquellos que cuentan con una suscripción paga. Esto se debe a que el magnate cree que la responsabilidad de crear “deepfakes” debe recaer en el usuario y no en la plataforma, la cual no está ofreciendo medidas que garanticen que esto siga ocurriendo.

Recientemente, el gobierno español presentó un anteproyecto que busca tipificar los “deepfakes” con penas de prisión hasta de 1 a 2 años. Por otra parte, en Estados Unidos existe la Ley de Eliminación de Imágenes, la cual prohíbe compartir imágenes explícitas y no autorizadas en internet, ya sean reales o generadas por IA. Esta norma también exige a las plataformas tecnológicas que eliminen estos contenidos dentro de las 48 horas posteriores a su notificación.

Club intelecto

Nuestros portales

Club intelecto

Club intelecto

Las más leídas

Te recomendamos

Utilidad para la vida