Cultura Otaku
Las compañías líderes en Inteligencia Artificial (IA) que incluyen a OpenAI, Microsoft, Google y Meta, entre otras, informaron que se han comprometido conjuntamente a evitar que sus herramientas de IA sean usadas para la explotación de menores de edad y para producir material de abuso sexual infantil. La iniciativa ha sido liderada por el grupo de seguridad infantil Thorn y la organización All Tech Is Human, dedicada al uso responsable de la tecnología.
El objetivo de la iniciativa es impedir la creación de material sexualmente explícito en el que participen menores de edad y retirarlo de las plataformas de las redes sociales y los motores de búsqueda. Solo en Estados Unidos se denunciaron más de 104 millones de archivos de material sospechoso de abuso sexual infantil en 2023, afirma Thorn. En ausencia de una acción colectiva, la IA generativa está lista para empeorar este problema y abrumar a los organismos encargados de hacer cumplir la ley que ya están luchando para identificar a las víctimas genuinas.
Thorn y All Tech Is Human publicaron un nuevo documento titulado “Safety by Design for Generative AI: Preventing Child Sexual Abuse” que esboza estrategias y establece recomendaciones para que las empresas que crean herramientas de IA, motores de búsqueda, plataformas de redes sociales, empresas de alojamiento y desarrolladores tomen medidas para evitar que la IA generativa se utilice para dañar a los menores de edad.
Una de las recomendaciones, por ejemplo, pide a las empresas que elijan con cuidado los conjuntos de datos utilizados para entrenar los modelos de IA y que eviten los que solo contengan casos de material de abuso sexual infantil, pero también contenido sexual para adultos, debido a la propensión de la IA generativa a combinar ambos conceptos. Thorn también pide a las plataformas de redes sociales y a los motores de búsqueda que eliminen los enlaces a sitios web y aplicaciones que permiten ver imágenes de menores “desnudos”, creando así nuevo material en línea de abuso sexual infantil generado por IA.
Por supuesto, esta noticia se volvió tendencia en los foros de comentarios en Japón, debido a que las ilustraciones de lolis son extremadamente populares dentro del contenido generado por IA (incluyendo también las ilustraciones hentai), atrayendo una variedad de comentarios como:
- «Aunque no sea generada por una IA, deberían prohibir este tipo de ilustraciones desde un principio».
- «No me importa mientras los shota estén protegidos».
- «¿Y en dónde están las víctimas de carne y hueso? No lo entiendo».
- «¿Y cuando vamos a regular a los gordos que aparecen en el hentai?».
- «¿Qué sentido tiene expandir los límites de la IA si la van a empezar a regular?».
- «Bueno, estamos hablando de Estados Unidos. Allí es ilegal incluso realizar ilustraciones de anime de cualquier tipo».
- «Realmente no lo entiendo, antes de meterte a regular el mundo 2D, ¿no deberías preocuparte primero por los niños de verdad?».
- «¿Y qué hay de la libertad de expresión? Casi puedo escuchar los pasos de las botas militares».
- «¿Y cómo se decide entre cuáles son ilustraciones eróticas de lolis y cuáles son ilustraciones normales de lolis?».
- «Las imágenes lolis normales también deberían estar prohibidas».
- «Por lo visto hay algún sujeto traumado que cree que este tipo de ilustraciones provocan víctimas reales cuando no las hay realmente».
Fuente: Yaraon!