

► GROK, Midjourney, Stable Diffusion y otros modelos de IA generativa fueron entrenados con material de abuso sexual infantil (CSAM), material de violaciones, pornografía, estereotipos malignos, insultos racistas y étnicos, y otros contenidos extremadamente problemáticos.
El problema no es sólo cómo se usa, sino cómo se entrena una IA generativa
► La plataforma X/Twitter (de Elon Musk), a través de su IA generativa, GROK, habilitó opciones para DESNUDAR personas, especialmente mujeres, y así generar fácilmente material de acoso sexual.
Esto no empezó con GROK. A muchas mujeres ya las venían desnudando desde plataformas como Civitai porque así operan desde el inicio las empresas de IA generativa comercial, como xAI de Elon Musk, OpenAI de Sam Altman, Midjourney de David Holz, StabilityAI, en aquel momento, de Emad Mostaque, etc.
La investigación sobre esta clase de contenidos dentro de los conjuntos de datos que alimentan modelos de IA generativa data de 2021 de parte del equipo de la Dra. Abeba Birhane: «Examinamos el conjunto de datos LAION-400M, que es un conjunto de datos, filtrado por CLIP, de pares de imágenes y texto alternativo analizados a partir del conjunto de datos Common-Crawl. Descubrimos que el conjunto de datos contiene pares de imágenes y textos problemáticos y explícitos sobre: violaciones, pornografía, estereotipos malignos, insultos racistas y étnicos, y otros contenidos extremadamente problemáticos»
► Midjourney models are trained on LAION 400m
INFORME COMPLETO: https://arteesetica.org/misoginia-pornografia-y-estereotipos-malignos/
Hay que dejar de pensar en los modelos comerciales de IAG como «herramientas» que dependen del uso que se les dé. Hace mucho que avisamos sobre este tipo de contenidos dentro de los datasets que usan las empresas para entrenar sus sistemas de IA generativa. El problema no es sólo cómo se usa, sino cómo se entrena una IA generativa.
¡Difundan por favor!: https://www.instagram.com/p/DUhvRRJDtjA/?img_index=1