HD.com.do
Home Destacada

ImageNet Roulette se lanzó a principios de este año como parte de un proyecto más amplio para llamar la atención sobre las cosas que pueden, y regularmente, salir mal cuando los modelos de inteligencia artificial se entrenan en datos de entrenamiento problemáticos.

ImageNet Roulette está capacitada en las categorías de “persona” de un conjunto de datos llamado ImageNet (desarrollado en las universidades de Princeton y Stanford en 2009), uno de los conjuntos de capacitación más utilizados en investigación y desarrollo de aprendizaje automático.

Según los creadores de esta poderosa herramienta esta aplicación se creó con el fin de protestar sobre la forma en la que las empresas como redes sociales clasifican a las personas simplemente por suposiciones y estereotipos. Sus creadores nos comentan lo siguiente: “Creamos ImageNet Roulette como una provocación: actúa como una ventana a algunas de las categorizaciones racistas, misóginas, crueles y simplemente absurdas integradas en ImageNet. Permite que el conjunto de capacitación “hable por sí mismo”, y al hacerlo, destaca por qué clasificar a las personas de esta manera es poco científico en el mejor de los casos y profundamente perjudicial en el peor.”

Tal es el caso de una pareja afroamericana que Google había calificado su fotografía como “Gorilas”. También otra denuncia de un periodista salió a la luz donde se le clasificaba como negroide siendo este un término muy racista. Otras de las razones es que a muchos hombres sin ningún motivo se les ha calificado como “Sospechosos de violación” o “Delincuentes”. Sin duda estos son de los peligros más graves que pueden tener estas tecnologías de inteligencia artificial.

Esto nos pareció sumamente interesante así que decidimos hacer un ejemplo con mi rostro mientras escribía este artículo. Este fue mi resultado:

La inteligencia artificial me califica como una enfermera, una persona profesional del área de salud, dice que mis habilidades son cuidar de niños o personas enfermas. Esta vez yo corrí con suerte de que de ser clasificada de algo negativo pero nada está más lejos de la realidad que este resultado.

ImageNet Roulette ha logrado su cometido: ha inspirado una conversación pública muy esperada sobre la política de los datos de entrenamiento, y esperamos que actúe como un llamado a la acción para que la comunidad de inteligencia artificial se enfrente a los daños potenciales de clasificar a las personas.

A partir del viernes 27 de septiembre de 2019, lo retiraran de Internet. Permanecerá en circulación como una instalación de arte físico, actualmente en exhibición en la Fondazione Prada Osservertario en Milán hasta febrero de 2020.

Web: https://imagenet-roulette.paglen.com

Autor
Ingeniera de sistemas especializada en diseño de productos digitales, apasionada del marketing digital, UX Designer + Partner en October Studio. Más de 5 años de experiencia en desarrollo de software, dedicada a diseñar UX para grandes empresas nacionales e internacionales. Cofundadora de Mujeres TICs, la comunidad de Mujeres en Tecnología más grande del país y fundadora de Code4Ladies, un proyecto para enseñar programación a mujeres en áreas vulnerables de nuestro país.
A %d blogueros les gusta esto: