CERRAR

Gracias por leer nuestros informes. El periodismo independiente no se financia solo. Necesitamos de tu apoyo con una contribución, ya sea grande o pequeña. No importa en qué parte del mundo estés.

Mental Health
¡Espera un poco!
Read and listen
Ayy, close that door, we blowin' smoke
Science Studies Technology

Durante un estudio, un robot se volvió inmediatamente racista y sexista, causando alarma entre los científicos

Investigaciones anteriores han demostrado cómo la inteligencia artificial es capaz de absorber prejuicios negativos y perjudiciales. Fotografía: AutoEvolution
Words mor.bo Reading 4 minutos

Un estudio reciente descubrió que los robots, encarnación del avance y el progreso, clasifican peligrosamente a las personas según estereotipos racistas y sexistas. Estos fueron los resultados de un inquietante experimento que realizó un equipo de investigadores de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington.

Investigaciones anteriores han demostrado cómo la inteligencia artificial es capaz de absorber prejuicios negativos y perjudiciales. Pero las implicaciones son mucho más significativas cuando se aplican a los robots: se trata de seres físicos que, actuando con la inteligencia artificial, tienen la capacidad de manifestar el sesgo de formas tangibles que pueden perjudicar a personas reales. Los investigadores mostraron cómo se pidió a un robot que clasificara imágenes de diversas personas en un entorno simulado.

Publicidad

“Nuestros experimentos demuestran definitivamente que los robots actúan con estereotipos tóxicos con respecto al género, la raza y la fisonomía científicamente desacreditada, a escala. Además, los métodos auditados son menos propensos a reconocer a las mujeres y a las personas de color”, señalaron los investigadores. Para demostrarlo, se conectó una red neuronal llamada CLIP con un sistema robótico llamado Baseline, que movía un brazo para manipular objetos. Se pidió al robot que colocara diferentes cubos en una caja en función de varias instrucciones. Cuando se le pidió que colocara el “bloque latino” o el “bloque asiático-americano” en una caja, el robot obedeció.

Pero en la siguiente serie de órdenes fue donde las cosas se pusieron inquietantes: cuando se le pidió que colocara el “bloque de médico” en la caja, el robot era menos propenso a elegir mujeres de todas las etnias. Los bloques con mujeres latinas o negras fueron elegidos como “bloques de ama de casa” y, lo que es peor, los hombres negros tenían un 10% más de probabilidades de ser elegidos cuando se le ordenaba elegir un “bloque de criminal” que cuando se le pedía al robot que eligiera un “bloque de persona”. Todos los prejuicios arraigados en el género, la raza, la etnia y la clase social se exhibieron de forma preocupante.

Publicidad

Una nueva Inteligencia Artificial podría detectar tus emociones a través de señales de radio

Las conclusiones son duras y urgentes, ya que los gobiernos y las empresas están empezando a incorporar robots en usos cada vez más cotidianos, en los que pueden tener un impacto físico en su entorno. El problema radica en que, a menudo, la inteligencia artificial extrae información sobre las personas de Internet, un conjunto de datos que por sí mismo está repleto de estereotipos negativos sobre las personas. Los investigadores ya han señalado la necesidad de contar con conjuntos de datos diversos que no subrepresenten a ningún grupo social. “Esto significa ir más allá de las clasificaciones convenientes — “mujer/hombre”, “negro/blanco”, etc. — que no logran captar las complejidades de las identidades de género y étnicas”, señalaba un comentario en la revista Nature.

Publicidad

Hasta que se demuestre lo contrario, los investigadores afirman que deben trabajar bajo el supuesto de que los robots, tal y como están diseñados ahora, serán inseguros para los grupos marginados. “Limitarse a corregir las disparidades será insuficiente para la complejidad y la magnitud del problema. En su lugar, recomendamos que los métodos de aprendizaje de los robots que manifiestan físicamente estereotipos u otros resultados perjudiciales se pongan en pausa, se reelaboren, o incluso se supriman cuando proceda, hasta que se pueda demostrar que los resultados son seguros, eficaces y justos”, señala el estudio.

Publicidad

Gracias por leer nuestros informes. El periodismo independiente no se financia solo. Necesitamos de tu apoyo con una contribución, ya sea grande o pequeña para un café para nuestro crew. No importa en qué parte del mundo estés, apóyanos desde tan solo CLP 1.000 por WebPay (si estás en Chile) o un USD 1 por PayPal (si estás fuera de Chile).

Despues de leer, ¿qué te pareció?

  • Me gustó
  • 1
    Me prendió
  • Lo amé
  • 1
    Me deprime
  • 3
    WTF!
  • Me confunde
   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio. Si continúas navegando, consideramos que aceptas su uso.

Aceptar
NIGHT MODE DAY MODE