Un estudio realizado por investigadores de una universidad en EEUU arrojó resultados preocupantes sobre el sesgo presente en los vehículos autónomos no tripulados. Al parecer, estas máquinas son más proclives a detectar como peatones a personas con tonos claros de piel. Quienes tengan la tez más oscura corren más riesgos. Te explicamos por qué.
Para poder desplazarse, los vehículos autónomos cuentan con sistemas de inteligencia artificial que les permiten detectar los elementos a su alrededor y distinguir si se trata de personas u objetos. En base a este ‘input’, luego pueden predecir el comportamiento de lo que se ubica en el entorno, lo que permite el desplazamiento sin mayores inconvenientes.
Sin embargo, en la investigación realizada por la Universidad Georgia Tech sobre un número de sistemas de reconocimiento, quedó de manifiesto que en este proceso las máquinas «parecen mostrar mayor precisión» al identificar como peatones a quienes presentan tonos de piel más bajos en la escala Fitzpatrick, en comparación con aquellos más altos bajo el mismo parámetro.La escala Fitzpatrick se usa para definir el fototipo de una piel determinada, es decir, su sensibilidad frente a la radiación solar. Va desde el tipo I —pálido, no se broncea y se quema siempre al sin protección con el sol— hasta el VI —el más oscuro, que difícilmente se quema al contacto con el Sol—.
El comportamiento sesgado, dice el estudio, «aparece en imágenes grandes de peatones, e incluso aumenta cuando se remueven a los peatones oclusionados», es decir, aquellos que aparecen cubiertos por otros objetos o personas, o que se ven parcialmente. Estos últimos son «casos difíciles ya conocidos» para los detectores.
Pero aún así, en las situaciones más fáciles de prevenir, la ‘discriminación’ hacia los peatones con tonos más oscuros se mantiene. La precisión en la detección es cinco puntos porcentuales menor para aquellos con pieles más altas en la escala Fitzpatrick.Además, los científicos concluyeron que la situación de desigualdad se mantiene con otros elementos como el momento del día (por la iluminación). Sin embargo, es posible mitigar este sesgo con cambios en el aprendizaje de las máquinas.
Una situación para nada nueva
No es la primera vez que la discriminación racial se cruza con la tecnología. Recientemente, hubo polémicas por la caída en la precisión de identificar el género de una persona a través del sistema Rekognition, la herramienta de reconocimiento facial de Amazon.
Mientras que Rekognition prácticamente no erraba al identificar como varones a individuos masculinos con la piel más clara, al menos en un tercio de los casos reconoció como hombres a mujeres con la tez más oscura. Las mujeres fueron confundidas con hombres en un alto porcentaje. Este hallazgo fue contestado por la empresa, que calificó de inexactos tales acusaciones.Por otra parte, Rekognition también estuvo en el ojo de la tormenta al identificar erróneamente a 28 miembros del Congreso estadounidense con imágenes en bases de datos de arrestos. De estos, un 40% eran personas con la piel más oscura, en contraste con el 20% que representan en el Parlamento, según la Unión Estadounidense de Derechos Civiles (ACLU, por sus siglas en inglés).
En el momento del nacimiento de otras tecnologías anteriores también se presentó el mismo sesgo. Un ejemplo son las películas fotosensibles de fotografía a color, que representaban de manera poco fiel a las pieles más oscuras. Esto se debía a que estaban calibradas para retratar a personas blancas, y las personas más oscuras aparecían con poca definición.
Kodak, el mayor productor de películas, solo realizó cambios cuando las industrias de golosinas y de mobiliario se quejaron que los tonos marrones aparecían mal representados en las fotos, como recuerda una nota de The Guardian.
CORTESÍA:SPUTNIK