Inteligencia artificial para abolir el racismo y sexismo en las empresas.

Alex Zhavoronkov, profesor en el MIPT, cofundador y director general de Insilico Medicine desarrolló, junto a su equipo, un algoritmo para predecir la discriminación existente en las compañías.
Identificando el sexo, la raza y la edad de los altos directivos de las grandes corporaciones y comparando la diversidad de las corporaciones con la diversidad en sus países de origen, además de interpretar el sesgo según los países y compañías, este algoritmo presenta la posibilidad de ser usado en la selección de personal, evitando en la medida de lo posible la discriminación.

 

¿Puede una inteligencia artificial comportarse como una imbécil? Desde luego, al fin y al cabo, admitámoslo, tiene a los mejores maestros, los seres humanos. Pero al menos podemos decir que el racismo, el sexismo y la discriminación no son sólo cosa de nuestra especie. Lo que ahora conocemos como atentar contra la diversidad es un serio problema que afecta a todas y cada una de las estructuras sociales y profesionales del mundo. Pero ¿y si pudiéramos usar una herramienta para predecir y combatir este tipo de discriminación? Y, ¿quién sería capaz de crear una herramienta así de potente? Un equipo del Instituto de Física y Tecnología de Moscú (MIPT) y el Center for Healthy Aging, de la Universidad de Copenhague han conseguido dar los primeros pasos en ese sentido. Gracias a las redes neuronales, han conseguido crear índices de diversidad que explican la discriminación de las compañías con respecto al sexo, la edad y la raza de sus directivos. ¿Y cuál ha sido el resultado?

El algoritmo anti-racista

¿Se puede enseñar a un algoritmo a ser racista? ¿O sexista? Por supuesto, es la magia de la inteligencia artificial. La cuestión es si se puede emplear este efecto en algo positivo. Para profundizar en el tema, hemos contactado con uno de sus autores, Alex Zhavoronkov, profesor en el MIPT, cofundador y director general de Insilico Medicine. “Ya que la mayoría de los sistemas de Inteligencia Artificial aprenden de los desarrolladores, en el caso de que los entrenamientos estén sesgados, es probable que la IA esté sesgada”, explica Alex al preguntarle si una Inteligencia Artificial puede ser discriminadora. “Es un problema muy conocido entre los investigadores. Incluso los motores de búsqueda estarán ‘contaminados’ a pesar de los muchos esfuerzos de las compañías por evitar la discriminación”. Para ejemplificar este hecho, el experto nos cuenta como en el pasado, al buscar una imagen a partir de la palabra “criminal”, se obtenía un número desproporcionado de fotografías de minorías debido a la mayor representación de estos en los muchos sitios web. Era claramente una manifestación discriminatoria. “A día de hoy, la mayor parte de las imágenes contiene caras blancas porque los motores de búsqueda están tratando de equilibrar la respuesta”.

Leer nota completa:
https://hipertextual.com/2017/08/inteligencia-artificial-discriminacion

Leave a Reply