Mujeres en el aprendizaje automático: para que la IA funcione por igual, es necesario que todos nos ayuden a diseñarla
Los sesgos se pueden introducir en un sistema de IA de diferentes maneras, ya sea mediante el uso de datos limitados o incorrectos en los algoritmos de aprendizaje automático que entrenan al sistema o a los parámetros algorítmicos que deciden qué datos son los más importantes. Sin embargo, el mayor problema no son los datos o los algoritmos: son los puntos ciegos creados por la falta de diversidad, de experiencia, educación y pensamiento, en los equipos que desarrollan la IA, lo que les dificulta la anticipación de sesgos y su impacto potencial.
Han comenzado a surgir casos reales de IA sesgados hacia las mujeres y otros grupos subrepresentados en roles relacionados con la informática, que es donde los profesionales crean modelos de IA. Por ejemplo, los algoritmos bancarios que otorgan a los hombres límites de crédito mucho más altos y sistemas de reclutamiento laboral que ignoran a las mujeres y a las minorías.
El aprendizaje automático juega un papel clave en la mayoría de las IA utilizadas hoy en día. Es el proceso mediante el cual se utilizan grandes cantidades de datos para capacitar a los sistemas de inteligencia artificial para, por ejemplo, extraer el significado de los archivos de texto o audio para responder preguntas o hacer recomendaciones. La precisión de la IA resultante depende en gran medida de la calidad de los datos y los parámetros codificados en los algoritmos de entrenamiento.
Aunque el proceso está altamente automatizado, el sesgo penetra, intencionalmente o no, al elegir conjuntos de datos de entrenamiento y reglas algorítmicas que determinan cómo se entrena la IA. Los datos defectuosos y los modelos sesgados pueden llevar fácilmente a la IA a conclusiones erróneas que afectan los puntajes de crédito de las personas, las opciones de empleo, los ingresos a la escuela y su nivel de riesgo en casos de tribunales penales.
Aunque las mujeres representan aproximadamente la mitad de la población mundial y casi el 47% de la fuerza laboral de los EE.UU., esta paridad cercana termina cuando se trata de Inteligencia Artificial, donde las mujeres representan solo el 12% de los investigadores que crearon la tecnología. Esta es una estadística sorprendente considerando el gran papel que la IA está comenzando a jugar en la vida personal y profesional de las personas.
Es por esto que muchos líderes advierten que el sesgo de género puede infiltrarse en los algoritmos de IA. Para cambiar esta dinámica, se involucran en una variedad de esfuerzos para crear conciencia y alentar a más mujeres y miembros de otros grupos subrepresentados, a unirse a la profesión.
La ética en la IA es un tema que preocupa a todas las empresas. Lo esencial para esto es crear sistemas de IA justos y garantizar que estén alineados con los valores de los humanos. Y para esto, la diversidad e inclusión son clave en ese contexto.
En IBM tenemos una rica historia de diversidad e inclusión. Construir una IA confiable para nuestros clientes y el mundo es una extensión natural de quienes somos y de lo que creemos.
Es imperativo que la IA de hoy refleje los valores de las poblaciones para las que está creada. Debemos continuar saliendo de nuestros silos, mejorando el desequilibrio de género dentro de la informática y la IA e inyectando un espíritu de diversidad e inclusión en la IA que lo haga más justo, preciso y transparente para todas las personas.