Inteligencia Artificial: un Breve Resumen sobre Asuntos de Ética

Los sistemas de IA, a pesar de estar basados ​​en el aprendizaje automático (Machine Learning, en inglés), originalmente siempre los desarrollan los seres humanos. La posibilidad de cometer errores o perpetuar prejuicios está siempre a la vuelta de la esquina.

code of ethical behavior shop front


Inteligencia artificial y ética: ¿pueden estos dos conceptos estar juntos? Estas tecnologías ya están teniendo un impacto importante en los modelos de negocio y en la organización del trabajo. Una revolución capaz de enfrentar una palabra ciertamente no tan común en las Tecnologías de la Información y Comunicación (TIC), precisamente la ética. Dejando a un lado por un momento el tema del trabajo (¿la IA robará los trabajos humanos?), la pregunta en los labios de los expertos se puede resumir de la siguiente manera:
¿Cómo podemos estar seguros de que los sistemas de inteligencia artificial actúan de una manera ética?

Ética en la IA: el riesgo de prejuicios

Los softwares que subyacen a las aplicaciones y servicios de IA no surgen de la noche a la mañana, sino que son desarrollados por alguien: más precisamente, los sistemas de aprendizaje automático necesitan datos "registrados" por los seres humanos (aprendizaje supervisado) o, al menos, seleccionado y preparado (aprendizaje no supervisado). Entonces, al ser elaborados por personas reales, el riesgo está en reproducir errores o prejuicios, incluso involuntariamente introducidos por los desarrolladores, replicándolos en las aplicaciones futuras.
Un caso explicativo de este peligro es lo que ya sucedió en el sistema judicial estadounidense, donde se utilizaron softwares con IA con el objetivo de predecir qué individuos presentan un riesgo mayor de ser "futuros delincuentes": el siguiente análisis ha puesto en evidencia la presencia de prejuicios contra gente de color.  
En estos casos, ¿cómo podemos hablar de una inteligencia artificial ética? ¿Cuál es el límite entre la ética humana y el uso ético de la inteligencia artificial?
Text LinkGET IT NOW

¿Conjuntos de datos demasiado desequilibrados?

Cuando hablamos de un uso ético de la inteligencia artificial, el riesgo está, en general, en la elaboración de conjuntos de datos desequilibrados, que sobreestiman o subestiman el peso de ciertas variables en la reconstrucción de la relación causa-efecto necesaria para explicar ciertos eventos y, sobre todo, predecirlos.

En un escenario positivo, los sistemas de inteligencia artificial pueden usarse para mejorar el juicio humano y reducir nuestros sesgos conscientes o inconscientes. Sin embargo, los datos, los algoritmos y otras opciones de diseño pueden reflejar e incluso amplificar las suposiciones culturales existentes en un momento específico en el tiempo y, en consecuencia, las desigualdades.

La ética es un tema que debe estar cada vez más presente en el desarrollo futuro de la inteligencia artificial, a partir de la regla básica que establece que la IA debe ponerse siempre al servicio de las personas, y no al revés.

Un decálogo para la inteligencia artificial ética

Estos principios han sido bien explicados por un decálogo redactado por UNI Global Union, una federación internacional que une a los sindicatos del sector terciario. Entre los puntos más importantes del documento está la necesidad de desarrollar una inteligencia artificial responsable, segura y útil, donde las máquinas mantengan el estatus legal de herramientas y las consejera jurídicas mantengan el control y la responsabilidad sobre las mismas.

Esto implica que los sistemas de IA deben diseñarse y administrarse de acuerdo con la legislación aplicable, incluida la privacidad. No solo eso: los trabajadores deben tener derecho a acceder, administrar y controlar los datos generados por los sistemas de IA, dado su poder para analizar y usar estos datos. Además, los empleados también deben tener el "derecho de explicación" cuando los sistemas de IA se utilizan en actividades de recursos humanos como la contratación, la promoción o el despido.

Como se mencionó anteriormente, en el diseño y en el mantenimiento de la inteligencia artificial, es esencial que el sistema tenga en cuenta los prejuicios humanos negativos o peligrosos, y que se identifique cualquier error - en relación con el género, el origen étnico, la orientación sexual, la edad, etc. - para que no se propague.

YES, I WANT IT!robot's hand


¿Y qué hay de ti? ¿Adoptarías la IA en tu negocio?

Contáctanos para saber más sobre nuestros productos.

⬅︎ Back to blog