Prejuicios y sesgos en los resultados de las Inteligencias Artificiales

febrero 09, 2023 0 Comments

Prejuicios y sesgos en los resultados de las Inteligencias Artificiales

Prejuicios y sesgos en los resultados de las Inteligencias Artificiales

Durante lo que va de año, hemos realizado unos posts relacionados con las Inteligencias Artificiales, su relación con el Software Libre y el Código Abierto, y de cómo podemos usarlas sobre nuestros sistemas operativos libres y abiertos basados en GNU/Linux. Por ello, hoy abordaremos otro tema interesante sobre las mismas.

Y este es, sobre la posibilidad de obtener «prejuicios y sesgos» en los resultados de las Inteligencias Artificiales. Ya que, si bien IA suelen ser muy útiles, gracias a que pueden producir resultados muy precisos, estos pueden llegar a contener sesgos ideológicos humanos, si no se toman las debidas precauciones o medidas necesarias.

Merlin y Translaite: 2 herramientas para usar ChatGPT sobre Linux

Merlin y Translaite: 2 herramientas para usar ChatGPT sobre Linux

Pero, antes de iniciar este post sobre la posibilidad de obtener «prejuicios y sesgos» en los resultados de las IA, les recomendamos que después exploren la anterior publicación relacionada con las mismas:

Prejuicios y sesgos: ¿Pueden darse en los resultados de las IA?

Prejuicios y sesgos: ¿Pueden darse en los resultados de las IA?

Sobre los prejuicios y sesgos en los resultados de las IA

En lo personal, últimamente he probado y recomendado unas cuantas herramientas de Inteligencia Artificial, las cuales muy seguramente muchas están basadas en el uso del ChatBot llamado ChatGPT de OpenAI. Y no he tenido mayores problemas con resultados erróneos, imprecisos, falsos o inadecuados u ofensivos. Sin embargo, el corto tiempo de estas al aire, muchos seguramente hemos leído sobre situaciones desagradables y hasta inaceptables, sobre resultados generados por las mismas.

Por ejemplo, un caso reciente de resultados erróneos o imprecisos fue el reciente del ChatBot Bard de Google. Mientras que, un caso antiguo de resultados desagradables u ofensivos fue, cuando Microsoft lanzó Tay, un chatbot de inteligencia artificial, en la plataforma de redes sociales Twitter, el cual, luego de 16 horas de funcionamiento, el chatbot publicó miles de tweets, que al final se tornaron abiertamente racistas, misóginos y antisemitas.

Sin embargo, si he notado en Internet, resultados no amigables o agradables, sobre todo cuando se generan imágenes sobre grupos de personas o personas en específico. Por ello, pienso que, el prejuicio y los sesgos humanos, también puede estar presente en el software IA. Y que tal vez, esto puede darse u ocurrir cuando los datos utilizados para entrenar el software IA están sesgados, o cuando el software se diseña teniendo en cuenta un conjunto concreto de valores o creencias de ciertos grupos.

Ya que, muchas veces, en sus diversas etapas de desarrollo, suelen ser diseñadas mediante datos mayoritarios de algún grupo demográfico o prevaleciente sobre otros, o con parámetros para evitar afectar a grupos de poder o favorecer a grupos importantes, de la sociedad.

Medidas posibles para evitarlo

Medidas posibles para evitarlo

Para evitar prejuicios y sesgos en el software IA, deben tomarse siempre por parte de sus desarrolladores, medidas tales como:

  1. Asegurarse de que los datos empleados para entrenar el software de IA son representativos de la población para la que se usará, y de que los valores o creencias incorporados al software son adecuados para el fin previsto.
  2. Implementar medidas de diversidad, inclusión e imparcialidad (DIF) para ayudar a reducir la parcialidad en el software IA. De forma tal, de que no discrimine a determinadas personas o grupos.

Mientras que, los usuarios de IA deberían tener como norma fundamental:

  1. El actuar con cautela al tomar decisiones basadas en software de IA, o al elaborar trabajos, bienes, productos y servicios con sus resultados.
  2. Siempre, deben tener en cuenta el potencial de prejuicios y sesgos de las IA, y de errores e imprecisiones en los datos ofrecidos, antes de tomar una decisión sobre su uso.

Banner de resumen para post

Resumen

En resumen, las organizaciones y las personas deben esforzarse por informarse sobre el potencial de «prejuicios y sesgos» del software de IA y cómo evitarlo. Y los desarrolladores hacer todo lo posible por evitarlo, para así, garantizar que el software de IA se emplee de forma responsable y justa.

Además, recuerda, visitar el inicio de nuestro «sitio web», además del canal oficial de Telegram para más noticias, tutoriales y novedades linuxeras. O este grupo, para más información sobre el tema de hoy.


Some say he’s half man half fish, others say he’s more of a seventy/thirty split. Either way he’s a fishy bastard.