INTELIGENCIA ARTIFICIAL PARA LA TOMA DE DECISIONES

INTELIGENCIA ARTIFICIAL PARA LA TOMA DE DECISIONES

Inteligencia Artificial

El 97% de las decisiones empresariales no están basadas en datos, era el impactante título del artículo de la revista on line Factoría del Futuro que resumía el informe 2020 Global State of Enterprise Analytics de MicroStrategy Incorporated, proveedor líder mundial de software de movilidad y análisis empresarial. 

Y es que, sorprendentemente, el informe había descubierto que cuando se trata de tomar decisiones que deberían basarse en datos, la mayoría de la fuerza laboral “improvisa”, por diversas razones:

  • Porque es difícil acceder a los datos (¿dónde están?, ¿en qué formato?, ¿se requieren determinados privilegios -administrativos u organizativos- para acceder a ellos?, etc)
  • Porque transformar los datos en información útil para la toma de decisiones lleva demasiado tiempo. Y es que tener datos no equivale necesariamente a tener información, conocimiento ni sabiduría sobre un cierto tema.
Relación entre Datos, Información, Conocimiento y Sabiduría. 
Se representa habitualmente en forma de pirámide, cuya base son los datos y su cúspide es la sabiduría.
Relación entre Datos, Información, Conocimiento y Sabiduría.
Los datos, sin una determinada organización y sin un contexto, no son información, de la misma forma que un almacén de libros no es lo mismo que una biblioteca.
  • Porque no dispone de herramientas autoservicio para el análisis de datos (o no sabe emplearlas), por lo tiene que recurrir a la ayuda del departamento de Tecnologías de Información o a un analista de negocios.
La información es poder, pero sólo si la gente es capaz de: acceder a ella, entenderla y aplicarla
La información es poder, pero sólo si la gente es capaz de: acceder a ella, entenderla y aplicarla

¿Cómo tomamos las personas nuestras decisiones?

Si la mayoría de las decisiones empresariales las toman las personas, es interesante aprender un poco más acerca de este proceso.

Pensar rápido, pensar despacio (Spanish Edition) by [Kahneman, Daniel]

En su libro ”Pensar rápido, pensar despacio”, el Premio Nobel de Economía Daniel Kahneman describe los dos sistemas diferentes con los que nuestra mente genera nuestros pensamientos:

  • Sistema 1: es rápido, automático, frecuente, emocional, estereotipado y subconsciente; su función es generar intuiciones que con frecuencia nos sirven adecuadamente (pero no siempre). 
  • Sistema 2: es lento, requiere esfuerzo, poco frecuente, lógico, calculador y consciente; su función es tomar las decisiones finales tras observar y controlar las intuiciones del Sistema 1.

Kahneman detalla en su libro una serie de experimentos que podrían indicar que el Sistema 1 suele imponerse frente al Sistema 2 la mayoría de las veces, porque este tiende a ser perezoso: como el Sistema 1 consume poca energía y da soluciones aceptables en la mayoría de los casos, habitualmente prevalece sobre el Sistema 2, que pocas veces corrige la decisión del Sistema 1, y se limita simplemente a validarla. 

Por eso Kahneman se interesa por el estudio de los sesgos cognitivos, tales como confundir causalidad con casualidad, llegar a conclusiones precipitadas, exagerar el efecto de las primeras impresiones, confiar en exceso en los datos conocidos sin tomar en cuenta otros datos también disponibles, sobrevalorar los datos que refuerzan nuestra primera impresión y descartar los que nos llevan la contraria… y otros muchos que afectan al Sistema 1. Aquí un ejemplo de sesgo ¿tú también caíste en él?

Podemos resumir todo lo anterior diciendo que para no agotarnos tomando infinidad de decisiones optimizadas (concienzudas, meditadas y basadas en datos) o para no caer en la denominada “Parálisis por Análisis”, nos conformamos con las soluciones intermedias que nos ofrece el Sistema 1, aunque ahora sabemos que puede que no sean las mejores. ¿Podría ayudarnos la IA a tomar mejores y más rápidas decisiones basadas en datos? 

La Inteligencia Artificial como ayuda para la toma de decisiones

Es aquí donde entra en juego la Inteligencia Artificial (IA o también AI, del inglés Artificial Intelligence), que nos rodea en multitud de decisiones diarias, por ejemplo las sugerencias de contenidos en NETFLIX, los artículos recomendados de AMAZON o las compras relacionadas, los publicaciones que aparecen como más relevantes en nuestras redes sociales, los resultados de búsqueda en Google, etc. Dejamos para el lector la tarea de evaluar por sí mismo si estos sistemas nos ayudan a tomar decisiones (qué ver, qué comprar, qué leer) o más bien nos dirigen a donde le interesa al propietario del algoritmo. El tema es muy interesante y tiene contenido más que suficiente para un artículo en profundidad.

Entonces, ¿no sería positiva la ayuda de una Inteligencia Artificial, capaz de considerar infinidad de datos de forma casi instantánea y sin la influencia de los sesgos humanos? 

Inconvenientes de la Inteligencia Artificial

En MyTips publicamos este artículo con unas nociones básicas sobre IA. Su lectura os ayudará a comprender los siguientes inconvenientes.

  • No tienen un razonamiento causal, es decir, no tienen una consciencia que relacione una causa con un cierto efecto. Alimentadas con enormes volúmenes de datos, las IA pueden encontrar correlaciones inverosímiles, y son los expertos en el sector donde se aplica la IA quienes deben encontrarle la lógica al resultado proporcionado por el algoritmo. Por ejemplo, esta web recopila infinidad de disparatados ejemplos de correlaciones no causales, como por ejemplo, la aparente vinculación entre el gasto de los EEUU en Ciencia, Espacio y Tecnología con el número de suicidios por ahorcamiento, estrangulación y asfixia, con una sorprendente correlación del 99,79%, pero ¿cabe alguna explicación lógica para esta aparente correlación?
Ejemplo de correlación casi perfecta, aunque sin aparente causalidad
Correlación, que no causalidad entre el gasto de los EEUU en ciencia, espacio y tecnología y el número de suicidios por ahorcamiento, estrangulación y asfixia
  • No interpretan el sentido de las cosas, no pueden poner las cosas en contexto, porque “su contexto” es muy reducido, se limita al conjunto de datos que se le ha proporcionado para aprender, de ahí extraen todo su conocimiento y si los datos no son buenos (están incompletos, son erróneos, sobre representan o subrepresentan un determinado fenómeno, son datos sesgados, etc) los resultados serán malos. Es lo que en la jerga se conoce como GIGO, del inglés Garbage In, Garbage Out , lo que viene a decir que si al sistema de IA entra basura, sus resultados serán basura.
  • No pueden auditarse, los algoritmos no pueden autocomprobarse para detectar posibles errores, aunque sí es posible “enfrentar” algoritmos entre sí como en el caso de las Generative Adversarial Networks (GAN), en español Redes Generativas Antagónicas

Es importante no olvidar esto, porque una vez puesta en marcha, la Inteligencia Artificial hará lo que le pidamos, y eso es un problema. Si el algoritmo es defectuoso o no  hacemos correctamente nuestra petición, con todo detalle y conociendo todas las posibles consecuencias, podría pasar como en el cuento “La pata de mono” de W.W. Jacobs en el que la pata disecada de un mono es un talismán que concede tres deseos a su propietario, aunque estos deseos se cumplen de forma contraproducente; Janelle Shane lo explica muy bien en esta charla TED

Y es que vivimos en la edad del algoritmo: buscando la velocidad, la eficiencia y la resolución de problemas complejos, hemos dejado en manos de los algoritmos las decisiones que afectan a nuestras vidas. Además, se supone que los algoritmos ofrecen una mayor imparcialidad: todos somos juzgados de acuerdo con las mismas reglas, con la efectividad y la asepsia de las máquinas, a salvo de los prejuicios y de los sesgos propios de los humanos.

Pero debemos tener claro que esto no es así, y si lo olvidamos, la Inteligencia Artificial puede reproducir y amplificar los efectos negativos de los sesgos humanos

Tendremos sistemas supereficientes tomando incansablemente decisiones erróneas en infinidad de situaciones: calificando a maestros y estudiantes, discriminando currículos por sexo o raza, concediendo (o negando) préstamos en razón del barrio donde vive el solicitante, evaluando a trabajadores según métricas equivocadas, condicionando a los votantes haciéndoles vivir en sus burbujas informativas, radicalizando a la sociedad a medida que se les recomienda contenidos en Youtube, decidiendo sobre la libertad condicional de presos, diagnosticando enfermedades y/o asignando los recursos económicos de empresas y administraciones públicas… En definitiva, en cualquier aplicación dónde se esté utilizando el Machine Learning

Cita de Peter Drucker, perfectamente aplicable a sistemas de IA que funcionan erróneamente:
"No hay nada tan inútil como hacer con gran eficiencia algo que no debería haberse hecho en absoluto"
Perla de sabiduría perfectamente aplicable a sistemas de IA funcionando erróneamente

En el libro,  “ARMAS DE DESTRUCCIÓN MATEMÁTICA: Cómo el Big Data aumenta la desigualdad y amenaza la democracia”, (ISBN-10: 8494740849, ISBN-13: 978-8494740848) su autora Cathy O’Neil recopila numerosos ejemplos de algoritmos que a pesar de la buena intención de sus creadores funcionan de forma inesperada. 

Portada del libro "Armas de Destrucción Matemática: cómo el Big Data alimenta la desigualdad y amenaza la democracia"
Portada del libro «Armas de Destrucción Matemática: cómo el Big Data alimenta la desigualdad y amenaza la democracia»

Yo aporto aquí otros que han aparecido recientemente en los medios. Algunos afectaron a grandes empresas tecnológicas que se supone que deben saber bastante de Inteligencia Artificial, como Apple y Amazon:

Pero, ¿es que un algoritmo puede ser racista o sexista? No, simplemente el algoritmo “aprende” a serlo a partir de los datos con los que se le ha entrenado. 

Si por ejemplo, la IA se utiliza para contratar directivos y los datos de entrenamiento muestran que en los últimos años se han contratado muchos más hombres que mujeres para esos puestos (los datos están desbalanceados a favor de los candidatos masculinos), probablemente la IA “llegará a la conclusión” de  que para aumentar su tasa de acierto debe optar por candidatos masculinos.

Por estas razones, resulta cada vez más necesario dotar de una dimensión ética a las IA, especialmente en aquellas aplicaciones que afectan a las vidas de las personas. Afortunadamente, cada vez aumenta más la concienciación sobre este tema, como muestra esta fotografía tomada en una presentación de la compañía Bosch

Un momento de una conferencia de la compañía germana Bosch en la que explican su código ético para la IA desarrollada en la compañía.
Código Ético de la IA de Bosch:
La IA debería ayudar y apoyar a las personas (inventada para la vida)
La IA no debería tomar decisiones que afecten a las personas sin una supervisión humana
Queremos una IA segura, robusta y explicable
Queremos desarrollar una IA en la que se pueda confiar

Conclusión

No quiero que tras leer este artículo os quedéis con la impresión de que no soy partidario de la aplicación práctica de la IA. De hecho, yo mismo estoy haciendo algunas pruebas para aplicar el Machine Learning en mi trabajo actual, concretamente, una aplicación de Aprendizaje Supervisado que utiliza uno de sus algoritmos típicos.

Mi intención con este artículo era simplemente mostrar algunas de las debilidades de la IA / Aprendizaje Automático, algunas de las cuales me las he encontrado en este desarrollo práctico que comento, causadas por ruido en los datos utilizados para entrenar al algoritmo y el desbalance en los datos.

Poco a poco he podido ir resolviendo estos problemas, haciendo uso tanto del conocimiento acerca de la aplicación de negocio como de los conocimientos sobre Aprendizaje Automático. Y es que para que una aplicación de este tipo funcione es muy importante que tanto los especialistas del sector donde se pretenda aplicar la IA como los expertos en la propia IA trabajen en equipo, porque si no, tendremos algo parecido a lo que se muestra en el siguiente chiste:

Chiste acerca de cómo funcionan las aplicaciones de la IA
¿Este es tu sistema de Machine Learning?
¡Sí!, vuelcas los datos en este gran montón de Álgebra Lineal y recoges las respuestas en el otro lado.
¿Y qué pasa si las respuestas están mal?
Pues entonces remueves el montón hasta que empiece a parecer que son correctas

Para saber más

El problema del sesgo de género en las IA

El problema del sesgo racial en las IA

https://www.xataka.com/inteligencia-artificial/algoritmos-sesgo-racial-genero-problema-que-venimos-arrastrando-anos-80

Sesgo de automatización en la toma de decisiones

https://www.xataka.com/inteligencia-artificial/inteligencia-artificial-nos-ayuda-a-tomar-decisiones-dificiles-tendemos-a-permitir-preferir-que-decida-nosotros

Artículos relacionados

Nociones sobre Inteligencia Artificial

Víctor D. Parra

5 comentarios

Víctor D. Parra Publicado el07:53 - 26 marzo 2020

Comparto este enlace relacionado con el tema:
https://retina.elpais.com/retina/2020/03/25/tendencias/1585129233_858335.html

Menciona alguna de las cosas que comento en el post, como la importancia de la calidad de los datos y la necesidad de expertos en el campo en el que se pretende aplicar la IA. También hace mención al hype de la IA, la moda existente que tiende a dar poderes casi mágicos a las IA y que hace pensar que puede aplicarse a cualquier tipo de problemas, en plan «dame datos y con mi potente IA yo puedo darte soluciones a cualquier problema»

Víctor D. Parra Publicado el15:22 - 29 marzo 2020

Y este otro que insiste sobre la misma idea:

https://www.abc.es/espana/galicia/abci-riesgos-inteligencia-artificial-sin-control-humano-202003252126_noticia.html

Víctor D. Parra Publicado el11:20 - 20 mayo 2020

Comparto este interesante artículo en la revista on line Naukas y titulado «La Inteligencia Artificial del presente (Menos inteligente y autónoma de lo que pensamos)» que complementa muy bien este artículo.

https://naukas.com/2020/05/13/la-inteligencia-artificial-del-presente-menos-inteligente-y-autonoma-de-lo-que-pensamos/

Víctor D. Parra Publicado el07:28 - 5 junio 2020

Dejo aquí el enlace a una lectura complementaria en Retina, la revista de Tecnología del periódico El País. Su título, «Los algoritmos se sientan en el diván de la ética»

https://retina.elpais.com/retina/2020/06/03/tendencias/1591169562_969774.html

Víctor D. Parra Publicado el12:19 - 1 octubre 2020

Dejo aquí el enlace al artículo del blog de ISA España «El Sesgo en la Inteligencia Artificial» de Alejandro Beivide García
Director de Transformación Digital y Sistemas de Control – Acciona – Agua que además es miembro del Grupo Industria Conectada 4.0 en ISA Sección Española

https://isa-spain.org/el-sesgo-en-la-inteligencia-artificial

Deja un comentario