Inicio   >   Blog   >  Sostenibilidad IA

La IA aplicada a la Sostenibilidad. Su evolución. Riesgos y beneficios (Parte I)

Antes de adentrarnos en la aplicación, los posibles usos de la Inteligencia Artificial (IA) a la Sostenibilidad estimo conveniente ver un poco su historia su evolución. De dónde nos viene esta revolución tecnológica, o como se suele decir y utilizar en este último tiempo, el término “tsunami” en las cuestiones normativas de ESG.

Sin hacer un relato detallado para este artículo que pretende ser un disparador, una oportunidad de plantearnos algunas cuestiones a los efectos de que podamos, tal vez encontrarle algunas respuestas. ¿Pero antes que entendemos por IA?

La IA es un concepto que por su actualidad y continuo desarrollo, se torna difícil de definir, pudiendo entender como un área de estudio de la informática y también como sistemas de información diseñados para resolver situaciones que normalmente requieren de la inteligencia humana como el aprendizaje, razonamiento y la toma de decisiones. Es entonces la capacidad de los sistemas computacionales para procesar información de manera lógica y tomar decisiones basadas en dicho procesamiento

Un poco de historia….

Ya en la década del 40 de la mano de los matemáticos Wiener (Teoría de la información y sistemas) y Neumann (Teoría de Juegos) se dieron las bases a la futura IA, quienes trabajaron en la teoría de los sistemas y la computación que le darían sus bases, pero fue en la década del 50 cuando Alan Turing publicó un artículo titulado «Computing Machinery and Intelligence» en el que propuso lo que ahora se conoce como la «Prueba de Turing», un concepto que aborda la cuestión de si una máquina puede exhibir un comportamiento indistinguible del de un ser humano en términos de inteligencia. Sentó las bases de la inteligencia artificial pero más desde lo teórico y conceptual

Contemporáneamente, John McCarthy a quien se lo conoce como el padre de la IA, por su aporte práctico, desarrollo y promoción de la disciplina, acuñandose ya sí el termino “inteligencia artificial” en la conocida Conferencia de Dartmouth (1956), considerada como el evento que marcó el inicio de la IA. McCarthy contribuyó al desarrollo de lenguajes de programación específicos para la IA.

Aunque por esos años la computadora UNIVAC I realiza la primera simulación de una red neuronal, las redes eran primitivas y la tecnología no estaba lo suficientemente avanzada para implementaciones prácticas.

Década de 1960: Reglas y Resolución de Problemas. Desarrollo de los primeros programas de resolución de problemas, como el «General Problem Solver» de Newell y Simon.

Década de 1970: Sistemas Expertos. Desarrollo de sistemas expertos como DENDRAL y MYCIN, que utilizan reglas para imitar el razonamiento humano en dominios específicos.

Década de 1980: Conocimiento y Aprendizaje 1980. Auge de la IA simbólica y el enfoque en la representación del conocimiento.

1986: Aparece el concepto de machine learning con la técnica de retro propagación para entrenar redes neuronales. Con la introducción de la retro propagación (backpropagation), las redes neuronales experimentan un renacimiento. La retro propagación es un algoritmo de entrenamiento que ajusta los pesos de las conexiones entre neuronas para minimizar la diferencia entre la salida esperada y la salida real. Esto permite a las redes aprender patrones y mejorar su rendimiento con el tiempo.

Década de 1990: Aprendizaje Profundo y Agentes Inteligentes.

1997: IBM’s Deep Blue derrota al campeón mundial de ajedrez, Garry Kasparov.

1998: Se desarrollan agentes inteligentes capaces de aprendizaje en entornos complejos.

Principios del Siglo XXI: Auge del Machine Learning

2009: Desarrollo de la primera arquitectura de deep learning eficiente, con el uso de GPU, por parte de Geoffrey Hinton. A medida que la potencia de procesamiento aumenta con el uso de GPU, las redes neuronales profundas ganan popularidad. Estas redes, conocidas como redes neuronales profundas, contienen múltiples capas de neuronas, lo que les permite aprender representaciones jerárquicas de datos.

2011: IBM Watson gana en el programa de televisión Jeopardy, demostrando la aplicación práctica de la IA en el procesamiento del lenguaje natural.

Década de 2010: Expansión de la IA.

2012: Éxito del enfoque de deep learning en la competición ImageNet, marcando el comienzo de la revolución del aprendizaje profundo. AlexNet, un modelo de red neuronal convolucional (CNN), logra un avance significativo en la clasificación de imágenes, demostrando la eficacia de las redes neuronales en tareas de visión por computadora.

2014: Google presenta el sistema de reconocimiento visual DeepMind, que supera a los humanos en juegos de video.

Década de 2020: Generación de Contenido y GPT-3/4/pro

La inteligencia artificial generativa alcanza nuevas alturas con modelos como GPT-3/4/Pro de OpenAI, que puede generar texto coherente y creativo.

También surgen otros modelos no solo de generación de texto sino también de imágenes (fotos y videos) y audio.

Como funciona la IA. Funcionamiento de las Redes Neuronales:

Las Inteligencias Artificiales emplean algoritmos y modelos matemáticos para analizar extensas cantidades de datos y adoptar decisiones basadas en patrones y reglas predefinidas mediante el aprendizaje automático. Este último se refiere a la capacidad de una máquina para aprender de manera autónoma a partir de datos, sin requerir una programación específica con ese propósito. Este enfoque permite que la IA perfeccione su precisión y eficiencia a lo largo del tiempo, ajustándose dinámicamente a nuevas situaciones y datos que se le presentan.

¿Cómo procesa la IA la información?

Según la complejidad de los datos los ordenadores pueden utilizar lo que hemos mencionado como aprendizaje profundo para los más complejos o aprendizaje superficial o simple para los menos complejos. En ambos casos se utilizan las redes neuronales que consisten en capas de neuronas interconectadas (nodos o unidades). Cada conexión tiene un peso que se ajusta durante el entrenamiento. El proceso básico de una red neuronal implica: 

Entrada: Las neuronas en la capa de entrada reciben datos.

Procesamiento: Las capas intermedias, llamadas capas ocultas, realizan operaciones matemáticas en los datos de entrada mediante la aplicación de pesos a las conexiones. La introducción de funciones de activación no lineales permite a la red aprender patrones complejos.

Es lo que se conoce como la caja negra de la IA, en oportunidades no se puede conocer todas las operaciones que se realizan aquí y ello está determinado por: la complejidad de los modelos, la abstracción de características, proceso de aprendizaje automático, interacciones no lineales.

Salida: La capa de salida produce el resultado final de la red.

Durante el entrenamiento, se compara la salida de la red con la salida esperada, y los pesos de las conexiones se ajustan en función de la diferencia, utilizando algoritmos de optimización como el descenso de gradiente y a esto se le denomina retro propagación. 

Hasta aquí hemos visto algunos conceptos básicos para poder entender luego como aplica la IA a nuestras distintas áreas de trabajo y los riesgos que puede aparejar además de los beneficios que puede aportar.

Veamos algunos campos en los que ya se está aplicando y que crecen día a día, minuto a minuto:

Los motores de búsqueda aprenden de los datos que proporcionan sus usuarios para ofrecer resultados de búsqueda relevantes.

Los programas de traducción de idiomas, basados tanto en texto escrito como oral, recurren a la inteligencia artificial para proporcionar y mejorar las traducciones. La IA también se aplica a otras funciones, como el subtitulado automático.

Vehículos: aunque los coches autónomos aún no son una realidad generalizada, los vehículos ya usan funciones de seguridad impulsadas por IA.

Compras por internet y publicidad: para crear recomendaciones personalizadas, para optimizar los productos, planear el inventario, procesos logísticos, etc.

Asistentes virtuales como Siri y Alexa, traducción automática, análisis de sentimientos en redes sociales.

Robótica: Control y operación de robots para tareas específicas, producción industrial, medicina, etc.

Finanzas y Predicción de Mercados: algoritmos de trading de alta frecuencia, sistemas de recomendación de carteras. 

En la próxima parte de este capítulo veremos algunos ejemplos de aplicación a la sostenibilidad, sus beneficios, riesgos y la regulación de su uso.

 

Resnik

Alejandro Resnik

Product Manager de RSC en EQA

alejandro.resnik@eqa.es

Síguenos                                                                                      

Camino de la Zarzuela, 15 | Bloque 2 | 1ª Planta | 28023 Madrid