![](https://magnuscmd.com/wp-content/uploads/2017/07/Hugo_Feature-Image-Web.png)
“Algoritmos”. “Big Data”. “Inteligencia artificial” (IA). “Machine Learning” (ML). Últimamente, estas son palabras que saltaron de diálogos técnicos (en la mente de muchos probablemente desde la ciencia ficción) directamente a salas de conferencias de grandes y pequeñas empresas alrededor del mundo. Tópicos que, en su momento eran solamente campos de investigación altamente específicos, son ahora temas que definen objetivos empresariales tanto de corto como de largo plazo. El sector de la energía no es ajeno a esto. En este artículo, profundizamos un poco en lo que cada una de estas palabras significa y como pueden (y están) siendo aplicadas en el sector de la energía.
SOBRE ALGORITMOS
Empecemos por “algoritmo” (esa palabra mágica que, utilizada casualmente, te hace parecer o bien muy listo o bien soberbio). Pero la verdad es que no es para tanto: un algoritmo es una secuencia ordenada de instrucciones precisas y ejecutables que definen un proceso (idealmente) terminante. Cualquier semejanza con una receta de cocina no es coincidencia. Asimismo, ¿es esa receta de cocina un algoritmo? Probablemente no. ¿Por qué? Primitivas y precisión.
En este contexto, primitivas son el marco de reglas que están subyacentes a la comprensión inequívoca de las instrucciones, por ejemplo, en el caso de la receta la definición podría ser el idioma en que está escrita, para un ordenador seria todo el conjunto de principios y requerimientos necesarios para leer y ejecutar dichas instrucciones.
La precisión se refiere a la “claridad” de las instrucciones. El conjunto de instrucciones debe ser tal que, dadas las mismas primitivas, instrucciones y condiciones de ejecución, el conjunto de resultados será el mismo. Si una receta te dice – “una pizca de sal mientras calientas” – el resultado final muy probablemente variará, no solo con el cocinero, sino también con cada ejecución. Asimismo, si las instrucciones dicen – “1.87g de sal, depositados en el centro de la superficie de un recipiente cilíndrico con agua a una temperatura de 42.3ºC (medida en la parte interior del recipiente)” – muy difícilmente el resultado variará si las instrucciones son correctamente implementadas.
SOBRE «BIG» DATA
“Somos una organización orientada/centrada en datos/información”. Probablemente ya has escuchado esta frase en algún lugar y, de hecho, está resonando tanto hoy en día, que ha hecho con que categorías profesionales con nombres tan curiosos como “Bedel de Datos”, sean hoy ocupaciones muy socialmente valoradas.
Pero en realidad, ¿qué significa? Para empezar, datos e información son cosas muy distintas. Información es el resultado final del procesamiento de varios datum (dato), es decir, de varios factos/elementos unitarios. Por lo tanto, como primero corolario, podemos retirar que extraer información de un conjunto de datos aislados puede ser una “ciencia” en si misma.
Asimismo, esto no es nuevo, como individuos (pero particularmente como organizaciones), desde tiempos inmemoriales hemos transferido información entre nosotros. Entonces ¿qué ha cambiado? La cantidad de información. El mes pasado, casi 3500 fotos se han subido a Facebook… ¡por segundo! La velocidad de adquisición, la diversidad topológica y hasta la simple magnitud de los datos brutos que algunas organizaciones manejan actualmente, unidas a la necesidad de procesamiento para de ahí extraer información, no pueden ser manejadas utilizando sistemas y herramientas “tradicionales”. El proceso puede llegar a ser tan extenso y complejo, que requiere distribuir tanto la capacidad de procesamiento como de almacenamiento por varias máquinas (y hasta conjuntos de máquinas) que no necesariamente se encuentran en la misma ubicación física.
De todas formas, aunque todos podemos aceptar que 3500 fotos por segundo se merecen el título de “Big Data”, ¿dónde está el límite inferior, es decir la barrera entre “tradicional” y “big”? No hay ninguna respuesta clara al respecto y, por lo tanto, el término “Big Data” sigue siendo utilizado (y muchas veces abusado). Una cosa es clara: los “datos” son la nueva moda.
SOBRE INTELIGENCIA ARTIFICIAL
Antes de nada, la IA no es algo nuevo. Pero, aunque ya tenga alguna edad, uno no necesita entender de que va para suponer que se trata de una especialidad llena de controversia. Intenta, por ejemplo, definir la palabra “inteligencia”. ¿No es fácil correcto? Ahora añada otra variable: ¿si algo se comporta de forma aparentemente “inteligente”, significa que se puede considerar “inteligente”? Puede parecer una cuestión irrelevante, pero es en realidad fundamental para el tema.
Si afirmamos que – “los perros son inteligentes” –, no significa esto que, si yo creo un robot que se comporta de tal forma que otro humano no consigue diferenciar entre mi robot y un perro verdadero, entonces para todos los efectos y para esa persona, ¿el robot ÉS un perro y, por lo tanto, inteligente? Si es así, entonces esta es una conclusión extrapolable a los humanos. Aquel que se considera el padre del ordenador moderno creía que si y hasta diseñó una prueba para averiguar si una maquina es, o no, inteligente. ¿Quieres probar? Inicia una conversación (en inglés) con Cleverbot o Mitsuku por ejemplo, y pondera: si fuera una conversación de WhatsApp con un desconocido ¿notarias la diferencia?
Hasta el momento el consenso (aunque no sin sus disidentes) es que ninguna máquina ha pasado el Test de Turing. No porqué no se hayan confundido con un humano (claramente ya hemos pasado esta fase) pero porque ninguna máquina lo consigue hacer en toda y cualquier situación o se adapta lo suficientemente rápido sin ayuda externa (para ser justos con las maquinas tampoco nosotros humanos lo hacemos la mayoría de las veces).
Esto ha llevado a la diferenciación entre Inteligencia Artificial General (AGI por su sigla en inglés o simplemente IA Fuerte) y la creación de sistemas “inteligentes” hiper-optimizados y enfocados en tareas muy específicas (IA débil). ¿Qué significa esto? Bueno es la diferencia entre un “chatbot” (programa de conversación) genérico (como los mencionados anteriormente) y uno enfocado en liderar negociaciones, enseñar matemática a crianzas, estimular una persona a hacer ejercicio o ayudar un técnico a solventar un fallo mecánico.
SOBRE MARCHINE LEARNING (aprendizaje automático)
“Aprender”, tal y como la “inteligencia”, cubre un abanico muy largo de procesos que hacen de este concepto algo muy difícil de definir. Por lo tanto, tal y como en el caso de la IA, se pueden esperar discrepancias en relación con lo que realmente significa ML. Asimismo, si consideramos “aprender” como “obtener conocimiento, comprensión y modificar comportamientos mediante la experimentación y la instrucción” e imaginamos una máquina haciéndolo, tendremos una imagen bastante clara de lo que supone.
ML ha disparado la calidad de la “AI débil”. A grandes rasgos, se trata de una serie de algoritmos que, bajo ciertas condiciones, permiten a maquinas cambiar (sin interferencia humana) su estructura, programa o datos, con base en sus propios inputs o información externa. Por ejemplo: si, tras cada ciclo, la performance de una aspiradora “inteligente” aumenta, entonces podemos decir que dicha aspiradora ha “aprendido”. ¿Pero cómo se hace? Los problemas asociados a tomadas de decisión automáticas han sido estudiados desde hace décadas y han tenido varios abordajes, pero terminaron convergiendo en su mayoría en esta disciplina que ahora combina varias técnicas:
- Matemáticas: desde estadística, probabilidad hasta teoría de juegos
- Modelos del Cerebro: simular las redes neuronales (conexiones entre nodos) en el cerebro es una de las formas más utilizadas y efectivas para ML
- Psicología: evaluar si el concepto de “recompensa” afecta (y como) la evolución de la performance
- Modelos evolucionarios: utilizando un tipo de proceso de selección (inspirado en la selección natural), mediante inúmeras iteraciones se buscan optimizar resultados
Desde tu motor de búsqueda hasta tu tienda de moda física, este tipo de programas y sistemas son ubicuos actualmente. Los podrás encontrar en: ciencia, reconocimiento de voz, reconocimiento facial, seguimiento, vigilancia, el mercado bursátil, ciberseguridad, control de robots, etc.
ML utilizando redes neuronales es de tal forma eficaz en su función que ya han evolucionado a un sistema de capas llamado aprendizaje profundo (o Deep Learning – DL). DeepMind de Google o Watson de IBM son ejemplos de tales sistemas.
EN EL MERCADO ENERGÉTICO
No será difícil de imaginar como estas herramientas tienen la capacidad de incrementar la performance, eficiencia o confiabilidad de las varias facetas de la industria energética. Desde la producción, hasta la distribución, pasando por la gestión, la demanda y hasta los mercados. Veamos un poco como se utiliza actualmente.
Los objetos son tan buenos como sus materiales y construcción, pero la optimización de materiales, diseño y construcción pueden llevar años. Y solía llevar años. Pero, tal y como se hace en la industria de la farmacología, “Big Data” y ML ya son utilizados en ingeniería para mejorar el desarrollo de una vasto rango de equipamientos – desde baterías, pasando por fotocélulas hasta turbinas de gas.
Las renovables son totalmente dependientes de la meteorología. Aunque modelos puramente de ML no son muy comunes para la previsión meteorológica dinámica, esto no ha impedido IBM de lanzar un modelo meteorológico de aprendizaje automático y un sistema de previsión de renovables para mejorar los resultados de instalaciones solares. Otros usos incluyen la mejora del seguimiento en los paneles para optimizar al máximo la producción de la instalación.
Si consideramos otro acrónimo famoso hoy en día – el IoT (Internet de las cosas) – por ejemplo, con una red tan vasta de sensores y equipamientos (semi-)autónomos, la combinación entre grandes sistemas de datos (“big data”) y ML puede ayudar a empresas/instituciones a compactar los billones de puntos de datos que tienen, en información relevante tal y como se hace en los casos anteriores: revisando y analizando los datos para encontrar patrones y similitudes de los cuales se puede “aprender” de forma a mejorar los sistemas de toma de decisión, bien sea de forma automática o manual.
Bajo este concepto, en una clara aplicación de “big data”, empresas como AutoGrid crean software que, mediante la asimilación de grandes cantidades de datos (como consumo, sensores, transformadores, generadores, cortes de suministro, fallos, …), pueden generar predicciones automáticas, optimizar la performance de los dispositivos conectados a la red o monitorizar tendencias de consumo.
Si entramos en el campo industrial, empresas como SparkCognition, utilizan ML para solucionar dos problemas en un abanico de industrias:
- Prever la probabilidad de accidentes o fallos (por ejemplo, un rodamiento roto en una turbina de gas o un aspa de una turbina eólica) antes que ocurran, mediante la detección de patrones irregulares;
- Mejorar el mantenimiento y operaciones mediante el procesamiento de lenguaje, para tratar datos desestructurados y buscar fácilmente reportes de incidentes semejantes o servir de interfaz con la maquina
A inicios de este año Google DeepMind ha discutido con el TSO de Reino Unido (lo equivalente a REE) la posibilidad de utilizar su sistema para balancear el suministro/demanda de energía en Gran-Bretaña, por ejemplo, prebendo picos de demanda y desbalances. DeepMind ya tiene histórico de aumentar la eficiencia, ya que ¡bajó el importe de la factura de climatización en el centro de procesamiento de datos de Google en un 40%!
Y, ya que hablamos de energía, porque no el petróleo. Los operadores contantemente necesitan decidir que comandos transmitir a los pozos para optimizar el valor presente neto de la exploración. También, durante las perforaciones, grandes cantidades de datos son recogidas de forma constante y analizados para garantizar el mejor resultado posible. La utilización de “big data” y ML en esta industria ya tiene bastante más de una década.
Es solamente el inicio para esta creciente industria. A cada día generamos más y más datos que son utilizados para optimizar cada vez más los algoritmos de ML. No podemos prever hasta donde llegará el potencial y la aplicación de esta combinación de tecnologías.
¡No te sorprendas si la próxima “revolución energética” viene de las manos de las máquinas!
Hugo Martins | Energy Consultant
Si te ha parecido interesante ¡compártelo!
Artículos Recientes