Optimización, modelamiento, y análisis de procesos en ingeniería metalúrgica: aportes desde la inteligencia artificial
- Posted by eiq
- Categories Destacado, Destacado Evento, Noticia Destacada, Noticias
- Date 24 abril, 2020
A través de diversos artículos y participaciones en congresos se han registrado interesantes contribuciones
El término inteligencia artificial (IA) surgió en 1955. IA es una rama de la informática dedicada al desarrollo de algoritmos informáticos utilizados para realizar tareas tradicionalmente relacionadas con la inteligencia humana. En los últimos años, el interés de la industria minera por incorporar técnicas incluidas dentro de la IA en áreas como geología y procesamiento de minerales, ha crecido de forma sostenida.
Una de estas herramientas es soft computing, la cual es definida como un grupo de metodologías y herramientas que pueden asistir en el diseño, desarrollo, y operación a sistemas inteligentes que son capaces de adaptarse, entender, y operar autónomamente en un ambiente bajo incertidumbre e imprecisión. Soft computing incluye métodos como evolutionary computing (EC), swarm optimization (SO), machine learning (ML), entre otras.
ML incluye técnicas que se centran en dotar a los programas con la capacidad de “aprender” y adaptarse, por ejemplo, las redes neuronales artificiales (RNAs), las que simulan el comportamiento del cerebro humano. Sin embargo, para que técnicas como RNAs aprendan y resuelvan problemas complejos es necesario considerar una fase de entrenamiento. Esta última incluye un conjunto de datos y un algoritmo de entrenamiento, usualmente, basado en EC o SO.
Actualmente, muchos artefactos y máquinas implementan los métodos antes mencionados para imitar las funciones cognitivas que los humanos realizan para percibir, razonar, aprender y resolver problemas. Esto último es una de las grandes ocupaciones de los sistemas que buscan automatizar distintas áreas: desde el sistema que reemplaza a los dependientes en supermercados, pasando por la clasificación de información en las redes sociales, hasta procesos tan específicos como los asociados a la minería y metalurgia.
El académico de la Escuela de Ingeniería Química, Dr. Freddy Lucay, ha desarrollado su línea de investigación en esta área, vinculando la IA con el análisis, diseño y optimización de procesos de modelamiento en ingeniería metalúrgica.
Recientemente publicó varios artículos donde profundiza en esta relación. El primero de ellos se titula “Performance profiles for benchmarking of global sensitivity analysis algorithms”, escrito junto a T. Lopez-Arenas, M. Sales-Cruz, E.D. Gálvez y L.A. Cisternas; pertenecientes a la Universidad Autónoma Metropolitana, la Universidad Católica del Norte y la Universidad de Antofagasta, y que fue divulgado por la Revista Mexicana de Ingeniería Química.
Este trabajo abordó la evaluación comparativa de cuatro métodos usados para realizar análisis de sensibilidad global (ASG): Sobol-Jansen, Sobol-Baudin, Sobol-Owen y Sobol 2007. Esta comparación se basó en perfiles de rendimiento, introducido inicialmente por Dolan y Moré (2002) para comparar software de optimización.
La incertidumbre es una característica inherente de cualquier sistema de proceso; su presencia hace más complejo el diseño y análisis de los sistemas. La incertidumbre puede ser dividida en estocástica y epistémica, y su efecto sobre la salida de los procesos puede ser estimada con ASG. Existen varios métodos para realizar ASG, los más robustos son aquellos basados en la descomposición de la varianza, sin embargo, son costosos computacionalmente hablando. Determinar el método más eficiente ayudaría a establecer la mejor opción para realizar ASG en los procesos.
“Tomando como base la teoría que sustenta los perfiles de rendimiento logré establecer que el método de Sobol-jansen es el más eficiente para realizar ASG. El conjunto de modelos que consideré para este estudio incluyó expresiones para procesos como la molienda SAG, flotación de minerales, lixiviación de minerales, desalinización por osmosis inversa, entre otros. Además, consideré diferentes tamaños de muestras, y utilicé el método Bootstrap para el remuestreo”, comentó el profesor.
En esta misma línea, el académico expuso el trabajo “Optimization of the flotation process of copper ore with high pyrite and clays bearing in seawater utilizing response surface methodology,” en Procemin Geomet 2019. En esta oportunidad, se generaron datos a escala laboratorio, los cuales fueron usados para entrenar las redes neuronales artificiales mediante algoritmos híbridos. Estos últimos también fueron usados para optimizar las variables operacionales del proceso.
Su objetivo principal fue determinar qué variables influyen sobre la flotación de un mineral de cobre con alto contenido de pirita y arcilla, a través de la integración de la metodología de superficie de respuesta con herramientas incluidas dentro de la inteligencia artificial.
Tendencias actuales en modelamiento, diseño, y optimización de sistemas multifase presentes en los procesos metalúrgicos: un recorrido bibliográfico
En segundo lugar, el académico realizó un rewiew titulado Trends in Modeling, Design, and Optimization of Multiphase Systems in Minerals Processing, escrito en conjunto a Luis A. Cisternas y Yesica L. Botero, de la Universidad de Antofagasta y que fue publicado por la revista Minerals. Aquí describió las tendencias actuales en el modelamiento, diseño, y optimización de sistemas multifase presentes en los procesos metalúrgicos. Diferentes escalas de tamaño y tiempo fueron revisadas y, por lo tanto, el análisis incluyó el modelamiento desde el nivel molecular hasta el nivel de operación unitaria, y la aplicación de optimización para el diseño de plantas industriales.
En esta línea, el docente señaló: “Las nuevas tendencias tienen un fuerte enfoque en la aplicación de técnicas incluidas dentro de la inteligencia artificial (IA) y la combinación de experimentación y modelamiento con la metodología de superficie de respuesta. Además, como la incertidumbre está presente en todo proceso, este trabajo abordó su efecto sobre los procesos diseñados y modelados”.
Finalmente, su más reciente contribución científica fue el artículo “Modeling of the Complex Behavior through an Improved Response Surface Methodology”, divulgado por la revista Mineral Processing and Extractive Metallurgy Review y que también fue escrito en conjunto a los investigadores M. Sales-Cruz, E.D. Gálvez y L.A. Cisternas.
La metodología de superficie de respuesta (MSR) es una herramienta efectiva para optimizar procesos. Esta incluye tres pasos: 1) un diseño de experimento (DoE) para guiar los ensayos, 2) modelamiento de la superficie de respuesta, generalmente usando un polinomio de segundo orden, y 3) la optimización del proceso estudiado.
Al respecto, indicó: “Los polinomios no pueden describir comportamientos complejos, bajo este escenario una consecuencia inmediata es un coeficiente de correlación bajo y una optimización errónea. Algunos autores han reemplazado los polinomios por técnicas incluidas dentro de machine learning (rama de la IA). Entre estas técnicas, la más ampliamente usada son las redes neuronales artificiales (RNA). Sin embargo, estas últimas requieren una gran cantidad de datos para su entrenamiento”.
Teniendo en cuenta esta limitante, el académico propuso una RSM mejorada, la cual incluye cuatro pasos. Primero, el DoE es usado para obtener un conjunto de datos experimentales. Segundo, usar los datos obtenidos desde el DoE para estimar a través de la herramienta de geoestadísitica “kriging ordinario”, propiedades en locaciones no muestreadas. Tercero, la superficie de respuesta es obtenida al entrenar una RNA usando el conjunto de datos kriging, y un algoritmo híbrido basado en el algoritmo evolutivo diferencial y el algoritmo backpropagation. Aquí, la verificación del modelo es realizada con el conjunto de datos experimentales. Finalmente, la cuantificación de la incertidumbre es utilizada para estudiar el comportamiento del modelo contra las incertidumbres. De acuerdo con el académico, este último paso es esencial para garantizar la robustez del modelo desarrollado.
De la teoría a la práctica: optimización de la molienda SAG
La literatura indica que la molienda consume entre el 56% y 70% de la energía relacionada con la conminución del mineral. La optimización de la molienda SAG es usualmente realizada mediante simuladores. Estos últimos están basados en modelos matemáticos que implementan datos experimentales que son difíciles y costosos de obtener.
Siguiendo el plano teórico presentado anteriormente, el docente realizó la exposición “Developing of Metamodel for Grinding Process using Geostatistical and Support Vector Machine”, desarrollada junto a Felipe Sepúlveda, Mauricio García, Dubett Muñoz y Renato Acosta.
En esta línea, se propuso una nueva metodología para modelar la molienda SAG. Esta estuvo basada en el kriging ordinario (KR), para generar datos en zonas no muestreadas; support vector machine (SVM), para desarrollar un modelo matemático sustituto; y swarm intelligence (SI), que fue implementado para sintonizar los parámetros de SVM. El modelo desarrollado permite realizar balances poblacionales sin usar datos experimentales relacionados con la ruptura específica del mineral, lo que no es posible de realizar con los modelos convencionales.
Los resultados expuestos apuntan a optimizar la producción en el área metalúrgica, privilegiando un uso sustentable de la energía y los recursos. Sobre las proyecciones del trabajo, el docente comentó que tiene interés en diseñar sistemas de concentración que implementan flotación gruesa de partículas usando técnicas incluidas dentro ML y algoritmos basados en EC y SO.