Logo La República

Sábado, 7 de septiembre de 2024



FORO DE LECTORES


Importancia de los Datos para la Inteligencia de Negocios

César Hernández redaccion@larepublica.net | Martes 14 marzo, 2023


X


César Hernández Navarro

Consultor en automatización de procesos robóticos

Grant Thornton

Los datos son como los minerales que se encuentran en una mina, están allí, pero si no se extraen o no se procesan ofrecen poco valor en su estado o forma original. Estos datos son como un diamante en bruto que requieren ser pulidos para sacar un verdadero provecho de ellos, especialmente, en los casos en donde se crean con una alta velocidad y a gran escala, pues los datos en grandes volúmenes (Big Data) requieren de herramientas complejas, para ser procesados y, a partir de allí, convertirlos en conocimiento útil para la toma de decisiones en organizaciones, empresas y/o negocios.

Para llevar a cabo este tipo de procesos, existe una disciplina conocida como Inteligencia de Negocios (Business Intelligence) que ha representado un cambio de paradigma en la forma de entender y analizar las situaciones que viven las organizaciones o negocios. Desde el punto de vista de la Inteligencia de Negocios, los datos son el punto medular para poder tomar decisiones de manera acertada.

Debido al cambiante ritmo con el que evoluciona el entorno empresarial, la Inteligencia de Negocios, también, se ha adaptado y actualizado, por tal razón, hoy en día se puede apreciar una bifurcación de enfoques para generar, tratar y entender los datos. En primer lugar, estaría el enfoque clásico, el cual se centra, principalmente, en el análisis de datos transaccionales. En segundo lugar, estaría el enfoque moderno, en el cual se introducen nuevos términos para describir fenómenos que surgen con el cambio de modelo que vivimos en la actualidad como, por ejemplo, el Big Data.

Uno de los factores que ha impulsado el surgimiento del enfoque moderno de la Inteligencia de Negocios es la expansión de los sistemas informáticos a nivel general en el quehacer humano.

Estos sistemas informáticos abarcan desde computadoras y dispositivos móviles hasta sensores y cámaras instalados en las ciudades. Todos estos dispositivos generan datos hora tras hora, minuto tras minuto, sobre diversos aspectos de la realidad. Muchas veces, esta información simplemente pasa desapercibida y no se explota el verdadero potencial que se podría obtener de estos recursos. Sin embargo, si se aplican las herramientas adecuadas para procesar y analizar estos registros, es posible obtener conocimiento útil para mejorar diversos ámbitos de la sociedad. Por ejemplo, se puede optimizar el tráfico urbano, prevenir enfermedades, detectar fraudes o personalizar servicios. Esta es una de las razones por la que estamos viviendo una revolución denominada “Industria 4.0”, en donde los datos son el recurso más valioso para impulsar el desarrollo y la innovación.

Una vez que se han generado los datos, surge la cuestión de cómo almacenarlos y organizarlos para su posterior uso. Para ello, existen distintos tipos de repositorios según la naturaleza de los datos. Por ejemplo, existen los Data Marts, que son almacenes de datos especializados en un área o tema específico; los Data Warehouses, que son almacenes de datos integrados a partir de múltiples fuentes; y los Data Lakes, que son almacenes de datos que alojan toda la información en bruto sin importar su formato o estructura. El concepto de Data Lake surge como respuesta a las nuevas necesidades creadas por el Big Data, ya que permite almacenar grandes volúmenes de datos heterogéneos sin necesidad de definir un esquema previo. Esto facilita la flexibilidad y la escalabilidad del sistema, pero también plantea algunos retos a la hora de procesar y analizar los datos. Si no se aplican las técnicas adecuadas para extraer conocimiento de estos datos en bruto, estos pueden convertirse en un “pantano” (swamp) inútil e inaccesible.

Volviendo a la analogía inicial, tal y como existen métodos de minería para extraer metales preciosos, también, existen métodos de minería para extraer datos o, para ser más preciso, extraer conocimiento de ellos. A este hecho se le conoce, comúnmente, en el argot como KDD (Knowledge Discovery in Databases). A un alto nivel, lo que se busca lograr con la minería de datos es encontrar los patrones entre la información y, así, entender el porqué de eventos pasados y, con esto, poder realizar predicciones a eventos futuros.

Una de las metodologías más reconocidas para minar datos es CRISP-DM (Cross Industry Standard Process for Data Mining), la cual fue diseñada a mediados de la década de 1990 por el siguiente grupo de compañías: Daimler, Chrysler, SPSS y NCR. Esta surge como una idea que buscaba crear una solución estándar para minar datos. A pesar de que esta metodología surgió hace ya algunas décadas se ha revisado y actualizado constantemente para mejorar y continúa siendo referente para diversas compañías que quieren sacar provecho del recurso de la información que poseen.

Esta metodología consta de las siguientes seis fases:

Como se puede apreciar, los datos son indispensables para llevar a cabo la implementación de esta metodología, pues, dentro del ciclo de vida, en la mayor parte de las etapas se involucra algún trato con ellos. A nivel inicial, se debe conocer qué información se posee y cómo esta puede resultar útil, para resolver algún problema y, de esta forma, lograr identificar un objetivo (fases de compresión del negocio y comprensión de los datos).

Luego, en varias ocasiones, mucha de la información o datos que se poseen no son relevantes para realizar análisis en busca de ciertos objetivos, por lo tanto, en primer lugar, se debe filtrar la información o datos que se poseen para eliminar los que no son relevantes para el análisis y el objetivo que se persigue. En segundo lugar, se debe seleccionar una serie de modelos adecuados para encontrar la solución al problema que se quiere resolver. Estos modelos pueden ser descriptivos o predictivos, dependiendo del tipo de pregunta que se quiera responder con los datos. Por ejemplo, un modelo descriptivo podría ser un modelo de agrupamiento que identifica grupos similares entre los datos, mientras que un modelo predictivo podría ser un modelo de regresión que estima el valor futuro de una variable. (fases de preparación y modelado de los datos).

Posteriormente, una vez que se hayan seleccionado los modelos más idóneos con respecto a la idea de negocio que se quiere satisfacer, es necesario evaluarlos y determinar si efectivamente el resultado que producirán va acorde con los objetivos planteados en un inicio. Es importante tener en cuenta que la implementación de un modelo no significa necesariamente el final del proyecto, ya que a menudo se requiere realizar un postprocesamiento de los datos para presentarlos de manera efectiva a las gerencias y otras partes interesadas. Esto puede incluir la creación de gráficas o resúmenes que faciliten la interpretación y utilización de los resultados. En definitiva, la fase de implementación es un paso crucial en el proceso de minería de datos que requiere atención cuidadosa para asegurar que se alcancen los resultados deseados. (fases de evaluación y despliegue).

La inteligencia de negocios es una disciplina que ha evolucionado durante más de sesenta años, desde que se acuñó el término por primera vez y, en la actualidad, sigue siendo tan vigente como lo fue en sus inicios. Esta disciplina se ha adaptado a los tiempos modernos mediante la implementación de diversas técnicas como, por ejemplo, la minería de datos. Asimismo, se ha podido ajustar a un mundo globalizado, en el cual los datos constituyen uno de los pilares fundamentales de los sistemas tecnológicos utilizados en el día a día, lo cual abre un nuevo abanico de posibilidades para obtener conocimiento, producto de análisis complejos que permiten la toma de decisiones de una manera mucho más acertada en la gestión empresarial.







© 2024 Republica Media Group todos los derechos reservados.