Citywire - Para inversores profesionales

Bancos y Big Data: decisiones financieras

Bancos y Big Data: decisiones financieras

 

Cuando hablamos de Big Data, nos referimos al conjunto de datos o combinaciones de conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales. 

Aunque el tamaño utilizado para determinar si un conjunto de datos determinado se considera Big Data no está firmemente definido y sigue cambiando con el tiempo, la mayoría de los analistas y profesionales actualmente se refieren a conjuntos de datos que van desde 30-50 Terabytes a varios Petabytes. 

Pero lo que hace que Big Data sea tan útil para muchas empresas es el hecho de que proporciona respuestas a muchas preguntas que las empresas ni siquiera se habían formulado. En otras palabras, proporciona una cantidad tan grande de información que habilita a las organizaciones para identificar sus problemas de una forma más comprensible, permite identificar nuevas oportunidades de negocio, reducir costes, ganar eficacia y detectar nuevas necesidades de sus clientes. 

El mundo financiero, que en su último punto consiste en un proceso de pura venta de producto o servicio, no ha permanecido ajeno a la explosión de los datos y al utilizar el progreso digital a su favor para aumentar sus cada vez más escasos ingresos vía producto y cliente. Esto ha generado un cambio en las instituciones financieras, que ahora se centran tanto en la gestión como en el análisis de datos. Históricamente, las dos disciplinas habían estado, en gran parte, separadas. El proceso de gestión de datos involucraba, típicamente, actividades como el abastecimiento de datos, la referencia cruzada y la solución de cualquier discrepancia a través de conciliaciones y procesos de limpieza de datos.

 

Los procesos de análisis de datos generalmente se llevaban a cabo, posteriormente en una variedad de herramientas y bibliotecas a nivel de escritorio, cerca de los usuarios y generalmente operando en subconjuntos de datos almacenados por separado. Esto creaba problemas para muchas instituciones financieras, pues la separación afectaba al tiempo de comprensión y actuaba como freno en los procesos de toma de decisiones que deben impulsar el progreso empresarial, tanto a nivel servicio (que demande el cliente, a medida) como a nivel producto (nuevo y eficiente). 

Por lo general, los datos se guardaban y, en muchos casos, se sigue haciendo, en almacenes de datos y sistemas heredados, de difícil acceso. Los metadatos que rodeaban los datos, a menudo no se actualizaban con frecuencia, lo que dificultaba la comprensión completa del linaje de los datos y la comprensión de los permisos relevantes sobre los datos. Juzgar si los datos eran adecuados para el propósito era complejo y, con frecuencia, los modelos obtenían resultados sub-óptimos porque se basaban en datos obsoletos, incompletos o inapropiados. 

Hoy, sin embargo, esta situación está comenzando a cambiar. Muchas empresas de servicios financieros se han dado cuenta de que necesitan una mejor manera de proporcionar a sus científicos de datos y otros usuarios clave, precios limpios y datos de mercado. El papel de la analítica se ha vuelto mucho más omnipresente y arraigado en los procesos comerciales cotidianos. Aparte de esto, se ha elevado el listón con respecto al seguimiento de los flujos de datos y la gestión de los riesgos de los modelos. 

Un cambio a la nube y la adopción de tecnologías nativas de la misma, están ayudando a las empresas a realizar la transición a un enfoque más integrado para la gestión y el análisis de datos. Apache Cassandra, por ejemplo, ha surgido como una base de datos distribuida de código abierto altamente escalable que facilita el almacenamiento y la administración de grandes volúmenes de datos financieros de series temporales de forma segura. Apache Spark es un motor de datos unificado para el procesamiento de macrodatos. En conjunto, los dos, junto con otras herramientas asociadas, ayudan a facilitar la integración de datos y análisis. 

Al menos en parte, como resultado de esto, vemos que la gestión de datos y el análisis están cada vez más unidos en el universo Big Data. Esta integración también está difuminando la línea entre la fuente de datos primarios (la bolsa de valores, por ejemplo) y lo que se deriva y calcula (por ejemplo, curvas de tipos de interés, correlaciones o volatilidades). La gestión y el análisis de datos son hoy dos caras de la misma moneda en los flujos de trabajo de los usuarios. 

Eso sí, todavía vemos analistas cuantitativos (quants) en los puntos finales de los flujos de datos, llevando a cabo modelos, pronósticos y precios de productos complejos. Pero, además, los procesos comerciales recurrentes en evaluación de riesgos, análisis e informes, así como otros modelos, se han vuelto más intensivos en datos. Cada vez más, la atención se centra en llevar la analítica a los datos y no al revés. En otras palabras, se trata de trasladar la capacidad de análisis al lugar donde residen los datos en lugar de trasladar grandes almacenes de datos - a menudo agrupados en silos - a la función de análisis, lo que generalmente ha llevado a copias inconsistentes a lo largo del tiempo y mucho tiempo de analistas dedicados a verificar y recopilar datos, antes de que pudieran comenzar el análisis real. 

Para que la analítica funcione de manera eficaz y eficiente, los datos que la impulsan deben ser de la más alta calidad. Los datos de entrada de buena calidad hacen que los análisis sean más fiables. Por el contrario, incluso el mejor modelo producirá resultados inútiles si se alimenta con datos de mala calidad. Este impulso hacia la eficiencia y la precisión a medida que las empresas buscan acelerar su función de análisis es una de las razones por las que la calidad de los datos es importante para el sector financiero actual. La otra es que los reguladores están examinando cada vez más la calidad de los datos y, en particular, la calidad de los datos que se incorporan a los modelos. 

Las empresas financieras a menudo necesitarán explicar los resultados, no solo las matemáticas del modelo en sí, sino también los datos que se incluyeron en él, cuáles fueron los problemas de calidad, cuáles fueron las fuentes y quién los tocó en el proceso. Eso puede resultar difícil si tratan la gestión de datos y el análisis como disciplinas independientes. Sin tener la capacidad de analizar los datos y la supervisión de su procedencia y destino, las empresas luchan por ganar transparencia sobre cómo están aprovisionando sus modelos con datos. También necesitan la capacidad de calidad de los datos para garantizar que sus datos sean coherentes y estén validados y que se reduzca la carga de la reconciliación. 

Si bien los informes regulatorios han sido durante mucho tiempo una disciplina esencial para las organizaciones financieras, y la unión de datos y análisis lo ha respaldado, está lejos de ser el único beneficio que ofrece esta nueva tendencia. Como hemos visto, el papel de la analítica y los datos integrados para respaldar la habilitación del usuario y una mejor toma de decisiones es clave. A medida que el ciclo de administración y procesamiento de datos se extienda aún más para abarcar la analítica, los usuarios desearán cada vez más ser empoderados por el proceso y aprovechar estas nuevas capacidades para impulsar una toma de decisiones mejor informada. Este cambio a datos como servicio (DaaS o Data as a Service), cuando se combina con las últimas capacidades de análisis, está haciendo que las organizaciones financieras pueden obtener acceso a múltiples fuentes de datos y tipos de datos, desde precios y datos de referencia hasta curvas y datos de referencia, ESG (gobierno ambiental, social y corporativo) y datos alternativos. Con la ayuda de la última tecnología de código abierto como Python, los usuarios pueden compartir estos análisis en todas sus cadenas de suministro de datos y, gracias a la potencia del motor de análisis, desarrollar un enfoque común para la gestión de riesgos, la gestión del rendimiento y el cumplimiento. 

Los cuánticos y los científicos de datos se benefician de esto. Pero este enfoque también está ayudando a democratizar la analítica para los usuarios, poniéndola en la órbita de aquellos que no son expertos en datos. Hoy en día, gracias a la contextualización proporcionada junto con la analítica, no es solo el dominio exclusivo de los cuantitativos o del científico de datos, sino una herramienta clave que aquellos que siendo menos expertos en datos pueden usar para impulsar decisiones comerciales. 

Esto en sí mismo promueve la agilidad empresarial, pero la combinación de datos y análisis también puede ayudar a las empresas a optimizar los costes. Lo hace apoyando una mayor agilidad con los datos y seleccionando solo aquellos elementos estrictamente necesarios para ayudar a impulsar el negocio. Sin embargo, también se trata de centralizar los datos de manera más eficiente y eliminar la duplicación.

De cara al futuro, nos encontramos en la cúspide de una nueva era en la gestión de datos financieros. Hoy en día, la tecnología, los procesos, los factores macroeconómicos y la conciencia empresarial unen fuerzas para unir el análisis y la gestión de datos. El resultado para las instituciones financieras es un nuevo mundo de oportunidades en el que pueden optimizar los costes, impulsar la habilitación del usuario y maximizar el valor que obtienen de la ingente masa de datos a la que tienen acceso.

 

Artículo escrito por Verónica Sánchez (business manager Optimissa) y Carlos de Fuenmayor (especialista en finanzas).

 

Para ver este artículo, por favor

Iniciar Sesión regístrese gratis