SOMOS
Una Consultora que utiliza Machine Learning e IA para Analizar tus datos y crear modelos que agregan valor a tu negocio.
Colaboramos de forma personal y directa con el cliente para dar soluciones únicas a sus problemas.

Santiago Larraín
- Master of Science in Computational Analysis and Public Policy, University of Chicago.
- Abogado, Pontificia Universidad Católica de Chile.
Desde el 2018 que se desempeña como Consultor en Data Science, Machine Learning y BigData, asesorando directa y personalmente a empresas de diferentes industrias con analítica avanzada y modelos predictivos.
Previo a ello se desempeñó como Data Scientist y Data Engineer en el equipo de Advanced Analytics del Gobernador de Massachusetts, en Boston.
HACEMOS
Pacific Labs te permite
Data
Engineering
Recolectamos, extraemos, procesamos, cargamos y transformamos tu data integrándola desde diferentes servicios y disponibilizándola tanto para reportería como para analítica avanzada y modelos predictivos.
El Data Engineering es un proceso fundamental en una empresa que permite no sólo conocer con mayor detalle cómo opera ésta y tener reportes actualizados con el detalle de sus procesos, sino que habilita a poder desarrollar modelos de Analítica Avanzada y Data Science.
Dentro de nuestros servicios de Data Engineering encontramos:
1. Integración de Datos:
Aseguramos que tus diversas fuentes de datos trabajen en armonía. Desde bases de datos internas hasta fuentes externas, nuestro equipo configura flujos de datos eficientes y confiables.
2. Transformación de Datos:
Convertimos datos crudos en información valiosa. Aplicamos limpieza, manipulación y enriquecimiento de datos para garantizar que estén listos para su análisis.
3. Almacenamiento de Datos:
Diseñamos sistemas de almacenamiento escalables y seguros que se adaptan a las necesidades de su negocio. Esto incluye opciones en la nube, on-premise e híbridas.
4. Procesamiento de Datos:
Implementamos arquitecturas de procesamiento que permiten el análisis en tiempo real y por lotes, lo que posibilita la toma de decisiones ágil y basada en datos.
5. Diseño e Implementación de Data Pipelines:
Creamos Pipelines de datos robustos y escalables para que recolecten, procesen y transformen data cruda en formato estructurado.
6. Data Warehousing:
Construimos un repositorio central de tu data para fácil acceso y análisis, utilizando tecnología de la nube para la creación de Data Lakes o similares o implementando soluciones ad-hoc según las necesidades del cliente.
7. Procesos de ETL (Extract, Transform, Load):
Los procesos de ETL o ELT son fundamentales dentro de una compañía para tener la data organizada en la forma, lugar y velocidad que se quiera, manteniendo la integridad y consistencia de la data.
8. Calidad y Gobernanza de Datos:
Mantenemos la integridad y calidad de sus datos mediante la implementación de prácticas de gobernanza y la realización de auditorías periódicas.
9. Automatización de Flujo de Trabajo:
Optimizamos tus procesos mediante la automatización de flujos de trabajo, reduciendo el tiempo de inactividad y aumentando la eficiencia.
10. Seguridad de Datos:
Garantizamos que tus datos estén protegidos en cada etapa. Implementamos medidas de seguridad robustas para salvaguardar la información confidencial.
11. Reportería:
Contar con un Dashboard que permita explorar métricas y KPIs de tu negocio es fundamental. Incorporamos la analítica de datos a tu sistema de reportería in-house, o implementamos soluciones desde cero que permitan conocer lo más rápido posible el estado de tu negocio, incluyendo reportes, dashboards, alertas, notificaciones, etc.
Data
Science
Analizamos tu data y obtenemos información accionable mediante la aplicación de modelos predictivos de Machine Learning e Inteligencia Artificial y otras técnicas de analítica avanzada, permitiéndote la toma de mejores decisiones que tienen un impacto directo en tu negocio.
Somos una Consultora en la que la Analítica Avanzada se encuentra en el core de nuestro negocio. Utilizamos algoritmos de Machine Learning en conjunto con tu data para entrenar modelos que permitan resolver un problema de negocio concreto y real.
Dentro de nuestros servicios de Data Science encontramos:
1. Análisis Predictivo:
Utilizamos modelos avanzados para predecir patrones futuros y tendencias, permitiéndote tomar decisiones informadas y estratégicas.
2. Minería de Datos:
Descubrimos información valiosa y oculta en grandes conjuntos de datos, identificando oportunidades que pueden impulsar tu negocio.
3. Aprendizaje Automático (Machine Learning):
Creamos algoritmos y modelos de machine learning que se adaptan y mejoran automáticamente a medida que se exponen a más datos.
4. Visualización de Datos:
Traducimos datos complejos en visualizaciones claras y significativas, facilitando la comprensión y comunicación de información clave.
5.Optimización de Procesos:
Identificamos áreas en las que la ciencia de datos puede optimizar tus procesos comerciales, aumentando la eficiencia y reduciendo costos.
6. Segmentación y Clusterin:
Dividimos tus datos en segmentos específicos y te ayudamos a personalizar tus estrategias para satisfacer las necesidades únicas de cada grupo.
7. Análisis de Sentimiento:
Evaluamos opiniones y sentimientos en torno a tu marca para que puedas adoptar estrategias de manera más efectiva.
8. Redes de Grafos:
Existen muchos datos cuya estructura subyacente natural es la de una red de grafos, Tenemos experiencia en comprender, modelar, visualizar y analizar los puntos esenciales de estas redes y el impacto que tienen.
9. Sistemas de Recomendación:
Diseñamos e implementamos sistemas de recomendación para tus clientes para el uso, por ejemplo, del canal tradicional, utilizando desde técnicas clásicas como el Market Basket Analysis hasta operaciones matriciales y redes neuronales de vanguardia publicadas en papers hace pocos años.
10. Natural Language Processing (NLP):
Extraemos información de data no estructurada en fromato de texto. Nuestras soluciones de NLP permiten análisis de sentimiento, clasificación de texto, Topic Modeling, clusterizaciones y aprendizaje profundo para una comprensión más compleja del texto.
11. Feature Engineering:
Nuestros modelos de Machine Learning tienen un análisis exhaustivo no sólo de los algoritmos y sus evaluaciones, sino muy precisamente de la data y las dimensiones que esta contiene, creando en la mayoría de ocasiones nuevos features a partir de la data existente, que permiten saltos cualitativos en la precisión y resultados de los modelos.
12. Evaluación de los modelos:
Todos los modelos construidos pasan un riguroso proceso de testeo y validación con data distinta a la del entrenamiento, para asegurarse que estos son suficientemente generalizables y que no se produce data leakage.
Machine Learning
Engineering
Implementamos la construcción de aplicaciones de Machine Learning en la nube con modelos en producción en AWS, Google Cloud o Azure, diseñando la arquitectura e integración de diferentes servicios, colas, lambdas, APIs y apps que permitan el uso diario de las aplicaciones de Data Science.
Porque no basta con crear un gran modelo o realizar un profundo análisis, es fundamental que los modelos puedan ser puestos en producción para que tengan el impacto esperado en el negocio.
Dentro de nuestros servicios de Machine Learning Engineering encontramos:
1. Arquitectura de Datos:
Diseño, desarrollo e implementación de una Arquitectura de datos que permita la puesta en producción de modelos de Machine Learning, sea en un servidor local o sui generis en la nube, o bien en los proveedores clásicos, como AWS, Google Cloud y Azure.
2. Puesta en Producción:
La creación de un modelo localmente tiene desafíos mucho más simples que el tomar ese mismo modelo y ponerlo en producción en la nube sobre una arquitectura de datos robusta y resiliente, que permite un impacto mucho mayor.
3. Utilización del stack integrado de servicios en la nube:
Un modelo en la nube que tenga vida propia, debe considerar el uso de APIs, lambdas, colas, artifactos, bases de datos (SQL y NoSQL), etc. para aprovechar al máximo el potencial y automatización que estas plataformas entregan.
4. Infraestructura escalable:
Nos preocupamos que la infraestructura sobre la cual se implementa la solución tenga la capacidad de responder frente a diferentes períodos de demanda interna o externa y, en caso de ser necesario, que escale según se requiera, ya sea verticalmente u horizontalmente.
5. Desarrollo de Algoritmos:
No realizamos ejercicios académicos sino que resolvemos problemas de negocios concretos y reales; esto trae aparejado, en muchas ocasiones, la necesidad de entregar soluciones no paquetizadas sino desarrolladas de forma personalizadas para las necesidades del cliente, que involucran el uso de algoritmos especialmente ajustados a resolver tus problemas.
6. Reentrenamiento automatizados de modelos:
Una vez puesto producción el modelo, nos preocupamos de que a medida de que nueva data va siendo generada, éste pueda reentrenarse automatizadamente para que tenga siempre una predicción o resultado de vanguardia.
7. Monitoreo y Mantenimiento:
Realizamos un monitoreo e implementamos sistemas de alertas constantes que nos permiten enterarnos de forma inmediata si ocurre algún problema y, muchas veces, adelantarnos con mantenimiento preventivo. Asimismo, el monitoreo nos permite ir detectando tendencias o drifting de los resultados que paulatinamente van deterioriando o disminuyendo el impacto de los modelos, lo que a su vez puede ser corregido por mantenimientos y reentrenamientos.
Artificial
Intelligence
Exploramos el uso de Redes Neuronales y Large Language Models (ChatGPT) para aplicaciones concretas de tu negocio con tecnologías de vanguardia en Advanced Analytics.
Nos encontramos permanentemente en la vanguardia del conocimiento, explorando los modelos y tecnologías más modernos y novedosos y cómo podemos utilizarlos e implementarlos para agregar valor a nuestros clientes.
Dentro de nuestros servicios en Inteligencia Artificial encontramos:
1. Redes Neuronales:
Aplicación y uso de diferentes tipos de Neural Networks, como CNNs, GANs, RNNs, LSTM y RL, según sea la necesidad. Muchas veces todos queremos usar lo más moderno y novedoso del mundo de la IA, sin embargo, si una solución más económica, sencilla y simple existe utilizando tecnologías más probadas, no dudaremos en transmitir esto a nuestros clientes.
2. Large Language Models (LLMs):
Con el lanzamiento de ChatGTP por parte de OpenAI el año 2022, el advenimiento de los LLM ha sido vertiginoso: GTPs, Llama, Orca, Falcon, Bert, Palm, Guanaco, Vicuna y muchas más que van saliendo cada semana. Las aplicaciones y potencial de estas herramientas son fantásticas y estamos siempre explorando usos y oportunidades de aplicación, considerando siempre que son una tecnología muy nueva y en desarrollo.
3. Computer Vision:
Aplicación de IA a imágenes y videos para reconocimiento e identificación de entidades, utilizando algoritmos probados en la industria, como YOLO o ResNet.
4. Procesamiento de Lenguaje Natural:
Utilizamos redes neuronales y LLMs que nos permiten entender e interpretar texto, otrora data no estructurada, desde distintos medios, como posts en RRSS, reviews, comentarios, etc.
Informes
Juicios
Asesoramos y emitimos informes expertos en juicios que requieren el procesamiento de grandes volúmenes de datos de forma pormenorizada y detallada para emitir o rebatir aseveraciones de hecho en demandas y contestaciones a estas.
El fundador y CEO de PacificLabs, Santiago Larraín, no sólo es experto en Análisis de Datos, sino también abogado. Esto hizo que ya hace algunos años comenzara a ser contactado para emitir informes como perito de parte en juicios en los que se discutían grandes volúmenes de datos. El nivel y profundidad del análisis de la data, la calidad del informe experto y el acompañamiento en otras etapas del juicio, son una combinación única en la industria nacional para este tipo de juicios.
Estas asesorías e informes tienen algunas características que la diferencian de otros informes expertos clásicos:
1. Análisis de los hechos sobre los que se sustentan las acusaciones de la demanda:
En el caso de demandas que involucran grandes volúmenes de data -como, por ejemplo, demandas interpuesta por el Servicio Nacional del Consumidor o la Corporación Nacional de Consumidores- se realiza un análisis exhaustivo de cada uno de los casos objeto del litigio -sean estos decenas de miles, cientos de miles o millones- llegando a conclusiones exactas sobre el impacto y veracidad de la acusación, no utilizando técnicas de muestreo o estimaciones.
2. Elaboración de un Informe Experto con las Conclusiones:
Se elabora y presenta un inforem experto que aborda el análisis exahustivo del punto anterior para cada uno de los casos, plásmandose en un informe que se acompaña en el juicio y luego se reconoce en una audiencia, donde se analizan las imputaciones de hecho que tienen que ver con los datos analizados.
3. Validación de la información interna por un análisis externo:
Muchas veces, el equipo interno de la parte demandada no cuenta con los recursos o capacidades de realizar el análisis exhaustivo necesario para invalidar o desvirturar las imputaciones o alegaciones de hecho de la demanda. El trabajo que se realiza valida el trabajo interno o, en ocasiones, puede iluminar aspectos que no habían sido observados previamente por los análisis internos y que pueden impactar fuertemente las conclusiones.
4. Acompañamiento durante el juicio en las etapas relevantes del término probatorio:
Al poseer la calidad de abogado y al ser las materias analizadas en la mayoría de los casos decisoria litis, el acompañamiento que se realiza es de extrema utilidad a la hora de definir estrategias judiciales y pasos a seguir, puesto que el conocmiento no es sólo técnico sino también jurídico.
5. Levantamiento de potenciales riesgos en otras áreas contenidas en la data:
El análisis pormenorizado de la data habilita a detectar oportunamente tanto oportunidades como riesgos que diferentes actuaciones en las etapas del juicio puedan tener y que no se visualizaban originalmente por no ser parte directa en el origen de la demanda, pero si poder ser integradas en etapas posteriores como la rendición de la prueba.
Data
Engineering
El Data Engineering es un proceso fundamental en una empresa que permite no sólo conocer con mayor detalle cómo opera ésta y tener reportes actualizados con el detalle de sus procesos, sino que habilita a poder desarrollar modelos de Analítica Avanzada y Data Science.
Dentro de nuestros servicios de Data Engineering encontramos:
1. Integración de Datos:
Aseguramos que tus diversas fuentes de datos trabajen en armonía. Desde bases de datos internas hasta fuentes externas, nuestro equipo configura flujos de datos eficientes y confiables.
2. Transformación de Datos:
Convertimos datos crudos en información valiosa. Aplicamos limpieza, manipulación y enriquecimiento de datos para garantizar que estén listos para su análisis.
3. Almacenamiento de Datos:
Diseñamos sistemas de almacenamiento escalables y seguros que se adaptan a las necesidades de su negocio. Esto incluye opciones en la nube, on-premise e híbridas.
4. Procesamiento de Datos:
Implementamos arquitecturas de procesamiento que permiten el análisis en tiempo real y por lotes, lo que posibilita la toma de decisiones ágil y basada en datos.
5. Diseño e Implementación de Data Pipelines:
Creamos Pipelines de datos robustos y escalables para que recolecten, procesen y transformen data cruda en formato estructurado.
6. Data Warehousing:
Construimos un repositorio central de tu data para fácil acceso y análisis, utilizando tecnología de la nube para la creación de Data Lakes o similares o implementando soluciones ad-hoc según las necesidades del cliente.
7. Procesos de ETL (Extract, Transform, Load):
Los procesos de ETL o ELT son fundamentales dentro de una compañía para tener la data organizada en la forma, lugar y velocidad que se quiera, manteniendo la integridad y consistencia de la data.
8. Calidad y Gobernanza de Datos:
Mantenemos la integridad y calidad de sus datos mediante la implementación de prácticas de gobernanza y la realización de auditorías periódicas.
9. Automatización de Flujo de Trabajo:
Optimizamos tus procesos mediante la automatización de flujos de trabajo, reduciendo el tiempo de inactividad y aumentando la eficiencia.
10. Seguridad de Datos:
Garantizamos que tus datos estén protegidos en cada etapa. Implementamos medidas de seguridad robustas para salvaguardar la información confidencial.
11. Reportería:
Contar con un Dashboard que permita explorar métricas y KPIs de tu negocio es fundamental. Incorporamos la analítica de datos a tu sistema de reportería in-house, o implementamos soluciones desde cero que permitan conocer lo más rápido posible el estado de tu negocio, incluyendo reportes, dashboards, alertas, notificaciones, etc.
Data
Science
Somos una Consultora en la que la Analítica Avanzada se encuentra en el core de nuestro negocio. Utilizamos algoritmos de Machine Learning en conjunto con tu data para entrenar modelos que permitan resolver un problema de negocio concreto y real.
Dentro de nuestros servicios de Data Science encontramos:
1. Análisis Predictivo:
Utilizamos modelos avanzados para predecir patrones futuros y tendencias, permitiéndote tomar decisiones informadas y estratégicas.
2. Minería de Datos:
Descubrimos información valiosa y oculta en grandes conjuntos de datos, identificando oportunidades que pueden impulsar tu negocio.
3. Aprendizaje Automático (Machine Learning):
Creamos algoritmos y modelos de machine learning que se adaptan y mejoran automáticamente a medida que se exponen a más datos.
4. Visualización de Datos:
Traducimos datos complejos en visualizaciones claras y significativas, facilitando la comprensión y comunicación de información clave.
5.Optimización de Procesos:
Identificamos áreas en las que la ciencia de datos puede optimizar tus procesos comerciales, aumentando la eficiencia y reduciendo costos.
6. Segmentación y Clusterin:
Dividimos tus datos en segmentos específicos y te ayudamos a personalizar tus estrategias para satisfacer las necesidades únicas de cada grupo.
7. Análisis de Sentimiento:
Evaluamos opiniones y sentimientos en torno a tu marca para que puedas adoptar estrategias de manera más efectiva.
8. Redes de Grafos:
Existen muchos datos cuya estructura subyacente natural es la de una red de grafos, Tenemos experiencia en comprender, modelar, visualizar y analizar los puntos esenciales de estas redes y el impacto que tienen.
9. Sistemas de Recomendación:
Diseñamos e implementamos sistemas de recomendación para tus clientes para el uso, por ejemplo, del canal tradicional, utilizando desde técnicas clásicas como el Market Basket Analysis hasta operaciones matriciales y redes neuronales de vanguardia publicadas en papers hace pocos años.
10. Natural Language Processing (NLP):
Extraemos información de data no estructurada en fromato de texto. Nuestras soluciones de NLP permiten análisis de sentimiento, clasificación de texto, Topic Modeling, clusterizaciones y aprendizaje profundo para una comprensión más compleja del texto.
11. Feature Engineering:
Nuestros modelos de Machine Learning tienen un análisis exhaustivo no sólo de los algoritmos y sus evaluaciones, sino muy precisamente de la data y las dimensiones que esta contiene, creando en la mayoría de ocasiones nuevos features a partir de la data existente, que permiten saltos cualitativos en la precisión y resultados de los modelos.
12. Evaluación de los modelos:
Todos los modelos construidos pasan un riguroso proceso de testeo y validación con data distinta a la del entrenamiento, para asegurarse que estos son suficientemente generalizables y que no se produce data leakage.
Machine Learning
Engineering
Porque no basta con crear un gran modelo o realizar un profundo análisis, es fundamental que los modelos puedan ser puestos en producción para que tengan el impacto esperado en el negocio.
Dentro de nuestros servicios de Machine Learning Engineering encontramos:
1. Arquitectura de Datos:
Diseño, desarrollo e implementación de una Arquitectura de datos que permita la puesta en producción de modelos de Machine Learning, sea en un servidor local o sui generis en la nube, o bien en los proveedores clásicos, como AWS, Google Cloud y Azure.
2. Puesta en Producción:
La creación de un modelo localmente tiene desafíos mucho más simples que el tomar ese mismo modelo y ponerlo en producción en la nube sobre una arquitectura de datos robusta y resiliente, que permite un impacto mucho mayor.
3. Utilización del stack integrado de servicios en la nube:
Un modelo en la nube que tenga vida propia, debe considerar el uso de APIs, lambdas, colas, artifactos, bases de datos (SQL y NoSQL), etc. para aprovechar al máximo el potencial y automatización que estas plataformas entregan.
4. Infraestructura escalable:
Nos preocupamos que la infraestructura sobre la cual se implementa la solución tenga la capacidad de responder frente a diferentes períodos de demanda interna o externa y, en caso de ser necesario, que escale según se requiera, ya sea verticalmente u horizontalmente.
5. Desarrollo de Algoritmos:
No realizamos ejercicios académicos sino que resolvemos problemas de negocios concretos y reales; esto trae aparejado, en muchas ocasiones, la necesidad de entregar soluciones no paquetizadas sino desarrolladas de forma personalizadas para las necesidades del cliente, que involucran el uso de algoritmos especialmente ajustados a resolver tus problemas.
6. Reentrenamiento automatizados de modelos:
Una vez puesto producción el modelo, nos preocupamos de que a medida de que nueva data va siendo generada, éste pueda reentrenarse automatizadamente para que tenga siempre una predicción o resultado de vanguardia.
7. Monitoreo y Mantenimiento:
Realizamos un monitoreo e implementamos sistemas de alertas constantes que nos permiten enterarnos de forma inmediata si ocurre algún problema y, muchas veces, adelantarnos con mantenimiento preventivo. Asimismo, el monitoreo nos permite ir detectando tendencias o drifting de los resultados que paulatinamente van deterioriando o disminuyendo el impacto de los modelos, lo que a su vez puede ser corregido por mantenimientos y reentrenamientos.
Artificial
Intelligence
Nos encontramos permanentemente en la vanguardia del conocimiento, explorando los modelos y tecnologías más modernos y novedosos y cómo podemos utilizarlos e implementarlos para agregar valor a nuestros clientes.
Dentro de nuestros servicios en Inteligencia Artificial encontramos:
1. Redes Neuronales:
Aplicación y uso de diferentes tipos de Neural Networks, como CNNs, GANs, RNNs, LSTM y RL, según sea la necesidad. Muchas veces todos queremos usar lo más moderno y novedoso del mundo de la IA, sin embargo, si una solución más económica, sencilla y simple existe utilizando tecnologías más probadas, no dudaremos en transmitir esto a nuestros clientes.
2. Large Language Models (LLMs):
Con el lanzamiento de ChatGTP por parte de OpenAI el año 2022, el advenimiento de los LLM ha sido vertiginoso: GTPs, Llama, Orca, Falcon, Bert, Palm, Guanaco, Vicuna y muchas más que van saliendo cada semana. Las aplicaciones y potencial de estas herramientas son fantásticas y estamos siempre explorando usos y oportunidades de aplicación, considerando siempre que son una tecnología muy nueva y en desarrollo.
3. Computer Vision:
Aplicación de IA a imágenes y videos para reconocimiento e identificación de entidades, utilizando algoritmos probados en la industria, como YOLO o ResNet.
4. Procesamiento de Lenguaje Natural:
Utilizamos redes neuronales y LLMs que nos permiten entender e interpretar texto, otrora data no estructurada, desde distintos medios, como posts en RRSS, reviews, comentarios, etc.
Informes
Juicios
El fundador y CEO de PacificLabs, Santiago Larraín, no sólo es experto en Análisis de Datos, sino también abogado. Esto hizo que ya hace algunos años comenzara a ser contactado para emitir informes como perito de parte en juicios en los que se discutían grandes volúmenes de datos. El nivel y profundidad del análisis de la data, la calidad del informe experto y el acompañamiento en otras etapas del juicio, son una combinación única en la industria nacional para este tipo de juicios.
Estas asesorías e informes tienen algunas características que la diferencian de otros informes expertos clásicos:
1. Análisis de los hechos sobre los que se sustentan las acusaciones de la demanda:
En el caso de demandas que involucran grandes volúmenes de data -como, por ejemplo, demandas interpuesta por el Servicio Nacional del Consumidor o la Corporación Nacional de Consumidores- se realiza un análisis exhaustivo de cada uno de los casos objeto del litigio -sean estos decenas de miles, cientos de miles o millones- llegando a conclusiones exactas sobre el impacto y veracidad de la acusación, no utilizando técnicas de muestreo o estimaciones.
2. Elaboración de un Informe Experto con las Conclusiones:
Se elabora y presenta un inforem experto que aborda el análisis exahustivo del punto anterior para cada uno de los casos, plásmandose en un informe que se acompaña en el juicio y luego se reconoce en una audiencia, donde se analizan las imputaciones de hecho que tienen que ver con los datos analizados.
3. Validación de la información interna por un análisis externo:
Muchas veces, el equipo interno de la parte demandada no cuenta con los recursos o capacidades de realizar el análisis exhaustivo necesario para invalidar o desvirturar las imputaciones o alegaciones de hecho de la demanda. El trabajo que se realiza valida el trabajo interno o, en ocasiones, puede iluminar aspectos que no habían sido observados previamente por los análisis internos y que pueden impactar fuertemente las conclusiones.
4. Acompañamiento durante el juicio en las etapas relevantes del término probatorio:
Al poseer la calidad de abogado y al ser las materias analizadas en la mayoría de los casos decisoria litis, el acompañamiento que se realiza es de extrema utilidad a la hora de definir estrategias judiciales y pasos a seguir, puesto que el conocmiento no es sólo técnico sino también jurídico.
5. Levantamiento de potenciales riesgos en otras áreas contenidas en la data:
El análisis pormenorizado de la data habilita a detectar oportunamente tanto oportunidades como riesgos que diferentes actuaciones en las etapas del juicio puedan tener y que no se visualizaban originalmente por no ser parte directa en el origen de la demanda, pero si poder ser integradas en etapas posteriores como la rendición de la prueba.