
dCUR para reducción de dimensiones, y popstudy, para el análisis de series temporales y otros métodos utilizados en estimaciones demográficas, ambos disponibles en CRAN.
Ante la necesidad de gestionar riesgos regulatorios y optimizar la oferta comercial, asumí la ejecución de pruebas de Estrés y BUST para la SUGEF. Mi rol principal consistió en proyectar variables macroeconómicas clave (inflación, tasas y tipos de cambio), donde logré unificar los resultados estadísticos con el criterio experto de la alta gerencia. Este equilibrio garantizó que las proyecciones no fueran solo números, sino escenarios validados y aceptados por el negocio para la toma de decisiones críticas.
En lugar de modelos de “caja negra”, entregué herramientas comprensibles que permitieron a los altos mandos identificar con claridad qué productos ofrecer a cada cliente. Al automatizar estos reportes y crear variables de valor mediante Machine Learning, transformé el Data Warehouse en un motor de soluciones directas que alinean el rigor técnico con los objetivos estratégicos de la organización.

Como consultor especialista en estadística e inteligencia de datos, he liderado proyectos de alta complejidad para organismos internacionales (UNICEF, UNFPA, BID) e instituciones gubernamentales, transformando datos masivos en activos estratégicos. Mi intervención ha sido clave en hitos nacionales, desde la validación técnica del Censo 2022 mediante el procesamiento de microdatos territoriales, hasta el diseño metodológico del Índice de Bienestar de la Niñez y la Adolescencia (IBINA). A través de modelos avanzados de clasificación, inferencia y el desarrollo de aplicativos de visualización en R, he optimizado la capacidad de gobiernos y organizaciones para fundamentar políticas públicas y planes de inversión en evidencia sólida.
Mi experiencia trasciende fronteras, habiendo colaborado en proyectos de consultoría internacional mediante ecosistemas de trabajo global, donde he ejecutado desde análisis descriptivos críticos hasta modelos predictivos para la transformación digital educativa en Latinoamérica. Al integrar el rigor científico con una visión orientada a resultados, he logrado que estructuras de datos complejas se conviertan en herramientas intuitivas de gestión, garantizando que cada hallazgo estadístico se traduzca en una ventaja competitiva o un impacto social medible. Mi enfoque no se limita a procesar información, sino a diseñar la infraestructura analítica que permite a las organizaciones liderar en la era del dato.

En el marco de las elecciones nacionales de 2018 en Costa Rica, marcadas por una volatilidad política sin precedentes, colaboré con el equipo de investigación del CIEP-UCR para fortalecer la robustez del estudio poselectoral. Mi aporte fue fundamental en la fase de diseño, donde contribuí a la formulación de preguntas estratégicas para el cuestionario nacional aplicado a 1,500 personas, asegurando que las variables recolectadas permitieran capturar con precisión las nuevas dinámicas del comportamiento ciudadano. Me encargué de transformar datos complejos en información accionable mediante la generación de visualizaciones de datos y la ejecución de análisis estadísticos descriptivos. Estas herramientas permitieron identificar patrones clave en la participación y el descontento social, facilitando una interpretación clara de los factores sociodemográficos y actitudinales que influyeron en el proceso electoral. Mi trabajo garantizó que los hallazgos del proyecto fueran presentados con rigor científico y alta claridad visual, consolidando la posición de este estudio como el referente de mayor credibilidad técnica en el país.

Ante la creciente brecha entre la acumulación masiva de datos y la obtención de valor real, lideré el diseño y ejecución de programas avanzados de analítica técnica en la Universidad de Costa Rica. Mi objetivo fue capacitar a profesionales multidisciplinarios para superar el desafío de procesar datos crudos y convertirlos en activos estratégicos mediante el uso de herramientas de vanguardia y metodologías ágiles como CRISP-DM.
Optimizé los procesos de aprendizaje mediante la implementación de entornos avanzados en R, Python y SQL, enfocados en la automatización de la captura de datos (CSPro), visualización de alto impacto y el despliegue de modelos de Machine Learning para clasificación predictiva. Logré certificar a grupos de expertos en la manipulación de grandes volúmenes de datos y la validación de modelos bajo estándares de control de versiones con Git, asegurando una reproducibilidad del 100% en el análisis estadístico y una mejora sustancial en la precisión de las inferencias para la toma de decisiones basada en evidencia.
En esta etapa me desempeñé como doncente en los siguientes cursos:

En un entorno empresarial saturado de información, el desafío principal fue capacitar a futuros administradores para transformar datos brutos en inteligencia de negocios procesable. Lideré el diseño y ejecución del programa de Probabilidad y Estadística I, donde automaticé la transferencia de conocimientos técnicos hacia aplicaciones prácticas en el campo económico. Mi intervención se centró en el desarrollo de competencias críticas, desde la estructuración de investigaciones estadísticas y el diseño de instrumentos de recolección de datos, hasta el dominio de modelos de probabilidad avanzada (Binomial, Normal y Poisson) y medidas de variabilidad.
Para garantizar la excelencia académica, implementé un sistema de evaluación continua basado en el análisis de casos reales y la resolución de problemas complejos, logrando que el estudiante no solo dominara la matemática, sino que interpretara la simetría y el comportamiento de los datos para la toma de decisiones. El resultado fue una tasa de éxito académico integral, donde el 100% de la evaluación estuvo vinculada a la aplicación práctica, culminando en informes finales que cumplieron con estándares de calidad profesional y rigor estadístico.

Ante el desafío de actualizar las estimaciones y proyecciones de población 1950-2100 en un contexto de cambios demográficos acelerados y datos complejos, lideré el desarrollo metodológico y tecnológico del proyecto para garantizar la precisión de las políticas públicas. Optimizé la capacidad institucional mediante la creación y publicación en CRAN del paquete popstudy de R, herramienta con la que automaticé el procesamiento de registros administrativos y la implementación de modelos avanzados como Lee-Carter para mortalidad y análisis de conglomerados de K-medias para datos funcionales.
Esta intervención no solo modernizó la infraestructura analítica de la institución, sino que incrementó exponencialmente la eficiencia operativa al migrar procesos críticos de SPSS a R. El impacto directo se refleja en la entrega de una metodología robusta y comparable que permite el monitoreo constante de la dinámica demográfica nacional hasta el año 2100, asegurando datos de alta calidad para el desarrollo inclusivo y sostenible del país.

El Poder Judicial de Costa Rica enfrentaba una brecha crítica de información: la falta de datos específicos sobre la percepción de calidad en el ámbito Auxiliar de Justicia, lo que impedía una toma de decisiones alineada con su Plan Estratégico Institucional. Ante este desafío, lideré el diseño metodológico y técnico de una investigación enfocada en capturar la voz del usuario externo (civil). Mi intervención se centró en la creación de un instrumento de medición robusto, fundamentado en diez factores clave de calidad como la fiabilidad, capacidad de respuesta y seguridad, garantizando así la trazabilidad técnica necesaria para evaluar servicios sensibles como los del Ministerio Público y el OIJ.
Como resultado directo, desarrollé un marco metodológico replicable que incluye un diseño muestral especializado y herramientas de análisis multivariado para la tabulación de datos críticos. Este proyecto no solo proporcionó el primer diagnóstico real sobre el estado de la calidad percibida, sino que entregó a la Contraloría de Servicios un activo estratégico para optimizar la gestión pública y fortalecer la legitimación social de la justicia.

Ante la complejidad de la base de datos del Censo Nacional 2022 y la necesidad de procesar información de alta calidad para políticas públicas, asumí la responsabilidad de liderar el análisis y validación técnica de los 487 distritos de Costa Rica. Utilizando software avanzado como R, desarrollé una metodología rigurosa para auditar la estructura poblacional y la cobertura, identificando patrones críticos en viviendas no visitadas y calculando tamaños de muestra precisos para zonas con baja representatividad. Mi intervención fue clave para robustecer la integridad de los datos mediante la clasificación de distritos por nivel de complejidad y la validación de métodos de imputación estadística.
Este trabajo técnico dio como resultado la entrega de cinco productos estratégicos que aseguraron la viabilidad de la información censal para su divulgación oportuna. Logré transformar datos brutos en una estructura validada y confiable, permitiendo al INEC y al UNFPA contar con una base sólida para la toma de decisiones nacionales. Mi gestión no solo cubrió un vacío técnico especializado, sino que garantizó que los indicadores clave de omisión y cobertura cumplieran con los estándares internacionales de calidad estadística.


En el marco de la planificación nacional, se identificó la necesidad crítica de transformar datos demográficos complejos en herramientas accesibles para la toma de decisiones. Lideré la supervisión técnica y validación del desarrollo de una interfaz interactiva en Shiny (R), diseñada para democratizar el acceso a las estimaciones y proyecciones de población del INEC. Mi intervención aseguró que el aplicativo no solo fuera técnicamente robusto, sino también compatible con los métodos de programación institucional, garantizando una transición fluida hacia el uso de los datos del Censo 2022.
A través de una metodología de co-creación y revisión rigurosa, validé la integración de módulos avanzados como separadores de Karup-King para grupos de edad y la automatización de indicadores demográficos críticos (tasas de crecimiento, relación de dependencia y tablas de vida). El resultado fue una plataforma de alta precisión que habilita la descarga de datos en múltiples formatos y genera visualizaciones dinámicas, como pirámides poblacionales y tendencias temporales. Este proyecto dotó a las entidades gubernamentales de una herramienta de consulta ágil que optimiza la planificación de proyectos orientados al bienestar social.
Ante la volatilidad de la Tasa de Mortalidad Infantil Interanual (TMII) en Costa Rica y su impacto crítico en las proyecciones de población y asignación presupuestaria regional, lideré un análisis exhaustivo de la serie temporal 1989-2017. Utilizando el lenguaje R y técnicas avanzadas de neuromarketing aplicadas a la visualización de datos, desarrollé una metodología robusta para transformar datos crudos del INEC en una herramienta estratégica de toma de decisiones.Diseñé y comparé más de 550 modelos estadísticos, incluyendo regresión, suavizamiento exponencial y modelos ARIMA con intervención. Logré implementar un modelo ARIMA $(3,1,4)(1,0,1)_{12}$ con intervención en cinco periodos clave, el cual demostró una precisión superior en el conjunto de entrenamiento y validación. Esta intervención técnica permitió generar pronósticos confiables para el 2018 con un intervalo de confianza del 95% (valores entre 5.54 y 10.38), proporcionando una base sólida para la planificación socioeconómica nacional.







