ECONÓMICAS

Pineda Guerrero, Rojas Medina, Agudelo Aguirre y Duque Hurtado / Económicas CUC, vol. 43 no. 1, pp. 57–82, Enero - Junio, 2022

CUC

Valor en Riesgo y simulación: una revisión sistemática

Value at Risk and simulation: a systematic review

DOI: https://doi.org/10.17981/econcuc.43.1.2022.Econ.3

Resumen

El valor en riesgo es la medida de mercado utilizada por las instituciones financieras y adoptada por el Comité de Basilea para calcular y gestionar el riesgo, lo que la convierte en una medida necesaria para el sector financiero. En este artículo se realiza un estudio bibliométrico del Valor en Riesgo (VaR) y su cálculo mediante procesos de simulación. Para ello se revisan las investigaciones publicadas en los últimos 20 años en las bases de datos Scopus y Web of Science, recopilando los documentos más relevantes para su análisis. Posteriormente se presenta la justificación del tema y se elabora la red social utilizando la analogía del árbol, en la que cada uno de los documentos más importantes se clasifican como raíz, tronco u hoja. Asi mismo, se identifican las perspectivas de del tema mediante un análisis de co-citaciones, las cuales, permitieron establecer 4 principales áreas emergentes de investigación, como lo son, los modelos para la optimización de portafolios de inversión, diseño y evaluación de pruebas para evaluar medidas de gestión de riesgos, aplicación de modelos de gestión de riesgos para el mercado energético, y finalmente, instrumentos financieros y sistemas de simulación. Finalmente, se concluye, que a pesar de la extensa investigación que se ha desarrollado desde la propuesta de Markowitz en la década de los cincuenta sobre el VaR y los diferentes procedimientos para estimarlo, aun se presenta la discusión para establecer un modelo que aborde de manera óptima los problemas de la varianza y valores atípicos que impactan las proyecciones de rendimiento en las compañías..

Palabras clave: Riesgo; valor en riesgo; VaR; bibliometría; mapeo científico

Abstract

Value at Risk is the market measure used by financial institutions and adopted by the Basel Committee to calculate and manage risk, which makes it a necessary measure for the financial sector. In this article, a bibliometric study of Value at Risk (VaR) and its calculation using simulation processes is carried out. For this purpose, research published in the last 20 years in the Scopus and Web of Science databases is reviewed, compiling the most relevant papers for analysis. Subsequently, the justification of the topic is presented and the social network is elaborated using the tree analogy, in which each of the most important documents is classified as root, trunk, or leaf. Likewise, the perspectives of the topic are identified through a co-citations analysis, which allowed to establish 4 main emerging areas of research, such as models for the optimization of investment portfolios, design and evaluation of tests to assess risk management measures, application of risk management models for the energy market, and finally, financial instruments and simulation systems. Finally, it is concluded that despite the extensive research that has been developed since Markowitz's proposal in the 1950s on VaR and the different procedures to estimate it, there is still a discussion to establish a model that optimally addresses the problems of variance and outliers that impact the performance projections of companies..

Keywords: Risk; value at risk; VaR; bibliometric; scientific mapping

Artículo de revisión.

Fecha de recepción: 09/07/2020

Fecha de devolución: 16/09/2020

Fecha de aceptación: 16/09/2020

Fecha de publicación: 21/07/2021

Mauren Silene Pineda Guerrero E:\Users\aromero17\Downloads\orcid_16x16.png

Casautos / Caja de Compensación Familiar de Caldas

Manizales, Caldas (Colombia)

Ricardo Alfredo Rojas Medina E:\Users\aromero17\Downloads\orcid_16x16.png

Universidad Nacional de Colombia Sede Manizales

Manizales, Caldas (Colombia)

Alberto Antonio Agudelo Aguirre E:\Users\aromero17\Downloads\orcid_16x16.png

Universidad Nacional de Colombia

Manizales, Caldas (Colombia)

Pedro Luis Duque Hurtado E:\Users\aromero17\Downloads\orcid_16x16.png

Universidad Católica Luis Amigó

Manizales, Caldas (Colombia)

.

Para citar este artículo:

Pineda Guerrero, M. S., Rojas Medina, R. A., Agudelo Aguirre, A. A. & Duque Hurtado, P. L. (2021). Valor en Riesgo y simulación: una revisión sistemática. Económicas CUC, 43(1), 57–82. DOI: https://doi.org/10.17981/econcuc.43.1.2022.Econ.3

JEL: C15, G29.

Introducción

Los riesgos en los mercados emergentes y las crisis financieras presentadas en diversos países han sido la causa de la excesiva volatilidad. Un ejemplo es el caso de la crisis asiática que tuvo lugar durante 1997 y 1998, y su extensión a otros países de la zona con economías similares, dentro de los cuales se encontraron Filipinas, Malasia, e Indonesia (Gencay & Selcuk, 2003). En esta misma línea, la crisis financiera mundial de 2008 y 2009, generada por la inexactitud en la medición de los riesgos financieros en grandes empresas, y unida a una estructura de incentivos perversa, condujo al colapso del mercado hipotecario de vivienda, desencadenando la crisis y recesión mundial (Vijverberg, Vijverberg & Taspinar, 2015).

Esto mismo sucede con situaciones de crisis como la del petróleo en 1973, que generó un aumento en las oscilaciones de las tasas de interés; el lunes negro en 1987, con la caída del índice principal del mercado de valores de los Estados Unidos; la de Japón en 1989; y la del sistema monetario europeo en 1992 (Gencay & Selcuk, 2004). Paralelamente, América Latina no fue ajena a esta coyuntura, es así como en 1999 en Brasil se generan grandes fugas de capital, causando el incremento de la tasa de interés a corto plazo, mientras que en Chile, Venezuela, Ecuador, Colombia y Argentina, entre 1997 y 1999, la moneda perdió valor frente al dólar (Gencay & Selcuk, 2004).

Las anteriores situaciones, unidas al aumento de la liquidez del mercado y de las cantidades de capital invertidos en carteras de instituciones financieras, fueron las causantes de la medición del riesgo de pérdidas en el mercado, que inicialmente fue establecida por la desviación estándar. No obstante, a inicios de los 90, los bancos comenzaron a adoptar ampliamente el Valor en Riesgo (VaR) como medida de riesgo de una cartera, la cual fue reconocida por el Acuerdo de Basilea en 1996 (Bank for International Settlements-BIS, 2011), convirtiéndose en la medida más prevalente en la gestión de riesgos del sistema bancario.

El VaR es definido como la pérdida máxima de la cartera en una unidad de tiempo con un nivel de confianza que generalmente se determina en el 95% o el 99%, si bien es cierto que la interpretación es sencilla, no lo es su estimación por el efecto que tiene en su cálculo las suposiciones que se hacen sobre las distribuciones de pérdida (Scheller & Auer, 2018).

El modelo clásico de media y varianza se plantea como un problema de optimización de dos criterios con una compensación entre el riesgo mínimo y el máximo rendimiento, el cual supone que los retornos están distribuidos de manera normal (Markowitz, 1952). Sin embargo, en la mayoría de los casos, las distribuciones de los retornos son asimétricas y suelen tener exceso de curtosis, motivo por el que el VaR como medida de riesgo ha sido cuestionado con alguna frecuencia.

Estas limitaciones han dado lugar a investigaciones en las cuales se pretende separar los movimientos descendentes indeseables de los ascendentes deseables, dando lugar al planteamiento de diferentes propuestas, siendo el VaR y el Valor en Riesgo Condicional (CVaR) las más frecuentes. La elección de estas medidas está basada en distintos factores dentro de los cuales sobresalen las propiedades matemáticas, la estabilidad de la estimación estadística, la simplicidad de los procedimientos de optimización y la aceptación por parte de la industria financiera (Lwin, Qu & McCarthy, 2017).

En esta medida, algunos investigadores han planteado sus propuestas frente a los inconvenientes que presenta el VaR como solución a la gestión del riesgo, alternativas que tienen su inicio en el método de media-varianza propuesto por Markowitz (1952), siguiendo con:

  1. La Simulación histórica, en la que pueden mencionarse los trabajos de Gençay et al. (2003), Pritsker (2006), Escanciano y Pei (2012) y Broadie, Du y Moallemi (2011).
  2. La Teoría de valores extremos, estudiada por autores como Pérignon y Smith (2010), Marimoutou, Raggad y Trabelsi (2009) y Ziggel, Berens, Weib y Wied (2014).
  3. El Desarrollo de programas y rutinas para mejorar los procesos computacionales requeridos en simulación y estimación, con autores como Yao, Li y Lai (2013).
  4. El Diseño de pruebas o test para medir la bondad de los modelos, con estudios como los desarrollados por Artzner, Delbaen, Eber y Heath (1999), Andersson, Mausser, Rosen y Uryasev (2001), Kuester, Mittnik y Paolella (2005), Zaichao y Escanciano (2016) y por Colletaz, Hurlin y Perignon (2013).
  5. Se culmina con la teoría de Valores Extremos y Valor en Riesgo Condicional, estudiada por Glasserman, Heidelberg y Shahabuddin (2002), Gordy y Juneja (2010) y por Gaglianone, Renato, Linton y Smith (2011).

Finalmente se presentan los cuadros con los resultados de la producción científica anual, las publicaciones por países, principales autores en publicaciones y los documentos que presentaron mayor índice para cada una de las categorías consideradas al realizar la analogía de árbol concluyendo con las perspectivas.

Proceso Metodológico

El desarrollo de la presente investigación se dividió en tres partes. La primera comprende la justificación del tema, teniendo en cuenta indicadores bibliométricos y con base en la herramienta bibliometrix para realizar el mapeo científico (Aria y Cuccurullo, 2017). En la segunda, se elaboró la red social de los documentos más relevantes en el área y después fueron clasificados en raíz, tronco y hojas, utilizando la analogía de árbol (Robledo, Osorio y López, 2014). En la tercera, se identificaron sub-áreas de trabajo realizando un análisis de co-citaciones. Esta metodologia ha sido aplicada en multiples investigaciones (Buitrago, Duque y Robledo, 2020; Duque y Duque, 2020; Duque y Cervantes-Cervantes, 2019; Zuluaga et al., 2016; Robledo et al., 2014). De modo que los resultados obtenidos y las labores principales efectuadas durante cada una de estas etapas se indican a continuación:

Etapa 1: Búsqueda y análisis bibliométrico

Durante esta fase se analizó la producción científica mediante indicadores bibliométricos, para esto se observó la producción anual durante los últimos 20 años que aparece registrada en las bases de datos Scopus y Web of Science. Seguido a esto, se seleccionaron los países, autores y revistas que presentaron las 10 mayores publicaciones sobre cada uno de estos temas para las bases de datos consideradas.

Este análisis bibliométrico fue realizado con el paquete Bibliometrix, una herramienta del programa R (versión 3.0), que se caracteriza por ser un software de código abierto. Igualmente, es útil para la investigación cuantitativa en cienciometría y bibliometría por sus rutinas para importar datos bibliográficos y permitir la construcción de redes para la co-citación, el acoplamiento y análisis de co-palabras (R, versión 3.0).

Etapa 2: Red y árbol

Con la red establecida, se estudió la relación existente entre los documentos que la integran mediante el empleo de la teoría de grafos; que además de facilitar el estudio de relación, suministra información referente a la tipología y características de cada documento. Este método es utilizado en ciencias sociales y del comportamiento, así como en economía, marketing e ingeniería industrial (Wasserman & Faust, 1994). Este proceso parte de la obtención de los registros de las bases de datos utilizadas.

Seguido a esto, se fusionó la información obtenida y se extrajeron las referencias bibliográficas para cada documento. Luego, se realizó una depuración de los resultados eliminado duplicados y se efectuó la transformación en red utilizando la herramienta Sci2 (versión 1.3), con la cual fue posible visualizar la red e importar los datos.

Enseguida, se empleó el software Gephi (versión 0.9.2), un programa de código abierto para el análisis de redes que permite elaborar resultados gráficos, especialmente en lo que a red se refiere; adicionalmente, optimiza el uso de la memoria y posibilita trabajar con más de 20 000 nodos (Bastian, Heymann & Jacomy, 2009). El programa también facilita la formulación de hipótesis, permite encontrar patrones o separar singularidades y cuenta con las siguientes aplicaciones: análisis exploratorio de datos, análisis de enlace de redes sociales y de redes biológicas, así como la creación de carteles (Gephi, versión 0.9.2).

Por otro lado, en el análisis de red se estableció el número de veces en las cuales un documento ha sido referenciado por otros utilizando con el indicador in-degree; la cantidad de veces que un nodo en particular cita a otros con el empleo del indicador out-degree y; el grado de intermediación y centralidad, en el cual cada autor cita y es citado por otros, con el empleo del indicador betweenness (Zhang, Luo & Boncella, 2017).

Etapa 3: perspectivas

Con el propósito de identificar las perspectivas o sub-áreas del tema, se elaboró un análisis de cluster, que es un procedimiento con el cual se puede categorizar los documentos mediante el estudio de co-citaciones, y así establecer los temas que conforman las perspectivas, a través de minería de texto. Para esto se utilizó el paquete WordCloud, que es una librería que tiene el programa R (versión 3) y con la cual se puede generar nubes de palabras y así visualizar las diferencias y similitudes entre documentos.

Resultados

Los resultados obtenidos se muestran en la Tabla 1, donde se puede observar que la fecha de consulta fue realizada entre el 15 y el 29 de marzo de 2020 y el período estudiado fue el comprendido entre enero de 2001 y marzo de 2020. Como resultado, se obtuvo un total de 1.309 artículos en Scopus y 772 en Web of Science, para un total de 2.081 referencias bibliográficas sobre el tema. La ecuación de búsqueda utilizada en las bases de datos para identificar los documentos fue “value at risk” and tema: “simulation*”.

Tabla 1.

Criterios y resultados de búsqueda en el análisis bibliométrico.

Base de datos

Ecuación de búsqueda

Resultados

Artículos Totales

Scopus

“value at risk” and tema: “simulation*”.

1 309

2 081

Web of Science

Periodo de tiempo: Todos los años.

Fecha búsqueda: 15 a 29 de marzo 2020.

772

Fuente: Elaboración propia.

Producción Mundial

En la Figura 1 se observa el crecimiento de los trabajos publicados durante los últimos 20 años por base de datos y a nivel global. De modo que, se puede evidenciar el crecimiento que presenta la producción académica en lo que se refiere a VaR, y como a partir de 2015, su incremento es mayor, encontrándose su pico más alto en el año 2019. Es así como, al calcular la tasa de crecimiento promedio anual, se encuentra un valor de 15.56%, pero debe tenerse en cuenta que para el año 2020 solo se incluye el primer trimestre, esto por la fecha en que se realizó el estudio.

En lo que respecta a la información que suministran las bases de datos, se encuentra que ambas presentan un crecimiento similar para todo el periodo considerado, las dos observan un mayor incremento de producción a partir del 2015 y tienen su pico más alto en el 2019.

En la Figura 2 se indican los países que presentaron mayores publicaciones. Se puede apreciar como China cuenta con una producción mayor a Estados Unidos. En tercer lugar, y distando de China y de los Estados Unidos, se encuentra Alemania y más distante Australia y Canadá.

Figura 1. Producción científica anual.

Nota: La información para el año 2020 está dada hasta el mes de marzo.

Fuente: Elaboración propia.

Figura 2. Publicaciones por países.

Fuente: Elaboración propia.

Principales autores y revistas

En la Tabla 2 aparecen los 10 investigadores que cuentan con la mayor cantidad de artículos producidos e índice de citación. Aquí se destacan Wang, B. y Watadata, J., por contar con el mayor número de artículos publicados en ambas bases de datos. En lo referente al índice de citaciones, sobresale McAleer, M., quien presenta los indicadores de citaciones más altos, que corresponden a 42 y 38 en Scopus y WoS respectivamente. Le sigue en Scopus, Wang, B. y Watadata, J., ambos con 23; mientras que en WoS está Watadata, J. con 20, y Chen, C. W. S y Wang, S., cada uno con 19. Aquí es importante destacar que Wang, B., Watadata, J. y McAleer, M., además de contar con los más altos índices de citaciones, en conjunto tienen el 32.35% del total de producción sobre VaR en los últimos 20 años.

Tabla 2.

Principales autores en investigaciones

Scopus

Wos

Autor

No de publicaciones

H-Index

Autor

No de publicaciones

H-Index

Wang, B.

11

23

Wang, B.

7

8

Watada, J.

10

23

Watada, J.

7

20

McAleer, M.

9

42

Chen, C. W. S.

6

19

Hong, L. J.

8

20

Hoga, Y.

6

4

Chen C. W. S.

7

22

Li, Y.

6

2

Hou, Y.

7

20

McAleer, M.

6

38

Wang, S.

7

16

Zhu, S. S.

6

10

Asai, M.

6

11

Lee, S.

5

16

Gerlach, R.

6

18

Righi, M.

5

7

Hoga, Y.

6

4

Wang, S.

5

19

Fuente: Elaboración propia.

Por otra parte, en la Tabla 3 se indican las 10 revistas que presentan la mayor cantidad de publicaciones, de ellas el 50% de las revistas están catalogadas en cuartil 1, el 30% son de cuartil 2 y las restantes se clasifican en el cuartil 3. Adicionalmente, la mayor cantidad de artículos sobre VaR fueron publicados por las revistas Journal of Banking and Finance, Journal of Risk y Quantitative Finance, respectivamente.

Tabla 3.

Revistas con la mayor cantidad de publicaciones.

Revista

No de publicaciones

Cuartil

Bases de datos

Journal of Banking And Finance

27

Q1

Scopus

23

wos

Journal of Risk

16

Q2

Scopus

24

wos

Quantitative Finance

17

Q1

Scopus

19

wos

Journal Of Econometrics

16

Q3

Scopus

15

wos

Journal of risk model validation

12

Q1

Scopus

18

wos

European Journal of Operational Research

13

Q1

Scopus

14

wos

Computational Statistics and Data Analysis

14

Q2

Scopus

13

wos

Journal of Forecasting

12

Q2

Scopus

12

wos

Communications in Statistics Simulation and Computation

12

Q3

Scopus

10

wos

Energy

12

Q1

Scopus

10

wos

Fuente: Elaboración propia.

Documentos principales

Para la elaboración de la red social se contó con un total de 3 900 documentos, que fueron clasificados en el esquema analógico denominado árbol, ubicando cada uno de los documentos en una de tres posibles categorías denominadas como, raíz, tallo u hojas. En la raíz se ubican los documentos clásicos, es decir, los que son citados pero no citan a otros documentos de la red. En el tronco se localizan los documentos estructurales, que hace referencia a los que citan y son citados. Mientras que en las hojas se sitúan los documentos más recientes y que se caracterizan porque citan documentos ubicados en el tronco o las raíces, pero no son citados.

En la Tabla 4 se indican los títulos y los autores de los primeros 15 documentos que hacen parte de las categorías del análisis de árbol, luego, se hace una síntesis del contenido de estos documentos realizando el estudio para cada una de las áreas en que fue dividido; en otros términos, raíz, tallo y hojas.

Tabla 4.

Documentos que presentaron mayor índice por categoría.

Raices

Tronco

Hojas

Portfolio Selection (Markowitz, 1952).

Poetafolio value at risk with heavy tailed risk factors (Glasserman et al., 2002).

How does the choice of Value-at-Risk estimator influence asset allocation decisions? (Scheller and Auer, 2018).

Autoregressive conditional heteroscedasticity with estimates of the variance with estimates of the variance of united kingdom inflation 1 (Engle, 1982).

Backtesting Expected Shortfall: Accounting for Tail Risk (Du and Escanciano, 2017).

Backtesting extreme value theory models of expected shortfall (Novales and Garcia-Jorcano, 2019).

Generalized autogressive conditional heteroscedasticity (Bollerslev, 1986).

The level and quality of Value-at-Risk disclosure by commercial banks (Pérignon and Smith, 2010).

Numerical comparison of multivariate models to forecasting risk measures (Müller and Righi, 2018).

Conditional heteroskedasticity in asset returns: a new approach (Nelson, 1991).

High volatility, thick tails and extreme value theory in value-at-risk estimation (Gençay et al., 2003).

Where does the tail begin? An approach based on scoring rules (Hoga, 2020).

On the Relation between the Expected Value and the Volatility of the Nominal Excess Return on Stocks (Glosten et al., 1993).

Extreme Value Theory and Value at Risk: Application to oil market (Marimoutou et al., 2009).

Farmer risk-aversion limits closure of yield and profit gaps: A study of nitrogen management in the southern Australian wheatbelt (Monjardino et al., 2015).

Tecniques for verifying the accuracy of risk measurement models (Kupiec, 1995).

The Risk Map: A new tool for validating risk models (Colletaz et al., 2013).

Mean-VaR Portfolio Optimization: A Nonparametric Approach (Lwin et al., 2017).

An overview of value at risk (Duffie and Pan, 1997).

Mean–CVaR portfolio selection: A nonparametric estimation framework (Yao et al., 2013).

Linking Tukey’s Legacy to Financial Risk Measurement (Vijverberg et al., 2016).

Evaluating interval forecasts (Christoffersen, 1998).

The hidden dangers of historical simulation (Pritsker, 2006).

Bayesian realized-GARCH models for financial tail risk forecasting incorporating the two-sided Weibull distribution (Wang et al., 2019).

Coherent measure of risk (Artzner et al., 1999)

Efficient Risk Estimation via Nested Sequential Simulation (Broadie et al., 2011)

Value-at-risk performance in emerging and developed countries (Gaio et al., 2018)

Estimation of tail-related risk measures for heteroscedastic financial time series: an extreme value approach (McNeil and Frey, 2000).

Confidence Intervals for Conditional Tail Risk Measures in ARMA-GARCH Models (Hoga, 2019).

The Univariate Collapsing Method for Portfolio Optimization (Paolella, 2017).

Optimization of conditional value-at-risk (Rockafellar and Uryasev, 2000).

Pitfalls in backtesting Historical Simulation VaR models (Escanciano and Pei, 2012).

Model-free inference for tail risk measures (Xu, 2016).

Conditional value-at-risk for general loss distributions (Rockafellar and Uryasev, 2002).

Credit risk optimization with Conditional Value-at-Risk criterion (Andersson et al., 2001).

Risk management in the energy markets and Value-at-Risk modelling: a hybrid approach (Andriosopoulos and Nomikos, 2015).

CAViaR: Conditional Autoregressive Value at Risk by Regression Quantiles (Engle and Manganelli, 2004).

Nested Simulation in Portfolio Risk Measurement (Gordy and Juneja, 2010).

Extreme value theory and Value-at-Risk: Relative performance in emerging markets (Gençay and Selçuk, 2004).

Value-at-Risk Prediction: A Comparison of Alternative Strategies (Kuester, 2005).

Evaluating Value-at-Risk Models via Quantile Regression (Gaglianone et al., 2011).

An efficient approach to quantile capital allocation and sensitivity analysis (Asimit et al., 2019).

Statistics and Quantitative Risk Management for Banking and Insurance (Embrechts and Hofert, 2014).

Bayesian Value-at-Risk and expected shortfall forecasting via the asymmetric Laplace distribution (Chen et al., 2012).

Fuente: Elaboración propia.

Documentos clásicos (Raíz)

El primer documento encontrado sobre riesgo fue el publicado por Harry Markowitz en 1952, en la revista —The Journal of Finance—, bajo el titulo "Portfolio Selection". En este trabajo, Markowitz (1952) parte del supuesto de que un inversor coloca todos sus fondos donde obtenga un mayor rendimiento. Sostiene que la cartera con el máximo rendimiento no es el que necesariamente tiene la mínima varianza, por lo que el inversor puede abandonar el rendimiento para reducir la varianza, o puede tomar el rendimiento al aceptar la varianza. En su publicación también indica que el rendimiento debe ser calculado bajo el concepto de valor esperado, mientras que la varianza se establece teniendo en cuenta la variabilidad del título y la covarianza existente entre los demás títulos analizados para la conformación del portafolio.

Respecto a la exposición al riesgo, Kupiec (1995) plantea que este se mide con el Valor en Riesgo, y que corresponde a un valor crítico de un portafolio potencial, resaltando la necesidad de cuantificar la exactitud de la estimación del VaR. Además de esto, señala que según los estudios, las pruebas de verificación del rendimiento requieren de muestras grandes por la poca precisión que se obtiene al trabajar con muestras pequeñas.

No obstante, en algunas situaciones con muestras grandes se encuentran errores al trabajar el VaR con el 1%. Desde otra perspectiva, Duffie y Pan (1997) plantean el VaR como la pérdida máxima del valor del mercado durante un periodo de tiempo dado, que se supera con una probabilidad del 1% y se centraliza en el riesgo de mercado, el cual relaciona los cambios de precios o tasas de instrumentos financieros.

Por otra parte, Kuester et al. (2005) sostiene que la estimación del riesgo es fundamental en la banca y las finanzas. Es por esto, que se han desarrollado múltiples estudios con el fin de trabajar diferentes modelos para predecir el Valor en Riesgo, y a pesar de que la mayoría de los enfoques no funcionan, algunos de ellos son aceptados por la regulación actual.

Artzner et. al. (1999) también discuten los métodos de medición y establecen cuatro propiedades deseables que deben tener las medidas de riesgo. Estos autores afirman que si se cumplen dichas propiedades, se tienen medidas coherentes, demostrando la congruencia de los métodos basados en escenarios. Por último, sugieren procedimientos que se deben seguir cuando la subaditividad no se cumple.

Otros investigadores han estado trabajando con series de tiempo como procedimiento alterno para lograr mejores mediciones del VaR, es así como Bollerslev (1986) propone una generalización del proceso ARCH para considerar variaciones condicionales en la ecuación de varianza condicional. Desde otra mirada, Glosten, Jagannathan y Runkle (1993) encuentran una relación negativa entre el rendimiento mensual esperado y la varianza condicional mensual con el uso de un modelo GARCH modificado; demuestran que la volatilidad mensual no es tan persistente y que los rendimientos positivos dan origen a una baja volatilidad condicional, mientras que los negativos originan una alta volatilidad condicional.

Estudios alternos para calcular el VaR, fueron realizados por Engle (1982), quien introduce un proceso Heteroscedástico Condicional Autorregresivo-ARCH, para estimar la media y la varianza de la inflación en el Reino Unido. Por otra parte, Nelson (1991) emplea los modelos GARCH para configurar la relación entre la varianza condicional y las primas por riesgo de activos. Encuentra inconvenientes en las aplicaciones de precios de activos por existir correlaciones negativas y descubre que las restricciones que tienen los parámetros del modelo son violadas; razón por la cual plantea un modelo ARCH como solución a las limitaciones presentadas.

En esta misma línea, McNeil y Frey (2000) presentan un método para calcular el VaR en una serie heterocedástica de rendimientos financieros mediante la combinación del ajuste de un modelo GARCH, con el cual estiman la volatilidad, y por medio de la teoría de valores extremos evalúan la cola de la distribución del modelo.

En este mismo año, surgen nuevos planteamientos para el cálculo y la medición de riesgo. Es así, como Rockafellar y Uryasev (2000) presentan un nuevo enfoque para optimizar una cartera de instrumentos financieros para reducir el riesgo, centralizando su trabajo en la minimización valor del riesgo condicional CVaR, también conocido como exceso de pérdida media, déficit medio o VaR de cola. Esta medida se considera mucho más consistente que el Var y presenta la característica de que las carteras con un CVaR bajo, también cuentan con un VaR bajo, de modo que con esta técnica se optimiza el Var y el CVaR de forma simultánea.

Desde otro enfoque, Engle y Manganelli (2004) en su documento “CAViaR: Condition al Autoregressive Value at Risk by Regression Quantiles”, sostienen que los desastres financieros presentados últimamente reflejan la necesidad de contar con una gestión eficaz de los riesgos y la urgencia que tienen las entidades financieras de adoptar medidas de riesgo precisas.

Asimismo, indican que la naturaleza de los riesgos ha cambiado con el tiempo y los métodos de medición deben adaptarse a las experiencias recientes. Afirman que el VaR se ha convertido en la medida estándar de riesgo de mercado utilizado por las instituciones financieras y sus reguladores y su popularidad obedece a la simplicidad conceptual y al hecho de resumir en un solo número resultados discutibles y complejos. Y así, concluyen que ninguna de las metodologías desarrolladas hasta ahora brinda soluciones satisfactorias.

Documentos estructurales (Tronco)

Los temas de los documentos de investigación que fueron considerados estructurales, se pueden clasificar en cuatro grupos según su contenido de la siguiente manera:

Grupo 1

Corresponde a investigaciones en las que se hacen propuestas para establecer el Valor de Riesgo por medio de teoría de valores extremos. Una de ellas es presentada por Chen, Gerlach y Lu (2012), quienes exponen en su documento que la crisis financiera mundial pone en tela de juicio los métodos de gestión de riesgos financieros. Fue así como, en 1988, el G10 decidió conformar el Acuerdo de Basilea, pero crisis posteriores obligaron al establecimiento de nuevos criterios para evaluar el riesgo de mercado; situación que impulsó a que en 1996, el Comité de Basilea aconsejara determinar un mínimo regulatorio, causando que el riesgo de mercado quedara representado por un número, el VaR. Más tarde, Basilea II recomendó un Back Testing para evaluar y comparar los modelos VaR (Chen et al., 2012).

Chen et al. (2012) también indican como un aspecto importante para la estimación del VaR es la forma de la distribución del retorno, tomando como referencia las pruebas empíricas de que los rendimientos diarios de los activos son de cola pesada o leptocúrtica y ligeramente sesgados negativamente. Por tal motivo, no puede caracterizarse solo por la media y la varianza, situación que se ha procurado superar adoptando la forma asimétrica de una distribución de Laplace para el sistema condicional de distribución de retornos y así, tener en cuenta la asimetría y las colas pesadas.

En esta misma dirección, Glasserman et al. (2002) desarrollan métodos eficientes para calcular el VaR cuando se cuenta con distribuciones de colas pesadas. Para esto, utilizan distribuciones multivariadas para su modelamiento y emplean el método de Montecarlo de baja varianza. Gracias a esta propuesta, superan las dificultades que presenta el VaR, y además se logra que las grandes pérdidas se muestren con más frecuencia.

Por otra parte, Gençay et al. (2003) hacen un estudio donde comparan el VaR calculado mediante el empleo de la teoría de valores extremos con el uso de la distribución de Pareto Generalizada-GPD, y lo comparan con otras metodologías como lo son: los métodos de media-varianza, simulación histórica y Modelos GARCH. Finalmente, llegan a la conclusión de que el modelo GPD es más robusto y práctico para implementar el VaR.

Marimoutou et al. (2009) sostienen que la protección contra riesgos del mercado es una necesidad, y sostienen que mientras que el VaR mide la exposición al riesgo a un nivel de probabilidad dado, la Teoría del Valor Extremo-EVT proporciona argumentos para su uso en la gestión de riesgos, ya que la Teoría del Valor Extremo Condicional y los procedimientos de Simulación Histórica Filtrada ofrecen mejoras importantes sobre los métodos tradicionales con los que se calcula el VaR.

Grupo 2

Son trabajos en los cuales se utilizan procesos de simulación para el cálculo del VaR. Dentro de ellos, se ubica la investigación realizada por Pritsker (2006), quien encuentra que diversas entidades financieras establecen el valor del VaR mediante procesos de simulación histórica, pero no tienen claridad sobre las propiedades de los métodos. Además de que la simulación no responde a los cambios de riesgo condicional, y sí lo hacen a los riesgos de manera asimétrica, por lo cual se hace necesario hacer ajustes para tener en cuenta las correlaciones.

Pérignon y Smith (2010) también realizaron estudios sobre el VaR y concluyeron que la calidad del VaR no presenta signos de mejora con el tiempo; y que si se calcula utilizando procesos de simulación histórica, se cuenta con información insuficiente sobre la volatilidad futura. Otros argumentos que hacen una crítica al VaR, son los presentados por Gordy y Juneja (2010), quienes sostienen que la medición de riesgo de las carteras de derivados requiere una simulación anidada; por lo que, las técnicas de fijación de precios internas se pueden omitir al realizar un pequeño número de ensayos, obteniendo con esto estimaciones más precisas, y minimizando así el error.

Por otro lado, Broadie et al. (2011) estudian el problema computacional al estimar el riesgo financiero con proceso de simulación anidada. Para esto, utilizan una simulación externa en la que se generan escenarios financieros, y una interna para estimar valores futuros de la cartera para cada escenario. Adicional a esto, proponen un algoritmo para estimar la gran pérdida.

Grupo 3

Conformado por los procedimientos que tienen como intención validar los modelos utilizados en el cálculo del VaR. Asimismo, Gaglianone et al. (2011) proponen un Backtest que no se basa únicamente en variables binarias, sino que, emplea una metodología en la que se identifican periodos de exposición al riesgo mediante el empleo de un modelo de regresión de cuantiles.

Respecto a la simulación histórica y la simulación histórica filtrada, Escanciano y Pei (2012) exponen que estos son métodos de previsión de VaR populares en bancos comerciales, además de afirmar que el Backtest incondicional es siempre inconsistente para los modelos Backtesting HS y FHS, lo que los lleva a proponer un Backtest ponderado.

Por otra parte, Colletaz et al. (2013) presentan un trabajo para validar modelos. En este se contabiliza el número y la magnitud de pérdidas extremas y se resume en forma gráfica todo el desempeño de un modelo de riesgo. Se parte de la definición de una situación en la que la pérdida supera tanto el VaR, como un Var con una probabilidad extremadamente baja, y luego, se prueba si las excepciones son rechazadas por las pruebas estándar de validación de modelos.

Grupo 4

Comprende los estudios que buscan medidas de riesgo sustitutas al VaR. Con base en esto, Du y Escanciano (2017) señalan que la gestión de riesgo ha sido de interés para los investigadores durante un largo tiempo, siendo desde los 90, el VaR la principal herramienta para el cálculo del riesgo. Sin embargo, esta medida ha sido criticada por no abarcar nada respecto a cuánto se podría perder en caso de que se presente una situación de cola; condición considerada como una gran limitante, al igual que la falta de subaditividad y de convexidad. Ante estas situaciones, el Comité de Basilea en el 2012, sustituyo el VaR por el Déficit Esperado (ES), indicando que esta será la medida de riesgo de mercado a utilizar para la regulación bancaria, añadiendo que las razones del cambio están fundamentadas en las propiedades que presenta el ES como medida de riesgo (Du y Escarciano, 2017).

Los estudios realizados por Anderson et. al. (2001) utilizan un modelo de cola o CVaR para estudiar la pérdida esperada que excede el valor en el riesgo crediticio. Para esto, realizaron la distribución de riesgo mediante simulaciones de Montecarlo y resuelven el problema de optimización por programación lineal. Desde otro punto de vista, Yao et al. (2013) utilizan el Valor Condicional en Riesgo-CVaR y emplean métodos de estimación no paramétrica para explorar la selección de la media de la cartera de CVaR. Para esto, calculan el CVaR estimando la función de pérdida. Indican que los modelos no paramétricos de media CVaR son problemas de optimización convexa y demuestran que calculado el CVaR, el VaR puede ser obtenido como un subproducto.

Documentos recientes (Hojas)

Los documentos que están incluidos en esta sección se caracterizan por ser trabajos que tienen como referencia los escritos que conforman las raíces y el tronco. A continuación, se presenta una breve síntesis del contenido de los trabajos que la conforman.

Gencay y Selcuk (2004) presentan un estudio del rendimiento relativo de modelos para calcular el VaR, tomando como base los rendimientos diarios del mercado de valores de nueve mercados emergentes. Estos autores elaboran un estudio de los métodos de media-varianza, simulación histórica y valores extremos, llegando a la conclusión que las estimaciones basadas en VaR son más precisas.

Por el contrario, Andriosopoulos y Nomikos (2015) proponen un conjunto de modelos de Valor en Riesgo para captar la dinámica del mercado energético. Dentro de las metodologías contempladas se encuentran la Simulación Montecarlo y la Simulación Histórica. El proceso de evaluación de dichos modelos está basado en la combinación de medidas estadísticas y económicas, para así proceder con la selección, considerando las posiciones de negociación largas y cortas.

Con relación al VaR, Xu (2014) sostiene que este no es sensible a las pérdidas catastróficas que se producen. Además, no satisface la subadición y por lo tanto, no es una medida de riesgo coherente. Asimismo, afirma que el Déficit previsto, definido como la Pérdida esperada, dado que la pérdida excede el VaR, proporciona una alternativa robusta como medida coherente del riesgo financiero que ha ganado popularidad. En su documento estudia la inferencia estadística del déficit previsto en un marco no paramétrico y se centra en los casos donde hay información disponible en las covariables.

Por otro lado, Scheller y Auer (2018) indican como en los últimos decenios el aumento de liquidez del mercado y las mayores cantidades de capital invertido en las instituciones financieras, han suscitado una preocupación primordial de los reguladores sobre el riesgo del mercado. También señalan que durante un largo tiempo la medida de riesgo de la cartera era la desviación estándar, y es en los 90, cuando los bancos comienzan a adoptar el VaR como definición de riesgo de la cartera.

Más tarde se muestra que el enfoque de valor extremo condicional produce mejores estimaciones de VaR. Con base en pruebas recientes, plantean que la estimación del VaR no es crucial para la toma de algunas decisiones, como es el caso de la clasificación de las inversiones. Sus investigaciones les permiten llegar a la conclusión de que los métodos sencillos, como simulación histórica, utilizados por diferentes bancos, no tienen por qué ser sustituidos por enfoques más complejos como el de la teoría del valor.

Otros modelos desarrollados para calcular el VaR son los presentados por Vijverberg et al. (2015), quienes enuncian que los datos financieros presentan distribuciones con colas gruesas y son asimétricos, razón por la cual el modelo Lambda Generalizado de Tukey-GTL puede ser útil en la medición de riesgos financieros, y en donde las medidas de VaR y el déficit esperado, pueden expresarse en formas analíticas simples. Estos autores concluyen que, para cierto conjunto de datos, el GTL puede capturar las mediciones de riesgo mejor que otras distribuciones.

Mientras tanto, Lwin et al. (2017) hacen referencia a la cartera óptima como aquella que mantiene un equilibrio entre beneficios y riesgo. En su estudio, emplean un modelo alternativo de Markowitz de variación media, bajo la premisa de que la optimización es computacionalmente intratable; por lo que, proponen un algoritmo para resolver el problema de optimización. Paolella (2017) también trabaja la optimización de la cartera. En su trabajo, propone métodos heurísticos para la toma de muestras, basadas en características determinables de los datos para acelerar y optimizar la búsqueda.

Desde otra línea, Muller y Brutti (2017) evalúan el rendimiento de los modelos multivariados para determinar el VaR, el ES y el EVaR. Para esto utilizan métodos de simulación histórica, de correlación condicional dinámica generalizada, y los métodos de cópula denominados: Regulares, De Vid y de Arquímedes Anidadas, encontrando superioridad en los métodos de cópula sobre los otros.

Wang, Chen y Gerlach (2019) hacen referencia al uso del VaR, describiendo que diversas instituciones financieras y empresas de todo el mundo lo emplean como ayuda en la toma de decisiones respecto a la asignación de capital y gestión de riesgos, convirtiéndose en la métrica estándar de la medición del riesgo, no obstante, es cuestionado por no medir las pérdidas esperadas extremas y no ser una medida coherente.

Recalcan la importancia de que las instituciones tengan acceso a pronósticos y modelos altamente precisos de VaR y de ES; lo anterior con el fin de tener una asignación precisa de capital, y evitar el incumplimiento y la sobreasignación de fondos. El modelo propuesto por estos autores para calcular el riesgo es una distribución de Weibull de dos caras, específicamente, para la volatilidad y para la previsión del riesgo de cola en una serie temporal financiera.

Asimit, Peng, Wang y Yu (2019) retoman los marcos reguladores bancarios de Basilea II y III, y señalan que es allí donde se establece el capital a través de dos medidas de riesgo estándar, que corresponden al VaR y al ES, siendo un asunto crucial la asignación del capital total para las líneas de negocio individual con el propósito de evaluar el rendimiento de cada línea. Estos autores basan su trabajo en la formulación de la asignación de capital, por lo que proponen un ajuste de un modelo AR-GARCH para ajustar cada variable de riesgo.

Siguiendo esta línea, Gaio, Pimenta, Guasti, Passos y Oliveira (2018) diseñan procedimientos para evaluar la capacidad de predicción de modelos de estimación del riesgo de mercado en tiempos de crisis financieras; comparando el modelo Var de simulación histórica, los modelos ARCH multivariados, el modelo condicional de correlación constante, la prueba de redes neuronales artificiales y las funciones de cópula. Al culminar su estudio, concluyen que los modelos cópula y ARCH tuvieron buenos ajustes y su comportamiento fue similar.

En cambio, Novales y García-Jorcano (2018) utilizan los datos del mercado de valores para analizar la calidad de modelos y procedimientos de déficit esperado a diferentes niveles de significación, y concluyen que los modelos basados en la EVT condicional producen pronósticos más precisos que los modelos no basados en EVT.

Perspectivas

Perspectiva 1

Se caracteriza por involucrar estudios tendientes a desarrollar modelos que permitan la optimización de conformación de portafolios y que den tratamiento a los rendimientos que presentan valores extremos. Esta situación dio origen al desarrollo de modelos de optimización y al cálculo del VaR como medida de riesgo, en los que se tenga en cuenta la incidencia de estos valores cuando se presentan. Es así como Babazadeh y Esfahanipour (2019) desarrollan un modelo de optimización en el que el VaR se estima por medio de la Teoría de valores extremos, para esto realizan tres modelos alternativos para el cálculo que son: simulación histórica, GARCH y t-student GARCH.

Por otra parte, Huang, Zhub, Fabozzi y Fukushima (2008) sostienen que, al considerar el riesgo del precio de los activos, un inversor se enfrenta a un riesgo de tiempo de salida, por no conocer en qué momento se puede presentar. Por este motivo en su trabajo desarrollan un modelo para la incertidumbre del tiempo de salida de la cartera denominado WCVaR, útil en los casos en que no se disponga de información o se disponga de información parcial sobre la salida.

Adicionalmente, Yao et al. (2013) estudian el problema de la selección de la cartera de valores medios-CVaR e integran la fórmula de cálculo de riesgos medidos por el VaR y el CVaR como un problema de optimización de la cartera de valores de renta variable. Moazeni, Coleman y Li (2013) hacen una propuesta de un enfoque computacional para calcular una estrategia óptima de ejecución de la cartera, enfoque que se basa en las simulaciones de Monte Carlo, una técnica de suavizado y en reglas paramétricas para encontrar la estrategia óptima.

Perspectiva 2

Esta corriente de investigación involucra el diseño de pruebas para medir la bondad del VaR y del CVaR como medida de gestión de riesgos; la utilización de modelos de pronósticos Garch para calcular el VaR y medir la volatilidad; y destacar que el método de simulación histórica como medida de riesgo es deficiente, razón por la que se plantean propuestas alternas que mejoran los cálculos.

Es por esto que, Du y Escanciano (2017) enfatizan en que el Comité de Basilea es quien estableció que el déficit esperado se debe utilizar como medida de riesgo de mercado, sustituyendo así la utilización del VaR como medida de riesgo por las limitadas propiedades que presenta, y sugiriendo nuevos procedimientos para realizar Backtest con la finalidad de medir la bondad del déficit esperado como medida de riesgo.

Ziggel et al. (2014) por su parte, proponen pruebas formales para los pronósticos del VaR, mejorando considerablemente los existentes. De otra parte, Chen et al. (2012) proponen un enfoque paramétrico para estimar y pronosticar el VaR y el ES con un modelo GJR-Garch. Entretanto, Perignon y Smith (2010) estudian los métodos utilizados para calcular el VaR; y aunque encuentran que el método de simulación histórica es un método popular, este presenta muy poca información sobre la volatilidad futura.

En tanto que, Pritsker (2006) encuentra que una variedad de grandes instituciones financieras calcula el Valor en Riesgo de sus carteras de negociación utilizando métodos basados en la simulación histórica y considerando que las propiedades de los métodos no están bien entendidas, esto indica que la simulación histórica es poco sensible a los cambios en el riesgo condicional y además responde de manera asimétrica a los cambios del riesgo.

Perspectiva 3

Comprende las investigaciones realizadas sobre demanda de precios del mercado energético, optimización de procesos en la gestión de riesgo del mercado energético y el establecimiento de técnicas difusas para la determinación del CVaR y VaR.

Como situaciones particulares sobre esta área, Zhang y Wang (2009) estudian el funcionamiento de los mercados de electricidad y analizan la metodología de fijación de precios de contratos cuando no hay arbitraje, obteniendo como resultado del estudio una propuesta en contratos de este mercado. Dahlgreen, Liu y Lawarree (2003) exponen un estudio crítico sobre lo que se ha aplicado hasta la fecha en los mercados de energía y qué áreas necesitan mayor investigación, resaltando la obligación que tienen las compañías de energía eléctrica para gestionar el riesgo en un mercado de energía eléctrica competitivo.

Jabr (2005) por su parte, señala que en una industria energética desregulada, las empresas productoras de energía hacen ofertas en los mercados energéticos, y por ende, deben contar con una óptima auto-programación, la cual se obtiene de la optimización de la maximización de beneficios de un modelo basado en precios marginales. Razón por la cual, en esta investigación se propone un método para auto-programación basada en el CVaR.

En lo que respecta a técnicas difusas y de optimización, Wang, Wang y Watadata (2011) plantean un nuevo modelo de selección de cartera por métodos difusos con el que se representa la pérdida con determinado nivel de confianza. Asimismo, sostienen que el azar difuso describe mejor la incertidumbre de los retornos y sugieren un algoritmo de simulación difusa para encontrar la solución óptima.

Desde otra perspectiva, Liu y Liu (2002) hacen una contribución a la solución de la optimización difusa al construir un modelo de valores esperados difusos, e integrar la simulación difusa, red neuronal y algoritmos genéticos para producir un algoritmo inteligente híbrido. Por otra parte, Kennedy y Elberhart (1995) introducen un concepto para la optimización de las funciones no lineales utilizando la metodología del enjambre de partículas.

Perspectiva 4

Estudia lo concerniente a riesgo de crédito en carteras de préstamos e instrumentos sujetos a posibles incumplimientos, simulación Montecarlo y cuantiles, y se proponen nuevos modelos para optimizar las ayudas computacionales. Es así como Glasserman y Li (2005) indican que la simulación de Monte Carlo es utilizada para medir el riesgo de crédito en carteras de préstamos, bonos corporativos y otros instrumentos que puedan generar incumplimientos.

La medición de estos instrumentos financieros es un problema de simulación porque las probabilidades de incumplimiento son bajas para los deudores de alta calificación y porque la gestión de riesgos está interesada por las pérdidas significativas las cuales resultan de un gran número de incumplimientos, por lo que en el documento ofrece un procedimiento para el modelo de cópula normal ampliamente utilizado para el riesgo de crédito de la cartera.

Broadie et al. (2011) realizan un estudio enfocando su atención en el riesgo y la probabilidad de una gran pérdida, proponen un nuevo algoritmo para estimar este riesgo y muestran que los resultados teóricos muestran que el estimador de riesgo tiene un orden de convergencia más rápido. Glasserman et al. (2002) en su documento desarrollan métodos eficientes para computar el VaR cuando los factores de riesgo subyacentes tienen una distribución muy variada y para el modelado de las colas pesadas trabajan distribuciones multivariadas y algunas extensiones de las mismas.

Hong (2009) sostiene que los cuantiles de un rendimiento aleatorio pueden ser empleados como medida del riesgo financiero, y para esto se requiere conocer como los cambios en los parámetros de entrada afectan los cuantiles de salida; en el trabajo realizado se estudia esta relación y como estos pueden ser esperanzas condicionales y luego proponen un estimador consistente de análisis de perturbalidad.

Gordy y Juneja (2010) indican como la medición del riesgo de las carteras de derivados casi siempre requiere una simulación anidada para los cual deben hacer un paso exterior y uno interior, y en estos procesos se adoptan una variedad de técnicas para evitar la simulación interna. En el estudio muestran que un número relativamente pequeño de ensayos en el paso interior puede producir estimaciones precisas.

Figura 3. Perspectivas.

Fuente: Elaboración propia.

Conclusiones

Al observar los resultados de los documentos que fueron identificados como clásicos, y que se ubicaron en la raíz, se puede evidenciar que el proceso inicia con la publicación por parte de Markowitz sobre la teoría del portafolio en 1952. Y a partir de allí, se inicia un proceso de extensa investigación sobre el valor del riesgo y los procedimientos para establecerlo. Sin embargo, aquí sobresale la importancia que tiene el valor de riesgo en la banca y la variedad de procedimientos con los que puede ser establecido. Esta diversidad se origina por la incidencia que tienen los valores atípicos, los cuales afectan la distribución del rendimiento, y que unidos a los problemas que presenta la varianza, agrava la situación.

Los contenidos de los documentos estructurales siguen ofreciendo procesos para establecer el Valor en riesgo, algunos de ellos hacen estudios comparativos de la metodología propuesta con respecto a otras que existen en el mercado y que son aceptadas por las entidades reguladoras. Adicionalmente, se establecen propiedades que debe tener el modelo utilizado para calcular el VaR y se diseñan tests para medir la bondad del modelo empleado. Es aquí donde se puede distinguir la importancia que tiene la teoría de valores extremos para el cálculo del VaR, dando introducción a un proceso metodológico para medir el riesgo, denominado VaR condicional.

Finalmente, en las hojas se resalta la importancia que tiene la gestión del riesgo en el mercado de valores y la necesidad de predicción del VaR especialmente en la banca y las finanzas. Por este motivo se hacen propuestas para evaluar la capacidad de predicción del VaR en tiempos de crisis financieras y se diseñan distintos modelos para su estimación, se profundiza en nuevas medidas de gestión del riesgo como el VaRC y se desarrollan pruebas para medir la bondad del modelo empleado en la gestión del riesgo.

En el estudio se observan cuatro líneas bien definidas de investigación, ellas son:

El presente artículo es resultado de investigación del proyecto de título homónimo.

Referencias

Andersonn, F., Mausser, H., Rosen, D. & Uryasev, S. (2001). Credit risk optimization with Conditional Value-at-Risk criterion. Mathemastical Programming, 89(2), 273291. https://doi.org/10.1007/PL00011399

Andriosopoulos, K. & Nomikos, N. (2015). Risk management in the energy markets and Value-at-Risk modelling: a hybrid approach. The European Journal of Finance, 21(7), 548574. https://doi.org/10.1080/1351847X.2013.862173

Aria, M, y Cuccurullo, C. (2017). Bibliometrix: una herramienta R para el análisis exhaustivo de la cartografía científica. Journal of Informetrics, 11(4), 959975. Disponible en https://doi.org/10.1016/j.joi.2017.08.007

Artzner, P., Delbaen, F., Eber, J. & Heath, D. (1999). Coherent Measures of Risk. Mathematical Finance, 9(3), 203228. https://doi.org/10.1111/1467-9965.00068

Asimit, V., Peng, L., Wang, R. y Yu, A. (2019). An efficient approach to quantile capital allocation and sensitivity analysis. Mathematical Finance, 29(4), 11311156. https://doi.org/10.1111/mafi.12211

Babazadeh, H. & Esfahanipour, A. (2019). A novel multi period mean-VaR portfolio optimization model considering practical constraints and transaction cost. Journal of Computational and Applied Mathematics, 361(1), 313342. https://doi.org/10.1016/j.cam.2018.10.039

Bastian, M., Heymann, S. & Jacomy, M. (May. 2009). Gephi: An Open Source Software for Exploring and Manipulating Networks. Presentation at Third Inter­national Conference on Weblogs and Social Media. ICWSM, San José, CA, USA. https://doi.org/10.13140/2.1.1341.1520

Bollerslev, T. (1986). Generalized Autoregressive Conditional Heteroskedasticity. Journal of Econometrics, 31(3), 307327. https://doi.org/10.1016/0304-4076(86)90063-1

Broadie, M., Du, Y. & Moallemi, C. C. (2011). Efficient Risk Estimation via Nested Sequential Simulation. Management Science, 57(6), 11721194. https://doi.org/10.1287/mnsc.1110.1330

Buitrago, S., Duque, P. y Robledo, S. (2020). Branding Corporativo: una revisión bibliográfica. Económicas CUC, 41(1), 143162. https://doi.org/10.17981/econcuc.41.1.2020.Org.1

Chen, Q., Gerlach, R. & Lu, Z. (2012). Bayesian Value-at-Risk and expected shortfall forecasting via the asymmetric Laplace distribution. Computational Statistics and Data Analysis, 56(11), 34983516. https://doi.org/10.1016/j.csda.2010.06.018

Colletaz, G., Hurlin, C. & Pérignon, C. (2013). The Risk Map: A new tool for validating risk models. Journal of Banking & Finance, 37(10), 38433854. https://doi.org/10.1016/j.jbankfin.2013.06.006

BIS. (2011). El Nuevo Acuerdo de Capital de Basilea. [Documento Consultivo]. Basilea: BIS. Recuperado de https://www.bis.org/publ/bcbsca03_s.pdf

Dahlgreen, R., Ching, C. & Lawarree, J. (2003). Risk Assessment in Energy Trading. IEEE Transactions on Power Systems, 18(2), 503511. https://doi.org/10.1109/TPWRS.2003.810685

Du, Z. & Escanciano, J. C. (2017). Backtesting Expected Shortfall: Accounting for Tail Risk. Management Science, 63(4), 940958. https://doi.org/10.1287/mnsc.2015.2342

Duffie, D. & Pan, J. (1997). An Overview of Value at Risk. The Journal of Derivatives, 4(3), 749. https://doi.org/10.3905/JOD.1997.407971

Duque, P. y Cervantes-Cervantes, L.-S. (2019). Responsabilidad Social Universitaria: una revisión sistemática y análisis bibliométrico. Estudios Gerenciales, 35(153), 451464. https://doi.org/10.18046/j.estger.2019.153.3389

Duque, P. y Duque, E. (2020). Marketing digital y comercio electrónico: un análisis bibliométrico. En: M. Redondo, A. Barrera y C. Duque (eds.), Nuevos modelos de negocio (pp. 7396). Pereira: Unilibre. Disponible en https://hdl.handle.net/10901/18463

Engle, R. F. (1982). Autoregressive Conditional Heteroscedasticity with Estimates of the Variance of United Kingdom Inflation. Econometrica, 50(4), 9871007. https://doi.org/10.2307/1912773

Engle, R. F. & Manganelli, S. (2004). CAViaR: Conditional Autoregressive Value at Risk by Regression Quantiles. Journal of Business & Economic Statistics, 22, 367381. https://doi.org/10.1198/073500104000000370

Escanciano, J. C. & Pei, P. (2012). Pitfalls in backtesting Historical Simulation VaR models. Journal of Banking & Finance, 36(8), 22332244. https://doi.org/10.1016/j.jbankfin.2012.04.004

Gaglianone, W., Renato, L., Linton, O. & Smith, D. (2011). Evaluating Value-at-Risk Models via Quantile Regression. Journal of Business & Economic Statistics, 29(1), 150160. https://doi.org/10.1198/jbes.2010.07318

Gaio, L., Pimenta, T., Guasti, F., Passos, I. & Oliveira, N. (2018). Value-at-risk performance in emerging and developed countries. International Journal of Managerial Finance, 14(5), 591612. https://doi.org/10.1108/IJMF-10-2017-0244

Gephi. (versión 0.9.2). Gephi. [Visualization and exploration software for graphs and networks]. Compiègne: UTC. Available: https://gephi.org

Gencay, R. & Selcuk, F. (2004). Extreme value theory and Value-at-Risk: Relative performance in emerging markets. International Journal of Forecasting, 20(2), 287303. https://doi.org/10.1016/j.ijforecast.2003.09.005

Gençay, R., Selçuk, F. & Ulugülyagci, A. (2003). High volatility, thick tails and extreme value theory in value-at-risk estimation. Insurance. Mathematics and Economics, 33(2), 337356. https://doi.org/10.1016/J.INSMATHECO.2003.07.004

Glasserman, P. & Li, J. (2005). Importance Sampling for Portfolio Credit Risk. Management Science, 51(11), 16431656. https://doi.org/10.1287/mnsc.1050.0415

Glasserman, P., Heilderberg, P. & Shahabuddin, P. (2002). Portfolio value-at-risk with heavy-tailed risk factors. Mathematical Finance, 12(3), 239269. https://doi.org/10.1111/1467-9965.00141

Glosten, L. R., Jagannathan, R. & Runkle, D. E. (1993). On the Relation between the Expected Value and the Volatility of the Nominal Excess. The Journal of Finance, 48(5), 17791801. https://doi.org/10.2307/2329067

Gordy, M. B. & Juneja, S. (2010). Nested Simulation in Portfolio Risk Measurement. Management Science, 56(10), 18331848. https://doi.org/10.1287/mnsc.1100.1213

Hong, L. J. (2009). Estimating Quantile Sensitivities. Operations Research, 57(1), 118130. https://doi.org/10.1287/opre.1080.0531

Huang, D., Zhub, S., Fabozzi, F. & Fukushima, M. (2008). Portfolio selection with uncertain exit time: A robust CVaR approach. Journal of Economic Dynamics & Control, 32(2), 594623. https://doi.org/10.1016/j.jedc.2007.03.003

Jabr, R. A. (2005). Robust Self-Scheduling Under Price Uncertainty Using Conditional Value-at-Risk. IEEE Transactions on Power Systems, 20(4), 18521858. https://doi.org/10.1109/TPWRS.2005.856952

Kennedy, J. & Elberhart, R. (Nov. 1995). Particle Swarm Optimization. Presented at Third International Conference on Neural Networks, ICNN, Perth, WA, Australia. https://doi.org/10.1109/ICNN.1995.488968

Kupiec, P. H. (1995). Techniques for Verifying the Accuracy of Risk Measurement Models. The Journal of Derivatives, 3(2), 7384. https://doi.org/10.3905/JOD.1995.407942

Kuester, K., Mittnik, S. & Paoella, M. (2005). Value-at-Risk Prediction: A Comparison of Alternative Strategies. Journal of Financial Econometrics, 4(1), 5389. https://doi.org/10.1093/jjfinec/nbj002

Liu, B. & Liu, Y.-K. (2002). Expected Value of Fuzzy Variable and Fuzzy Expected Value Models. IEEE Transactions on Fuzzy Systems, 10(4), 445450. https://doi.org/10.1109/TFUZZ.2002.800692

Lwin, K. T., Qu, R. & MacCarthy, B. L. (2017). Mean-VaR Portfolio Optimization: A Nonparametric Approach. European Journal of Operational Research, 260(2), 751766. https://doi.org/10.1016/j.ejor.2017.01.005

Markowitz, H. (1952). Portfolio Selection. The Journal of Finance, 7(1), 7791. https://doi.org/10.1111/j.1540-6261.1952.tb01525.x

Marimoutou, V., Raggad, B. & Trabelsi, A. (2009). Extreme Value Theory and Value at Risk: Application to oil market. Energy Economics, 31(4), 519530. https://doi.org/10.1016/j.eneco.2009.02.005

McNeil, A. J. & Frey, R. (2000). Estimation of tail-related risk measures for heteroscedastic financial time series: an extreme value approach. Journal of Empirical Finance, 7(3-4), 271300. https://doi.org/10.1016/S0927-5398(00)00012-8

Moazeni, S., Coleman, T. F. & Li, Y. (2013). Smoothing and parametric rules for stochastic mean-CVaR optimal execution strategy. Annals of Operations Research, 237, 99120. https://doi.org/10.1007/s10479-013-1391-7

Muller, F. M. & Brutti, M. (2017). Numerical comparison of multivariate models to forecasting risk measures. Risk Management, 20(1), 2950. https://doi.org/10.1057/s41283-017-0026-8

Nelson, D. B. (1991). Conditional Heteroskedasticity in Asset Returns: A New Approach. Econometrica, 59(2), 347370. https://doi.org/10.2307/2938260

Novales, A., & Garcia-Jorcano, L. (2018). Backtesting extreme value theory models of expected shortfall. Quantitative Finance, 19(5), 799825. https://doi.org/10.1080/14697688.2018.1535182

Paolella, M. (2017). The Univariate Collapsing Method for Portfolio Optimization. Econometrics, 5(2), 1–33. https://doi.org/10.3390/econometrics5020018

Perignon, C. & Smith, D. (2010). The level and quality of Value-at-Risk disclosure by commercial Banks. Journal of Banking & Finance, 34(2), 362377. https://doi.org/10.1016/J.JBANKFIN.2009.08.009

Pritsker, M. (2006). The hidden dangers of historical simulation. Journal of Banking & Finance, 30(2), 561582. https://doi.org/10.1016/j.jbankfin.2005.04.013

R. (version 3). Statistical computing and graphics. [Software environment]. Vienna: R Core Team. Available: https://www.r-project.org/

Robledo, S., Osorio, G. y López, C. (2014). Networking en pequeña empresa: una revisión bibliográfica utilizando la teoria de grafos. Revista Vínculos, 11(2), 117134. https://revistas.udistrital.edu.co/index.php/vinculos/article/view/9664

Rockafellar, R. T. & Uryasev, S. (2000). Optimization of conditional value-at-risk. Risk.net, 2(3), 2141. https://doi.org/10.21314/JOR.2000.038

Scheller, F. & Auer, B. (2018). How does the choice of Value-at-Risk estimator influence asset allocation decisions? Quantitative Finance, 18(12), 20052022. https://doi.org/10.1080/14697688.2018.1459806

Sci2 Tool. (versión 1.3). Science of Science. [Modular toolset]. Bloomington: CNS. Available: https://sci2.cns.iu.edu/user/index.php

Vijverberg, C.-P. C., Vijverberg, W. P. M. & Taşpınar, S. (2015). Linking Tukey’s Legacy to Financial Risk Measurement. Computational Statistics and Data Analysis, 100, 595615. https://doi.org/10.1016/j.csda.2015.08.018

Wasserman, S. & Faust, K. (1994). Social Network Analysis: Methods and Applications. Cambridge: CUP. https://doi.org/10.1017/CBO9780511815478

Wang, B., Wang, S. & Watadata, J. (2011). Fuzzy-Portfolio-Selection Models With Value-at-Risk. IEEE Transactions on Fuzzy Systems, 19(4), 758769. https://doi.org/10.1109/TFUZZ.2011.2144599

Wang, C., Chen, Q. & Gerlach, R. (2018). Bayesian realized-GARCH models for financial tail risk forecasting incorporating the two-sided Weibull distribution. Quantitative Finance, 19(6), 10171042. https://doi.org/10.1080/14697688.2018.1540880

Xu, L. (2014). Model-free inference for tail risk measures. Econometric Theory, 34(3), 132. https://doi.org/10.1017/S0266466614000802

Yao, H., Li, Z. & Lai, Y. (2013). Mean–CVaR portfolio selection: A nonparametric estimation framework. Computers & Operations Research, 40(4), 10141044. https://doi.org/10.1016/J.COR.2012.11.007

Zaichao, Du. & Escanciano, J. C. (2016). Backtesting Expected Shortfall: Accounting for Tail Risk. Management Science, 63(4), 940958. https://doi.org/10.1287/mnsc.2015.2342

Zhang, L., Luo, M. & Boncella, R. (2017). Product information diffusion in a social network. Electronic Commerce Research, 20(1), 319. https://doi.org/10.1007/s10660-018-9316-9

Zhang, Q. & Wang, X. (2009). Hedge Contract Characterization and Risk-Constrained Electricity Procurement. IEEE Transactions on Power Systems, 24(3), 15471548. https://doi.org/10.1109/TPWRS.2009.2021233

Ziggel, D., Berens, T., Weib, G. & Wied, D. (2014). A new set of improved Value-at-Risk back tests. Journal of Banking & Finance, 48(C), 2941. https://doi.org/10.1016/J.JBANKFIN.2014.07.005

Zuluaga, M., Robledo, S., Osorio, G. A., Yathe, L., González, D. & Taborda, G. (2016). Metabolómica y Pesticidas: Revisión sistemática de literatura usando teoría de grafos para el análisis de referencias. Nova, 14(25), 121128. https://doi.org/10.22490/24629448.1735

Biodata

Mauren Silene Pineda Guerrero es Tecnóloga en Finanzas de la Universidad de Caldas (Colombia). Administradora Financiera Universidad de Caldas. Miembro del grupo de investigación en Finanzas cuantitativas adscrito a la Facultad de Administración de la Universidad Nacional de Colombia (Sede Manizales). ORCID: https://orcid.org/0000-0003-4622-6163

Ricardo Alfredo Rojas Medina es Contador Público graduado de la Universidad Externado de Colombia. Especialista en Evaluación Socioeconómica de Proyectos de la Universidad de Antioquia (Colombia). Magíster en Investigación de Operaciones y Estadística de la Universidad Tecnológica de Pereira (Colombia). Coordinador del GTA Finanzas cuantitativas. Profesor asociado de la Universidad Nacional de Colombia (Sede Manizales). Experto en el diseño e implementación de los costos y su utilidad para el análisis y toma de decisiones; docente en distintos estamentos universitarios orientando asignaturas de sistemas de costos, contabilidad administrativa, contabilidad gerencial, contabilidad financiera, simulación financiera, estadística. ORCID: https://orcid.org/0000-0002-9135-2065

Alberto Antonio Agudelo Aguirre es profesional en Administración de Empresas de la Universidad Nacional de Colombia (Sede Manizales) con especialización en Ingeniería Administrativa y Financiera de la Universidad Nacional de Colombia (Sede Medellín). Magister (MsC) en Administración con énfasis en Finanzas de la Universidad Nacional de Colombia (Sede Manizales). Doctor (PhD) en Finanzas de la Universidad del CEMA (Buenos Aires, Argentina). Mis intereses académicos se enfocan hacia el análisis de la inversión en el mercado de capitales y el análisis y gestión del riesgo de proyectos, riesgo corporativo y riesgo de inversión. Actualmente me desempeño como profesor asociado del departamento de Administración de la Universidad Nacional de Colombia (Sede Manizales), en el área de finanzas. ORCID: https://orcid.org/0000-0001-6647-3482

Pedro Luis Duque Hurtado es docente investigador tiempo completo de la Universidad Católica Luis Amigó (Colombia). Administrador de empresas. Magister en Administración y estudiante doctorado en Administración de la Universidad Nacional de Colombia. Marketing como principal área de interés. ORCID: https://orcid.org/0000-0003-4950-8262