盘点模型风险的七大来源

[编者案:本文转自搜狐首页。仅作学习交流之用。转发并不表示我们完全认同其观点。读者应自行做出独立判断。]

网络链接:https://mp.weixin.qq.com/s/hxpQ_hZtaaHzrQRgZqM

 

1023-1

 
模型是用于表示现实世界中的特定对象,由于使用错误或者不准确的金融模型而导致财务损失的风险称作模型风险。通常来说金融市场主要存在两类模型,即估值模型和风险计量模型。在估值模型中的模型风险可定义为“不能准确估计市场价格”的风险;而在风险计量模型中的模型风险可定义为“不能准确评估未来损失发生概率”的风险。随着金融机构内部风险管理、估值定价等方面广泛和深入地使用金融模型,导致模型风险的因素也不断增加,也进一步增强了模型风险的复杂性。
 
模型风险通常被认为是一种操作风险,模型风险主要影响创建或者使用该模型的公司。在模型应用过程中,过分依赖并夸大模型的解释能力,模型数据错误,或由于人为失误造成模型分析结果与实际结果偏离过大等都会造成模型风险。模型风险通常还与过强的模型假设或不恰当的使用目的相联系。
 
在构建金融模型时做出模型假设是必须的,但有些模型开发者对模型假设的重视程度不够,未考虑模型假设的适用性和完备性,模型假设与现实脱节,是模型失败的首要原因。忽略模型假设导致模型风险的主要来源总结如下:
 

 

(一)线性关系(Linearity)

 
线性关系是假设任意两个变量之间的关系可以用直线图来表示,由于大多数相关性度量是两个变量间关系的线性度量,因此线性关系假设是金融模型中最常见的假设之一。但若当两个变量间存在非线性关系时,对二者做出的线性关系假设会导致模型失效。
 
在投资组合管理中,通常根据组合资产历史收益率的相关性矩阵来描述投资组合的分散化投资效益,但如果两种资产之间存在非线性关系(如衍生品)时,相关性矩阵的运用会低估或高估分散化投资收益和风险。再比如,一家公司为了保持偿债能力而留存资本,计算中假设各种风险因子间呈线性关系,可能会导致公司留存的资本过多或过少,并且压力测试结果也无法真正反映公司的风险。
 

 

(二)平稳性(Stationarity)

 
平稳性描述的是一个时间序列的统计特征不随时间变化。在许多领域中平稳性是一个合理假设,例如重力常数不会突然间发生巨大变化,因此可定义为一个常数。考虑到模型风险,相关性、波动率和风险因子这三个因子通常被认为是平稳的,但实际上可能是非平稳的。
 

 

1、相关性(Correlation)

 
相关性的平稳性假设通常比较危险。正如前文所述,相关性用于衡量投资组合的分散化投资效益。当证券间存在负相关性或低相关性时,持有大量证券的分散化投资可以降低投资风险,但实际上在某些时间间隔内相关性并不稳定,尤其在市场低迷时期相关关系趋于破裂。
 

 

2、波动率(Volatility)

 
当使用随机过程来对证券价格建模时,经常假定波动率为一个平稳的变量。波动率是衡量证券收益率随时间变化的指标。对于衍生品来说,一般较高的波动率对应着较高的衍生品价格,因此若模型低估了波动率,也就相应地低估了衍生品价格。模拟Black Scholes模型的随机过程是几何布朗运动(GBM),该模型假设波动率是一个常数,该模型与使用CIR过程表示随机波动率序列的Heston模型[1]对比,二者所模拟的收益率区间差距是明显的。

1023-2
图 1 使用几何布朗运动模拟的资产价格
 
1023-3
图 2  使用Heston随机波动模型模拟的资产价格
 
图1 和图2比较分析可知,初值相同的情况下,使用Black Scholes模型产生的资产价格序列取值在500到2000之间,而使用Heston模型产生的结果在500到2500之间,由此可见波动率的非平稳性对于衍生品估值模型的影响。
 

 

3、风险因子(Risk Factors)

 
当回测交易策略时,往往隐含风险因子随时间变化为常数的假设,但事实上随着市场结构的变化,诸如动量、价值、均值回归和企业规模等风险因子会随着时间推移变强或变弱,风险因子是周期性的。例如,在经济泡沫期,动量因子推动着收益;在经济衰退期,价值因子可能会推动收益。
 

 

(三)正态性(Normality)

 
正态性是假设随机变量服从正态分布(也称高斯分布)。正态分布有很多好的性质,如任意正态分布的组合仍是正态分布;另外,通过采用正态分布假设,我们可以得到复杂问题的解析解。
 
在许多模型中,比如使用 -正态法计算VaR(Value at Risk)以及Black Scholes模型中的几何布朗运动都是假设市场收益率是服从正态分布的,但实际收益率分布呈现尖峰厚尾的特点,这意味着大多公司低估了尾部风险事件的数量,对于市场的冲击准备不够充足。例如1987年10月19日,全球许多股市下跌超过20%,标准普尔500指数创下自1950年迄今的单日最大跌幅,但在正态分布的假设下,这次暴跌是18- 事件,在统计学意义上表示不可能发生的事件。
 
因统计偏差导致模型风险的主要来源总结如下:
 

 

(四)样本偏差(Sampling Bias)

 
样本偏差是指样本不能代表整体,通常是由于抽样选择方法的偏差引起的,意味着样本中任意事件发生的概率大于或小于该事件在整体中出现的概率。样本选择方法最常见的有简单随机抽样、系统抽样、分层抽样和聚类抽样。
 
用简单随机抽样方法,每一个个体都有同等的被选择为样本的机会。在整体包含单一类别的个体时,这种抽样方法简单、快速且有效;但当整体包含多种类别的个体,并且每个类别的个体发生概率不同时,简单随机抽样会使样本不具代表性,统计数据有偏差。
分层抽样用于可标记数据,所抽取每个类别的个体数量与该类别的大小成比例。例如,三组类别A/B/C,各类占比为5%/70%/25%,则抽取100个样本需包含5个来自类别A,70个来自类别B,25个来自于类别C。此种抽样方法优点是具有代表性,缺点是仅适用于可标记数据,在整体差异不明显时不适用。
 
聚类抽样是对未标记数据进行分层抽样的样本选择方法,此方法包含两个步骤:首先使用聚类算法(如k-均值聚类或蚁群优化)将数据聚集到类中;其次对每个类别中数据进行抽样,使得样本中各类个体的比例与整体相同。这种方法克服了简单随机抽样在多类别数据中抽样的缺点,但抽样效果也取决于所选择聚类算法的表现。
 

 

(五)过度拟合/欠拟合(Over and Under Fitting)

 
过度拟合是指模型描述了数据集合的噪声而不是数据的基础关系,这通常会导致模型在样本内表现好,但样本外模型表现失效,模型具有很低的泛化能力。过度拟合一般发生在模型表达过于复杂的情况,比如模型中参数数量过多。过度拟合激励模型开发者使用更复杂的模型,如深度神经网络量化交易模型等。也有人认为简单线性回归模型将超越复杂模型,但这部分人忽略了简单模型无法衡量潜在的统计关系,导致欠拟合。

 

1023-4

图 3   欠拟合(左)、适当拟合(中)、过度拟合(右)
 
为了减少过度拟合发生的概率,可采用交叉验证的方法,将数据划分为训练集、测试集和验证集,使用训练集对模型训练,并在测试集和验证集分别进行过度拟合的测试,若显示模型过度拟合则停止模型训练。通常为了提高模型准确性会进行多个交叉验证,但也需要具备大量的数据。
 

 

(六)幸存者偏差(Survivorship Bias)

 
幸存者偏差是对数据集进行统计分析时,该数据集只包含那些“存活”到某一特定时间点的实体。例如分析对冲基金产生的收益情况,有一些对冲基金因损失惨重而倒闭,如果研究过去三年对冲基金的收益情况,那仅包含目前还存续的对冲基金,并不包含失败的对冲基金,则数据集无法反映对冲基金的真实风险情况,这被称作生存者效应。
 

 

(七)遗漏变量偏差(Missing Variable Bias)

 
当模型遗漏了一个或多个重要变量时产生遗漏变量偏差,即通过高估或低估其他变量的影响,错误地弥补遗漏变量,从而导致偏差,尤其是在遗漏变量与其他变量存在相关关系时,情况尤其如此。遗漏变量可能会导致较大的预测误差。
 
为了避免遗漏变量偏差,可选取能解释因变量的差异最大的一组变量,也称最优子集法。也可通过识别特征向量(可用变量的线性组合)来进行主成分分析,但需要注意主成分分析也可能导致过度拟合数据。另外也可在模型中迭代增加变量,即逐步多元线性回归和自适应神经网络所采用的方法。

 


转自:扑克

ssl

版权  © 2024 , Beacon Securities Insititute Inc. 保留所有权利