楼主: 何人来此
2011 57

[量化金融] 分布稳健经验优化模型的标定 [推广有奖]

  • 0关注
  • 4粉丝

会员

学术权威

78%

还不是VIP/贵宾

-

威望
10
论坛币
10 个
通用积分
64.8012
学术水平
1 点
热心指数
6 点
信用等级
0 点
经验
24593 点
帖子
4128
精华
0
在线时间
0 小时
注册时间
2022-2-24
最后登录
2022-4-15

楼主
何人来此 在职认证  发表于 2022-6-1 17:24:12 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
英文标题:
《Calibration of Distributionally Robust Empirical Optimization Models》
---
作者:
Jun-Ya Gotoh, Michael Jong Kim, Andrew E.B. Lim
---
最新提交年份:
2020
---
英文摘要:
  We study the out-of-sample properties of robust empirical optimization problems with smooth $\\phi$-divergence penalties and smooth concave objective functions, and develop a theory for data-driven calibration of the non-negative \"robustness parameter\" $\\delta$ that controls the size of the deviations from the nominal model. Building on the intuition that robust optimization reduces the sensitivity of the expected reward to errors in the model by controlling the spread of the reward distribution, we show that the first-order benefit of ``little bit of robustness\" (i.e., $\\delta$ small, positive) is a significant reduction in the variance of the out-of-sample reward while the corresponding impact on the mean is almost an order of magnitude smaller. One implication is that substantial variance (sensitivity) reduction is possible at little cost if the robustness parameter is properly calibrated. To this end, we introduce the notion of a robust mean-variance frontier to select the robustness parameter and show that it can be approximated using resampling methods like the bootstrap. Our examples show that robust solutions resulting from \"open loop\" calibration methods (e.g., selecting a $90\\%$ confidence level regardless of the data and objective function) can be very conservative out-of-sample, while those corresponding to the robustness parameter that optimizes an estimate of the out-of-sample expected reward (e.g., via the bootstrap) with no regard for the variance are often insufficiently robust.
---
中文摘要:
我们研究了具有光滑$\\ phi$-散度惩罚和光滑凹目标函数的稳健经验优化问题的样本外性质,并发展了一种数据驱动的非负“稳健参数”$\\ delta$校准理论,该参数控制与标称模型的偏差大小。基于鲁棒优化通过控制奖励分布的扩散来降低预期奖励对模型中错误的敏感性的直觉,我们表明,“小一点稳健性”(即$\\ delta$小,正)的一阶好处是显著减少样本外奖励的方差,而对平均值的相应影响几乎小一个数量级。一个含义是显著的方差(敏感性)如果稳健性参数得到适当校准,则可以以较小的成本降低。为此,我们引入了稳健均值-方差边界的概念来选择稳健参数,并表明可以使用重采样方法(如bootstrap)来逼近稳健参数。我们的示例表明,“开环”校准方法(例如,无论数据和目标函数如何,选择90美元\\%$置信水平)产生的稳健解决方案在样本外可能非常保守,而那些与稳健性参数相对应的参数(例如,通过bootstrap)在不考虑方差的情况下优化样本外预期回报的估计值,通常稳健性不足。
---
分类信息:

一级分类:Statistics        统计学
二级分类:Machine Learning        机器学习
分类描述:Covers machine learning papers (supervised, unsupervised, semi-supervised learning, graphical models, reinforcement learning, bandits, high dimensional inference, etc.) with a statistical or theoretical grounding
覆盖机器学习论文(监督,无监督,半监督学习,图形模型,强化学习,强盗,高维推理等)与统计或理论基础
--
一级分类:Computer Science        计算机科学
二级分类:Systems and Control        系统与控制
分类描述:cs.SY is an alias for eess.SY. This section includes theoretical and experimental research covering all facets of automatic control systems. The section is focused on methods of control system analysis and design using tools of modeling, simulation and optimization. Specific areas of research include nonlinear, distributed, adaptive, stochastic and robust control in addition to hybrid and discrete event systems. Application areas include automotive and aerospace control systems, network control, biological systems, multiagent and cooperative control, robotics, reinforcement learning, sensor networks, control of cyber-physical and energy-related systems, and control of computing systems.
cs.sy是eess.sy的别名。本部分包括理论和实验研究,涵盖了自动控制系统的各个方面。本节主要介绍利用建模、仿真和优化工具进行控制系统分析和设计的方法。具体研究领域包括非线性、分布式、自适应、随机和鲁棒控制,以及混合和离散事件系统。应用领域包括汽车和航空航天控制系统、网络控制、生物系统、多智能体和协作控制、机器人学、强化学习、传感器网络、信息物理和能源相关系统的控制以及计算系统的控制。
--
一级分类:Economics        经济学
二级分类:Econometrics        计量经济学
分类描述:Econometric Theory, Micro-Econometrics, Macro-Econometrics, Empirical Content of Economic Relations discovered via New Methods, Methodological Aspects of the Application of Statistical Inference to Economic Data.
计量经济学理论,微观计量经济学,宏观计量经济学,通过新方法发现的经济关系的实证内容,统计推论应用于经济数据的方法论方面。
--
一级分类:Electrical Engineering and Systems Science        电气工程与系统科学
二级分类:Systems and Control        系统与控制
分类描述:This section includes theoretical and experimental research covering all facets of automatic control systems. The section is focused on methods of control system analysis and design using tools of modeling, simulation and optimization. Specific areas of research include nonlinear, distributed, adaptive, stochastic and robust control in addition to hybrid and discrete event systems. Application areas include automotive and aerospace control systems, network control, biological systems, multiagent and cooperative control, robotics, reinforcement learning, sensor networks, control of cyber-physical and energy-related systems, and control of computing systems.
本部分包括理论和实验研究,涵盖了自动控制系统的各个方面。本节主要介绍利用建模、仿真和优化工具进行控制系统分析和设计的方法。具体研究领域包括非线性、分布式、自适应、随机和鲁棒控制,以及混合和离散事件系统。应用领域包括汽车和航空航天控制系统、网络控制、生物系统、多智能体和协作控制、机器人学、强化学习、传感器网络、信息物理和能源相关系统的控制以及计算系统的控制。
--
一级分类:Quantitative Finance        数量金融学
二级分类:Portfolio Management        项目组合管理
分类描述:Security selection and optimization, capital allocation, investment strategies and performance measurement
证券选择与优化、资本配置、投资策略与绩效评价
--

---
PDF下载:
--> Calibration_of_Distributionally_Robust_Empirical_Optimization_Models.pdf (971.61 KB)
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:优化模型 Optimization econometrics Experimental distribution

沙发
nandehutu2022 在职认证  发表于 2022-6-1 17:24:18
分布稳健经验优化模型的校准Jun-YA GOTOH+,MICHAEL JONG KIM,和ANDREW E.B.LIM*+日本东京中央大学工业与系统工程系。电子邮件:jgoto@indsys.chuo-u、 ac.jp加拿大温哥华不列颠哥伦比亚大学Sauder商学院。电子邮件:mike。kim@sauder.ubc.ca*新加坡国立大学运营研究与分析学院金融系分析与运营系,新加坡国立大学。电子邮件:andrewlim@nus.edu.sgAbstract.我们研究了具有光滑φ-散度惩罚和光滑凹目标函数的鲁棒经验优化问题的样本外性质,并发展了一种数据驱动的非负“鲁棒性参数”δt校准理论,该参数控制标称模型偏差的大小。基于鲁棒优化通过控制报酬分布的扩散来降低预期报酬对模型中错误的敏感性这一直觉,我们表明,“一点点稳健性”(即δ小,正)的一阶好处是显著减少了样本外奖励的方差,而对平均值的相应影响几乎小了一个数量级。其中一个含义是,如果稳健性参数得到适当校准,则可以以很低的成本获得实质性的方差(灵敏度)。为此,我们引入了稳健均值-方差边界的概念来选择稳健参数,并表明它可以使用重采样方法(如bootstrap)进行近似。

藤椅
可人4 在职认证  发表于 2022-6-1 17:24:22
我们的示例表明,由“开环”校准方法(例如,无论数据和目标函数如何,选择90%置信水平)产生的稳健解决方案在样本外可能非常保守,而那个些对应于稳健性p参数的参数,在不考虑方差的情况下优化无样本预期回报的估计(例如,通过引导),通常是非常稳健性的。1、简介经验优化(或样本平均近似(SAA))是一种期望值优化的方法,使用经验分布作为未知分布的替代模型。由于不正确的建模假设或估计不确定性,可能会发生误判,如果忽略误判,基于错误模型做出的决策可能会导致样本减少。分布式稳健优化(DRO)会计日期:2020年2月14日。2 GOTOH、KIM和Lim通过优化“名义模型”中最坏情况下的pertur bation,针对样本问题中的错误指定DRO模型通常由“模糊参数”δ参数化,该参数控制最坏情况下与标称模型的偏差大小。模糊度p参数可能表现为不确定性集的置信度水平或惩罚参数,该惩罚参数将替代概率分布与最坏情况下的标称目标之间的偏差度量相乘。参数δ定义了一系列最坏情况解{xn(δ):δ≥ 0},其中δ=0是经验/样本平均优化(即,无稳健性),随着δ的增加,解变得越来越保守。(这里,n表示用于构造鲁棒优化问题的历史数据集的大小。)δ的选择清楚地决定了鲁棒解决方案的样本外性能。

板凳
mingdashike22 在职认证  发表于 2022-6-1 17:24:27
本文的目的是研究DRO的样本外特性,并发展一种数据驱动校准“鲁棒性参数”的理论,用于凹向函数的最坏情况下的最大化问题。捐款摘要。(1) DRO是一个多目标问题。在我们的模型中,我们发现预期报酬对最坏情况偏离名义值的敏感性等于报酬的方差。基于这一见解和[16]的结果,我们表明,DRO是一个多目标问题,其目标是在控制对错检的最坏情况敏感性(方差)的同时最大化预期回报。人与灵敏度(方差)之间的权衡由稳健性参数δ控制,这表明在选择δ时应同时考虑这两个目标。(2) DRO的样本外特性和最坏情况下的灵敏度降低。我们证明了S AA和DRO的解是渐近正态的(n大),一点稳健性(δ小)总是会降低样本外数据的灵敏度(方差),并且灵敏度(方差)的降低几乎比δ小时对平均值的影响大一个数量级。我们还表明,最坏情况下的样本外预期回报有时可能比SAA更大,尽管相对于灵敏度/方差降低而言,这种改善通常很小(参见[8、17、20]了解这种现象的经验观察,以及[2]了解一维q值环境中的分析)。(3) 鲁棒性参数的校准。

报纸
可人4 在职认证  发表于 2022-6-1 17:24:30
DRO中δ的校准问题与各种机器学习算法中自由参数的选择有关。分布式稳健经验优化模型3的校准(例如,LASSO中的惩罚参数、岭回归、SVM等),通常通过交叉验证优化样本外损失的估计来进行调整,引导或其他一些重采样方法。虽然可以通过优化样本外预期报酬的估计来选择δ,但这忽略了DRO的多目标特性,这表明应同时考虑均值和方差。我们展示了如何使用重采样技术构建样本外稳健均值方差阈值。与我们的理论相一致,我们的例子表明,如果δ选择得当,在对预期回报影响最小的情况下,实质性方差减少是可能的。从我们的方法中获得的δ值通常比文献中提倡的标准置信水平(例如90%,95%)所暗示的值小得多,并且比仅通过最大化平均值获得的值大得多。其他相关文献。有几篇论文【12、16、18、22】从经验优化的角度讨论了DRO,其中奖励方差作为正则化器。最相关的是[16],它研究了当稳健性参数为sm-all时,带有(非常平滑的)φ-散度惩罚的DRO与均值方差问题之间的关系。最重要的区别在于【16】研究了样本内DRO问题,而本文是样本外分析。具体而言,我们描述了数据可变性对DRO解决方案的影响以及样本外奖励的均值和方差,这构成了选择稳健性参数δ的基于重采样的校准方法的基础。

地板
大多数88 在职认证  发表于 2022-6-1 17:24:33
我们的分析还揭示了DRO解决方案下样本外预期回报可能超过SAA的机制,这一现象已在许多论文中根据经验观察到,但尚未得到充分解释(我们将在下文对此进行更详细的讨论)。[12、16、18、22]和本论文中的一个共同主题是DRO和SAA方差正则化之间的关系,很自然会问为什么会存在这种关系。在这方面,我们表明,在最坏情况偏离名义的情况下,奖励的样本内方差等于平均值的灵敏度,因此在DRO中针对最坏情况进行优化与最大化预期奖励几乎是一样的,同时控制最坏情况下对模型误判(方差)的灵敏度。这将[16]中的讨论形式化,并深入了解SAA的Hydro和方差正则化之间的关系。【3】中还提出了方差正则化,以减少均值CVaR投资组合选择问题解决方案样本外性能的数据可变性影响,但未讨论与最坏情况优化的关系;关于最坏情况下CVaR和方差正则化之间的关系,另请参见【16】。4 GOTOH、KIM和Limal Related is【22】为稳健解决方案产生的样本外预期回报制定了有限样本概率假设。一个重要的区别是【22】研究的是无样本预期回报,而我们论文的重点是DRO的方差/灵敏度衰减特性以及校准的含义。

7
mingdashike22 在职认证  发表于 2022-6-1 17:24:37
此外,虽然[22]中的概率保证形式化了数据大小、模型复杂性、稳健性和样本外预期回报之间的关系,但这些结果取决于难以计算的数量(如覆盖数或VC维度),需要有界的目标函数,随之而来的通常担忧是,这种性质的性能界限是宽松的[1]。还要注意的是,[22]是有限样本分析,而我们的分析是渐进的(大样本量),尽管小数据集的校准实验产生的结果与我们的大样本理论一致。我们还提出了建议[12],该建议提供了最佳目标值的置信区间,并使用欧文的经验似然理论显示了解决方案的一致性,以及研究了随机变量预期值估计对模拟模型最坏情况扰动的敏感性。[5、9、15、26]研究了稳健性和正则化之间的关系,其中各种最坏情况下的回归和分类问题被证明与正则化回归和分类问题(岭、套索等)等价。与本文以及[22、12、16、18]相比,一个重要的区别是[5、9、15、26]中的正则化子作用于解,而本文中的灵敏度/方差惩罚作用于奖励。[5、9、15、26]中与解正则化的等价性表明,最坏情况下的回归和分类通过向原点收缩来减少解的方差(回归估计)。然而,这并不是DRO的一般属性,而是由回归和分类相关的客观功能驱动的。

8
mingdashike22 在职认证  发表于 2022-6-1 17:24:41
事实上,我们在第3节中表明,存在良好的凹奖励函数,其中DRO对SAA解的影响与解正则化的影响相反,使其偏离原点并增加其方差。我们对文献中校准DRO模型的各种方法进行了简要评论。一种方法是使用高置信度不确定性集,其中包括具有高概率的真实数据生成模型,其中置信度水平(通常为90%、95%或99%)是模型的基本要素【4、7、11、12、18】。这一点已被[6]所证实,该研究开发了查找此类最小不确定性集的方法,尽管置信度仍然是模型的原始值。这种方法的一个问题是它是“开环”的,所选择的置信水平独立于数据和目标函数。然而,没有理由认为这些特定的绩效水平与良好的样本外绩效有任何关系。分布式鲁棒性经验优化模型的校准5A第二次应用roach通过使用重采样程序(如引导或交叉验证)优化样本外预期回报的估计来选择鲁棒性参数δ。虽然δ现在取决于数据和目标函数(不再是“开环”),但它忽略了DRO的多目标特性。事实上,我们的结果表明,敏感性/方差降低是DRO的一阶效益,因此仅优化平均值对应于在(几乎)二阶效应的基础上选择δ。虽然在某些应用中,优化平均值可以产生比经验优化更高的样本外预期回报的解决方案,但在其他应用中,根据相同的标准,不稳健(即δ=0)是最优的。

9
可人4 在职认证  发表于 2022-6-1 17:24:44
在另一种情况下,δ值通常较大,其中灵敏度/方差可能进一步降低,对平均值的影响可以忽略不计。与传统的90%、95%或99%的置信度水平产生过于保守的解决方案的“高置信度”方法相比,这种方法可能不够稳健。最后,在【10】的满意度方法中,决策者指定了目标水平T,并发现在样本替代模型的最坏情况下达到该目标的“最可靠”决策。也就是说,他/她选择最大的robu-stness参数δ,在该参数下,最坏情况下的预期回报超过目标T,因此目标T是问题的原语,信任度δ得到优化。DRO的一个令人惊讶的特性是,样本外的预期回报有时会超过SAA解决方案,即使这是一种最坏的方法。这一点已经在[8、17、20]中得到了实证观察,并在[2]中针对二次奖励和一维决策变量进行了研究。我们表明,由于解的可变性,样本外预期回报及其“真实”最大化者与SAA决策之间的差异只不过是Jens-en不等式中的“差距”(参见图4.1),而样本外预期回报者DRO的改善,如果发生,正是DRO解下该“差距”的缩小。我们的结果表明,相对于最坏情况敏感性的降低,预期回报的变化可能很小,这是DRO模型的主要好处。最后,我们提到了研究具有风险敏感目标的随机优化问题的渐近性质的文献[24]。符号

10
何人来此 在职认证  发表于 2022-6-1 17:24:47
给定正实上定义的任何函数f,我们将f(δ)=o(δ)(作为δ→ 0)提供的limδ→0f(δ)/δ=0,我们写f(δ)=O(δ)(作为δ→ 0)假设存在M,δ>0,使得f(δ)≤ 所有δ的Mδ≤ δ. 给定a6 GOTOH、KIM和LIMcommon概率sp ace上定义的两个随机过程{Xn}和{Yn},我们将Xn=oP(Yn)写为任何>0,limn→∞P(| Xn/Yn |>)=0。论文大纲。我们在第2节中介绍了样本DRO模型和最差案例敏感性的概念。我们还表明,在最坏情况下,灵敏度等于所有有效光滑φ-散度的方差,并且我们的DRO问题等价于鲁棒性参数很小的多目标平均灵敏度问题。我们在第3节中描述了样品溶液的统计性质。我们还表明,相对于经验优化,forDRO有可能增加解的方差。我们在第4节中描述了经验优化(δ=0)和第5节中稳健优化(δ>0)的相关样本外奖励的均值和方差。在DRO的情况下,我们表明,当稳健性参数很小时,样本外方差缩减几乎比均值的任何变化都大一个数量级。我们在第6节介绍了我们的校准方法,该方法基于平均值和方差的重采样估计,并将其应用于第7节的三个示例。我们在第8.2节中得出结论。鲁棒经验优化设f(x,Y)为实值函数,其中x∈ Rdis是决策变量,Y∈ 分布为P的Rla随机向量。如果Y的分布P已知,我们可以求解maxxepf(x,Y), (2.1)(关于f的假设将在后面给出)。在许多情况下,分布P未知。相反,我们有历史数据Y,···,Y生成的i.i.d。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-9 15:18