浅谈分布式鲁棒随机优化

浅谈分布式鲁棒随机优化,第1张

        随机规划与鲁棒优化都能很好地刻画随机问题,但是前者需要知道随机变量的概率分布信息,后者虽可求解问题,但是得到的解过于保守。分布式鲁棒优化则是一种基于信息不充分做出决策的优化方法。与随机规划,鲁棒优化相比,它弥补了数据与决策及统计与优化框架之间的差距,同时也继承了鲁棒优化的可求解性与随机规划刻画随机问题的灵活性。此外,分布式鲁棒优化采用最坏情况方法来正则化优化问题,从而减轻了随机优化中优化器的灾难问题。

       而分布式鲁棒随机优化中的核心就是模糊集的构造,当模糊集确定好之后就是如何利用现代鲁棒优化技术使之变得可求解和应用。这是因为虽然分布式鲁棒优化自1958年由Scarf's 关于报童问题而得到人们关注,但它是在现代鲁棒优化技术的发展之下而得到了迅猛地成长。关于分布式鲁棒优化中的随机变量的实现大概可以分为两种,离散和连续。在连续的情况下,熟知的模糊集有三种构造方式:①矩信息构造的模糊集:它包含满足随机变量的矩约束(各阶矩)的所有分布;②基于度量的模糊集:利用概率距离函数(如Prohorov metric ,K-L divergence ,Wasserstein metric etc.)将模糊集定义为概率分布空间的球体,其中球体的中心是历史数据的均匀分布(经验分布),然后以 为模糊集半径包含随机变量的未知真实分布。这就出现了一个问题,这个Wasserstein球体有多大的置信度能包含随机变量的未知真实分布呢?如果置信度很低或前燃是就不包含未知真实分布,那这个模糊集就真的是很模糊了。Fournier N. 和Guillin A. 在其On the rate of convergence in Wasserstein distance of the empirical measure中证明了在该模糊集下可以以 的置信度包含未知真实分布。此外Bertsimas E.证明了在1-型Wasserstein度量下,经验分布是弱收敛于真实分布的。

      现在基于度量的模糊集较为热门。因为从它的构造上我们可以看到,真实分布大概就是经验分布加上一个扰动(此处我们称之为模糊集半径),所以我们可以通过控制这个模糊集的半径来把握未知分布的保守度,显然,如果 ,则模糊集就收缩为一个只包含经验分布的singleton ,这种情况下分布式鲁棒优化问题就退化为一个无模糊慧汪虚集的SAA随机优化问题。第三种模糊集为拟合优度检验的置陵此信域。

稳定性指的是系统在某个稳定状态下受余枝到较小的扰动后仍能回到原状态或另一个稳定状态;

而鲁棒性指的是同一个算法适用于多个系统(或系统的多个状态),即系统的特征参数发生较小变化之后仍能保持良好的性能(比如稳定性)

举个例子来说,自行车如果没有人的驾驶,是个不稳定的系统;而人骑上自竖散敏行车组成的系统是个稳定的系掘春统。一个人可以驾驭多种自行车,则说明这个人对这些自行车的使用具有鲁棒性。

一般鲁棒优化问题都可以转化为一个min max 问题,察游可以看出御没棚每一次总是把最大值(峰值)减至最小(这往往比将平均值镇则降至最小付出的代价更大)。而实际情况恰好为最大值(worst-case)的可能性很小,故我们说鲁棒优化具有一定的保守性(因为考虑的是最差情况下的最优)。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/12366988.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-24
下一篇 2023-05-24

发表评论

登录后才能评论

评论列表(0条)

保存