优化算法总结

优化算法总结,第1张

根据最优化问题的极值条件,将模量反算转化为非线性映射求零点的问题,结合数值微分计算弯沉对模量的一阶和二阶偏导数,建立了基于同伦方法反算路面模量的数学模型;并采用LIYORKE算法求解微分方程初值问题跟踪同伦曲线,获得模量的反算结果,在此基础上编制了相应的模量反算程序。通过对3种路面结构的落锤式弯沉仪(FWD)的实测弯沉盆进行模量反算,并与国内外其它反算程序比较,验证了同伦方法反算结果的精度和可靠性。同时,通过选取不同初始值进行反算比较,验证了同伦方法的大范围收敛性和反算结果的稳定性。结果表明,采用同伦方法进行路面模量反算有效地解决了常规最优化算法的初始值和局部收敛的问题,是一种精度好、速度快、效率高、结果稳定且大范围收敛的模量反算方法。

以上内容没有1000字,自己再展开下吧

梯度下降和牛顿法的推导均与泰勒公式有关,所以先介绍泰勒展开公式:

基本形式:

上面这个迭代形式将应用到下面的梯度下降和牛顿法中。

梯度下降法应用一阶泰勒展开,假设 L (θ)代表损失函数,目标:最小化损失函数,θ是需要更新的模型参数。下面公式中alpha是步长(学习率),可以直接赋值一个小的数,也可以通过line search。

牛顿法应用二阶泰勒展开,目标:最小化损失函数

g定义为雅克比矩阵,矩阵中各元素对应一阶偏导数

Hessian矩阵中各元素对应二阶偏导数。Hessian矩阵的逆同比于梯度下降法的学习率参数alpha,Hessian的逆在迭代中不断减小,起到逐渐缩小步长的效果。

1梯度下降法: 通过梯度方向和步长,直接求解目标函数最小值时的参数。

越接近最优值时,步长应该不断减小,否则会在最优值附近来回震荡。

2牛顿法:

优点:通过求解目标函数的一阶导数为0时的参数,进而求出目标函数最小值时的参数。收敛速度很快。海森矩阵的逆在迭代过程中不断减小,可以起到逐步减小步长的效果。

缺点:海森矩阵的逆计算复杂,代价比较大,因此有了拟牛顿法。

解决牛顿法计算比较复杂的问题,使用正定矩阵近似Hessian矩阵的逆,简化了运算的复杂度。

常用的拟牛顿算法:DFP算法和BFGS算法

以上就是关于优化算法总结全部的内容,包括:优化算法总结、线性规划这类问题应该怎么解题、计算机视觉算法工程师常见面试题1等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/10151550.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-05
下一篇 2023-05-05

发表评论

登录后才能评论

评论列表(0条)

保存