为提高分布式在线优化算法的收敛速度,对底层网络拓扑依次添边,提出一种快速的一阶分布式在线对偶平均优化( FODD)算法。首先,对于分布式在线优化问题,运用添边方法使所选的边与网络模型快速混合,进而建立数学模型并设计FODD算法对其进行优化求解。其次,揭示了网络拓扑和在线分布式对偶平均收敛速度之间的关系,通过提高底层拓扑网络的代数连通度改进了Regret界,将在线分布式对偶平均(ODDA)算法从静态网络拓展到时变网络拓扑上,并证明了FODD算法的收敛性,同时解析地给出了收敛速度。最后的数值仿真表明:和ODDA算法相比,所提出的FODD算法具有更快的收敛速度。
近年来,网络和分布式计算的迅猛发展造就了从大型集成电路计算机到分布式网络工作站的一个跃变,这使得分布式网络受到了越来越多的重视,并在传感器网络、机器学习和智能电网等多个方面具有广泛的应用前景。分布式网络中的个体通过相互协调合作,可以有效解决各种大规模复杂现实问题,提高数据传递效率,增强网络鲁棒性。基于分布式随机梯度下降算法建立模型,不仅更好地利用了全局数据信息,而且提高了分布式随机梯度下降算法的收敛速度和性能。提出了基于Push-sum的分布式对偶平均算法解决优化问题,但并不能实时处理网络数据流,造成网络中时间和资源浪费,成本代价高。因为在实际应用中,分布式网络一般都运行在动态环境下,如可再生能源系统的调度和传感器观测是时变的,其不确定性对整个网络的成本函数造成重大影响,导致建立的优化问题更加复杂。为了解决这一问题,本文研究基于在线的分布式优化算法,在线分布式优化算法不仅有效提高了算法的鲁棒性,且在机器学习和网络数据流实时处理方面有着重要应用随。作为衡量在线优化算法性能的一个重要指标,Regret界刻画了随时间推移的累积成本与最佳固定决策所产生的成奉之间的差值,因此在线优化算法的优劣可由Regret界的大小进行判断。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
全部0条评论
快来发表一下你的评论吧 !