当前位置:体坛均波-有意思吧 > 梦到中奖号码什么意思

梦到中奖号码什么意思

发布时间:2019年2月3日18时18分55秒

百度正式发布PaddlePaddle深度强化学习框架PARL-产经要闻-科技讯首页新闻科学猎奇手机数码游戏登录新闻互联网业界电信创业产经手机新机评测导购苹果安卓应用产品数码家电智能VR极客游戏产业攻略圈子动漫科学宇宙探索动物世界自然地理历史考古科技前沿科普科学/技术医学/健康人文/生活自然/生物猎奇未解之谜UFO探索野史秘闻灵异事件奇闻趣事社会热点环球视野科技讯首页>产经>>正文百度正式发布PaddlePaddle深度强化学习框架PARL北斗瞳2019-01-1814:38:45产经强化学习作为AI技术发展的重要分支,为各家AI公司高度重视。

去年,百度首次参与NeurIPS2018的强化学习赛事,就击败了多达400支来自全球研究机构以及各大公司研究部门的参赛队伍,大比分以绝对优势拿下了冠军,强化学习作为AI技术发展的重要分支,为各家AI公司高度重视。

去年,百度首次参与NeurIPS2018的强化学习赛事,就击败了多达400支来自全球研究机构以及各大公司研究部门的参赛队伍,大比分以绝对优势拿下了冠军,并受邀在加拿大蒙特利尔举办的NeurIPS2018CompetitionWorkshop上分享。

近日,百度PaddlePaddle正式发布在赛事夺冠中起到关键作用的深度强化学习框架PARL,同时开源了基于该框架的NeurIPS2018强化学习赛事的完整训练代码。

PARL的名字来源于PAddlepaddleReinfocementLearning,是一款基于百度PaddlePaddle打造的深度强化学习框架。

PARL凝聚了百度多年来在强化学习领域的技术深耕和产品应用经验。

与现有强化学习工具和平台相比,PARL具有更高的可扩展性、可复现性和可复用性,强大的大规模并行化和稀疏特征的支持能力,以及工业级应用案例的验证。

自2012年以来,百度就将在multi-armbandits问题上的研究成果成功落地到推荐系统中,广泛应用于搜索、对话、推荐等产品,通过点击反馈结合在线训练的方式,动态调整探索(exploration)和收益(exploitation)的平衡点,降低探索风险的同时最大化推荐收益。

近年来,百度在工业应用以及学术研究上进一步引入强化学习,落地在不仅限于凤巢,新闻Feed推荐等应用上,并且应用在前沿的学术研究领域例如机器人控制,通用人工智能AGI等。

2018年,在机器人控制会议CoRL上,百度发表了干预强化学习机制的工作;进而在NeurIPS2018的强化学习赛事上击败了400多个全球研究机构的参赛队伍,首次参赛就拿下了NeurIPS2018强化学习赛事冠军。

参赛队伍中不乏RNN之父创立的公司、卫冕冠军NNAISENSE、阿里、Yandex、Intel等强劲对手。

设计深度强化学习框架是相当具备挑战性的工作。

虽然各大公司先后推出了一些强化学习框架,比如Intel的Coach、OpenAI的baseline、Google的Dopamine等,但截止到目前,开源社区中仍没有一个主导的RL框架。

这其中主要的一个原因是强化学习近年来发展迅猛,新的研究方向不断涌现。

从15年Deepmind发表DQN算法以来,涌现了大量的DQN算法变种,包括DoubleDQN、DuelingDQN、Rainbow等,同时在连续控制(continuouscontrolRL),分层控制(hierarchicalRL),多机器人控制(multi-agentRL)上涌现出相当多的新技术,甚至和元学习(meta-learning)以及环境建模(model-based)等结合起来。

当前社区中存在的开源框架虽然可以支持其中的一部分算法,但是由于技术迭代太快,之前设计的框架难以跟上最新的研究热点。

第二个原因是深度强化学习算法和应用,具有方法各异、超参难调、随机性大等特点,即便是针对同一个问题,使用同一种算法,不同的实现方式会带来极大的差异,学术界也一再强调强化学习可复现性问题。

综合这些因素,要实现一个统一的模型和计算平台,是相当困难的事情。

PARL在设计之初就考虑了上述提到的扩展性和可复现性的问题。

从上图可以看出,PARL通过抽象出Model、Algorithm、Agent等基础类帮助用户快速搭建可以和环境交互的机器人。

Model类负责强化学习算法中的网络前向计算(forward)部分,通常嵌套在algorithm中。

Algorithm类则定义了网络的更新方式(backward梦到中奖号码什么意思)部分,通常属于一个agent。

Agent类负责和环境进行交互,并且收集数据训练底下的algorithm。

通过这样的设计方案,PARL保证了算法扩展性:针对同一个场景,用户想调研不同的网络结构对算法效果影响的时候,比如调研RNN建模或者CNN建模,只需要重写model部分即可;针对不同场景想用同一个算法调研的时候,也只需重写model即可。

可复现性主要体现在框架提供的algorithm集合上,在下一段和复用性一起结合理解。

PARL的这种设计结构的另一个好处是高复用性。

仓库内的提供了大量经典算法的例子(algorithms目录内),包括主流的DQN、DDQN、DuelingDQN、DDPG、PPO等,这些算法由于和网络结构进行了解耦(网络结构定义在Model类中),因此不针对特定任务,而是一个相当通用的算法抽象。

用户通过PARL搭建强化学习算法来解决自己目前遇到的问题时,可以直接import这些经典算法,然后定义自己的网络前向部分即可短时间内构建出经典的RL算法。

这种高复用性不仅极大地降低了用户的开发成本,而且由于PARL提供的算法内部包含完整的超参数列表,确保仓库内模型具备复现论文级别指标的能力。

下图是PARL官方提供的一个构建示例,展示了如何快速构建可以解决Atari游戏的DQN模型。

用户只需要定一个前向网络(Model类),然后调用框架算法集合里面的DQNalgorithm即可构建一个经典DQN算法了。

DQN算法里面的繁琐的构建target网络,同步target网络参数等细节,已经包含在构建的algorithm里面,用户无需再特别关注。

PARL基于百度内部的成熟应用开源,因此更能方便地定制大规模并行算法。

通过调用简单的函数接口,用户可以将算法从单机版扩展成GA3C、A3C、IMPALA等并行训练架构。

PARL对于通讯机制,数据I/O等也有独特的加速处理。

此外,基于PaddlePaddle对大规模工业级排序/推荐等稀疏模型的支持能力,PARL也能轻松扩展到百亿级别数据或特征的训练。

PARL的并行能力在开源社区中处于绝对领先地位。

根据百度在NeurIPS上做的技术分享,基于PARL最多可以同时通过8块GPU来拉动近20000个CPU节点运算,完全发挥整个CPU集群的计算潜力,在赛事中成功将需要近5个小时迭代一轮的PPO算法加速到了不到1分钟,实现了相对单机运算高达几百倍的加速比。

这种目前开源社区中框架难以支持的并行提速,是他们拿下本次冠军的关键因素之一。

百度本次正式发布PARL,不仅在学术界引发热议,更是在工业界引起巨大反响。

百度拥有国内唯一有影响力的深度学习基础库,并积极推进AI生态战略。

随着百度PaddlePaddle在工业界的影响不断深入,一个高性能、高规格的深度强化学习框架,也是满足工业界日趋发展旺盛的强化学习应用需求的必要条件。

而这一系列举措,对于百度最终决胜AI时代将是有力的推动。