gta5股票lifeinvader(李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用)

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

新智元推荐

来源: 心有麟熙

作者: Jim 范麟熙

编辑:张乾

【新智元导读】 斯坦福大学博士生、师从李飞飞教授的Jim Fan(范麟熙)以轻松有趣的方式介绍了强化学习和游戏渊源以及强化学习在 现实生活中的应用:机器人、World of Bits、金融、广告业、环境和能源等等。

在新智元上一篇文章中, Jim Fan(范麟熙) 介绍了强化学习的概念和目的。 今天是 《强化学习炼金术》Introduction第三讲。

在这一课里, Jim Fan 会跟各位炼金术师们聊一聊游戏中的强化学习以及强化学习在现实生活中的应用。

一、游戏与强化学习的渊源

游戏是大家都喜欢的东西,而有一个群体尤甚:他们叫【程序员】 。所以在人工智能的发展历史中,游戏扮演着不可或缺的角色。

不方便看视频的朋友们,请下拉阅读图文 。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

IBM研究员Arthur Samuel,是世界上第一个把强化学习应用在一个主流的棋盘游戏上的人。他当时写了一个跳棋的引擎,但其实他的引擎并不是世界上最强的。在1989年到2007年之间,加拿大阿尔伯坦大学的团队,做了一个跳棋的人工智能 —— Chinook。把Chinook喻为跳棋之神毫不为过,因为它在真正意义上破解了跳棋。换言之,就是不论你用什么策略,Chinook永远不会输。这是可以在数学上被验证的。

根据Chinook的分析,在跳棋中不论你是先手或是后手,只要有一个完美的策略,永远双方都会打成平手。也就是说, 跳棋被证明是一个真正意义上的零和博弈。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

下一位出场的,也是IBM的研究员 Gerald Tesauro。他最著名的成就,就是写了一个能够超越人类Backgammon世界冠军的人工智能。Backgammon是一个有一定随机性的掷骰子的概率游戏。Tesauro的引擎叫做TD-Gammon,TD就是刚才说到的时间差学习。

在这边要声明一下,为什么我们不提IBM的Deep Blue,即当年击败国际象棋世界冠军卡斯帕罗夫的深蓝国际象棋引擎。其实Deep Blue几乎没有用到任何机器学习,更别提强化学习。Deep Blue是一个规则系统,它的团队当时请了很多国际象棋大师过来帮他们手写那些象棋的规则或者策略,所以它并不是一个学习系统。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

我们把时间轴推向2013年,其实强化学习是一个很古老的领域,但是大家最近才刚开始对它有非常密集的关注,这个契机就是Atari 2600系列的游戏。

Atari公司在1977年发行了一系列著名游戏,其中包括日本人设计的Pacman 吃豆人(上图中间)。你操控一个Pacman,不断地在路上把所有豆子给吃掉,但同时要避免被小怪攻击。上图左是Atari的游戏手柄。还有另外一款经典游戏Space Invader 太空入侵者(上图右),要求你操控宇宙飞船进行射击。

Atari虽然是在一个很小的屏幕上玩的游戏,但其信息量非常大。比如说,提供一幅游戏截屏的图片,你要学会理解如何操控Pacman,什么是豆子,以及怪物的行走轨迹,你要有一个对应的策略来避开怪物。所以Atari牵涉到计算机视觉,它不是一个简单的用几条规则就能够确定的游戏。在这个意义上,Atari比跳棋之类的游戏都复杂很多。2013年前,如果说要用同一个智能体来玩所有Atari游戏,那简直是天方夜谭。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

2013年,一家名不见经传的小公司Deepmind发表了一篇论文

Human-level control through deep reinforcement learning

在这篇论文里,他们提出了一个新的概念,结合了现在的深度学习革命和古老的强化学习,变成了深度强化学习。论文中,他们发明了一个新的算法 —— Deep Q-Network,简称DQN。

Deepmind用同一个算法,代码一行不改,就能够玩遍所有Atari Game。也就是说,在每一个游戏里,让这个算法自主学习,其中没有任何人为干预,没有人告诉它游戏的规则,完全靠算法自行探索。训练完之后,大家发现算法学会的策略比某些最好的人类玩家还要强大。

可以说DQN是一个现代强化学习的分水岭,因为在此之前,强化学习都只能做一些低维度的环境,对于图片这种高维度的信息,之前的算法都无法处理(比如一张游戏截图中可能包含几十万像素)。 所以DQN的过人之处,就在于把深度学习、卷积神经网络等计算机视觉的一些突破应用在强化学习上,让强化学习算法也能够处理高维度的信息。

如果说DQN是强化学习“文艺复兴之路”的开端,那么之后的AlphaGo就是深度强化学习集大成之作。Deepmind在2014年被谷歌公司以四亿美金的高价收购,现在是谷歌在伦敦的一个研究所。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

我们来看一下DQN算法学会的策略。上图左是经典的Breakout小游戏。你的任务是操控下方面板,左右移动,让小球把上面所有砖块敲掉。当小球掉下来时,你要保证接住它,否则就会失去一条命。DQN在这个游戏中学会了一个很聪明的方法,就是先用小球把左右两侧砖块打通,之后就让小球自行在上排砖块中来回蹦跳,避免了智能体在下方频繁操作。这是很多人类玩家都没有意识到的一个绝佳策略。

上图右是Space Invader游戏。DQN控制的是飞船,需要避开所有外星人子弹。而这次,它学会了躲在障碍物后面,在不被外星人攻击到的前提下进行射击。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

在DQN之后,大家都开始试图用深度强化学习的算法来玩游戏,比如说上图中的毁灭骑士 Doom,它是一款早期的第一人称三维射击游戏。从2016年开始每年都会举办一个叫VizDoom的比赛,很多公司和大学都派了团队去参加。去年获胜的是Intel和Facebook的研发团队。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

如上图所示,这是一些Doom的训练环境,比如有射击、避免敌方炮轰、走迷宫、收集所有血包等环节。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

2016年3月9日至3月15日间,我们共同见证了历史。在AlphaGo之前,没有一个围棋引擎能够跟低段位的职业选手媲美,更别提挑战世界冠军了。AlphaGo来到韩国正式向李世乭提出了挑战,赛制是五局三胜。

最后结果出乎所有人意料:四比一,AlphaGo获胜。

自从李世乭挑战赛之后,大家都觉得“人工智能要征服人类了!”

但是不要慌,即使AlphaGo能在大脑上赢得了围棋,但真正帮它下棋的还是人类 。上图左一是Deepmind的黄士杰博士,如果没有黄博士的“人肉臂”,AlphaGo就连棋都下不了 。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

这是第一天比赛时的直播截图,我们能看到李世乭几乎在崩溃的边缘,自己的失败已成定局。我记得那天晚上由于时差原因,纽约是凌晨才开始的直播,我不惜通宵看了第一场比赛。我自己完全不会下围棋,所以全程处于“不明觉厉”的状态,只能听解说员分析比赛的精彩。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

AlphaGo这场比赛的曝光度如此高,以至于在韩国的大街小巷,许多广告牌上都在放比赛的直播。李开复老师曾调侃道:“李世乭是谷歌的最新一任高级软件测试工程师。”

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

这篇是Deepmind团队刊登在《自然》杂志封面上的论文

Mastering the Game of Go with Deep Neural Networks and Tree Search

这篇论文详细介绍了如何用深度学习和蒙特卡洛树搜索的方法来学习下围棋。听完了【心有麟熙】强化学习系列课程之后,你就会知道这些词分别都是什么意思了。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

Deepmind打败了李世乭之后还是觉得不过瘾 。2017年,他们又在《自然》杂志上刊登了一篇新的论文

Mastering the Game of Go without Human Knowledge

AlphaGo Zero,有中文翻译写作【阿法元】。之前AlphaGo是通过大量学习人类棋谱,再用强化学习进行微调。而阿法元则完全抛弃了人类的知识,从绝对零度开始,通过自己和自己不断地对弈,用纯粹的强化学习的方法来学围棋的策略。

令人惊讶的是,阿法元虽然没有任何人类的辅助,但它最后达到的棋力远超过它的前辈AlphaGo。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

俗话说,知足者常乐,但是Deepmind还是不知足 。他们后来又发了一篇重磅论文

Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm

论文里提出的架构【AlphaZero】,索性把"Go"(围棋)这部分也去掉了。 AlphaZero基本用的是AlphaGo Zero的算法:自我对弈、蒙特卡洛树搜索、纯粹的强化学习。

它用同一套算法原封不动地学习了chess(国际象棋)和shogi(日本将棋),并分别在这两个领域中远远超过之前世界上最强的人工智能:【鳕鱼】国际象棋引擎和【Elmo】将棋引擎。至此,Deepmind终于罢休了 ,他们宣布AlphaGo研究系列正式画上了圆满的句号。

但我认为,AlphaZero只是下一个篇章的开始。因为生活中的太多问题,远远比象棋、将棋和围棋复杂得多,所以强化学习之舟才刚刚启航。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

我这次去洛杉矶的Long Island(长岛)参加了NIPS学术会议。NIPS(Neural Information Processing System)是世界人工智能顶级峰会。这次我也很荣幸地在Deepmind的party上见到了AlphaGo的创始人David Silver,上图是我和他的合影。我们聊了些关于AlphaZero下象棋的事情,在之后的推送中会给大家详细分解。

我的NIPS会议感想笔记刊登在《新智元》公众平台上,感兴趣的朋友们 请点这里 。

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

既然强化学习能够下各种棋类游戏,也能够玩一些古老的电子游戏,比如Atari、超级马里奥等,那我们为何不能用它来玩更复杂的游戏呢?下一波游戏研究的乐趣将会是魔兽争霸、英雄联盟、王者荣耀、GTA V高仿真赛车游戏等等。这些游戏中的画面清晰度要高很多,也就意味着输入智能体的信息量会大很多。目前还未有任何算法能够在这些游戏上与人类玩家媲美。

下次当你在实验室或办公室里打游戏被老板责骂时,你就可以告诉他,你现在在抓紧每一分钟为强化学习的科学事业做出自己的贡献 。

然而,游戏终究是游戏。它是在一个虚拟环境下跑的程序,并不会对真实世界造成任何影响。

所以在下一讲中,我会跟大家聊聊强化学习在真实生活中的应用。

二、强化学习在现实中的应用

李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用

第一个重要的应用是机器人(Robotics)

本文来自新智元,创业家系授权发布,略经编辑修改,版权归作者所有,内容仅代表作者独立观点。[ 下载创业家APP,读懂中国最赚钱的7000种生意 ]

gta5股票lifeinvader(李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用)文档下载: PDF DOC TXT
文章来源: 理财天下网
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至2384272385@qq.com举报,一经查实,本站将立刻删除。