风暴英雄人机很好玩

从风暴英雄感悟波音空难:人机协作还是人机大战?

文字|超级海

从一个棘手的角度来看,从暴雪游戏《英雄英雄》中看到的波音737MAX8空难,您会突然意识到,您将能够挖掘出许多与人工智能相关的潜在安全风险。

3月10日,一架埃塞俄比亚航空公司的波音737 MAX 8客机坠毁,机上所有157人丧生。5个月前,即2018年10月29日,一架载有189名乘客和机组人员的印尼狮航客机坠毁。

由于两者之间的相似性,中国民航总局要求国内航空公司首次将波音737 MAX 8停飞,然后各国进行跟进。在埃塞俄比亚航空公司坠毁的客机残骸中发现的线索,以及卫星网络捕获的飞行轨迹,表明事故与印尼客机的狮航坠机有类似的问题。美国不愿让波音737 MAX 8停飞的态度突然改变,还加入了波音737 MAX系列飞机的地面飞行。

可靠的推测是,波音737 MAX 8客机的飞行控制系统出了点问题。具体地说,用于防止飞机失速的机动特性增强系统MCAS(机动特性增强系统)可能会错误地认为飞机失速会自动接管飞机并迫使飞机向下俯冲,从而导致悲剧。

关于事故原因,每个人都担心MCAS系统具有较高的权威性。如果没有关闭,它可以直接控制飞机。当由于传感器故障而执行错误的操作时,它将与手动操作相竞争,以控制飞机。为了发动“人机战争”,它最终导致了飞机的破坏。

智能系统如何与人类争夺控制权,并且发生“人机大战”?有些人可能有疑问。有一种方法可以体验令人窒息的“人机战争”。那就是玩暴雪。游戏风暴英雄。

在暴雪的MOBA游戏“风暴英雄”中,有一种合作模式,允许玩家与计算机控制的敌方队伍对抗。在此模式下,您还可以选择计算机队友来组队游戏,玩家可以与计算机控制的队友混合搭配。此外,如果玩家在游戏过程中下线或出于其他原因离开游戏,则最初由该玩家控制的英雄将被计算机取代,以确保游戏继续进行。

AI的角色控制是游戏不可或缺的重要功能。那么,一个由玩家和计算机控制的队友组成的“人机协作”又如何呢?实际上,也有过“人机协作”变成“人机大战”的悲剧。在今年重建开发团队之后,Storm Hero发布了该游戏的升级补丁。升级之一是优化AI,但实际结果是“负优化”。 AI在先前游戏中的行为是可以接受的。新补丁发布后,AI突然变得非常“弱智”,并且行为不合理。暴雪对AI进行了一些修复之后,但它还没有恢复到AI崩溃之前的水平。

我们已经习惯了Windows系统的不断升级和不断修补新漏洞,但是总会出现新问题。波音公司还将升级MCAS系统,希望能彻底解决客机的安全问题。毕竟,如果出现问题,则可能与飞机上100多人的安全有关。

由于飞机设计方面的问题,波音公司增加了一个MCAS系统,这是两次空难的根源。为什么会发生此类问题,可以在暴雪的《风暴英雄》中回答。

①人工智能将不可避免地需要越来越多的权威并变得更加智能

在“游戏风暴英雄”中,玩家可以通过快捷键向计算机控制的队友发出各种指令。在早期版本中,玩家问计算机队友计算机队友做了什么。但是随着版本的更新,计算机队友变得越来越不听话,常常会忽略玩家的指示并按照自己的意愿去做。

毕竟,我们想要的是机器人而不是木人。木匠是业主所说的,技术成分也不高。设计师想要一个更智能的机器人。

一方面,这种变化似乎是渐进的。例如,在早期版本中,玩家命令计算机队友攻击怪物。无论距离多远或正在做什么,所有计算机队友都会过来。有时,这种行为是不合理的代价。在当前版本中,玩家命令计算机队友攻击怪物。电脑队友可能未响应玩家的命令。如果他们相距太远,或者正在做AI认为更重要的事情,则AI将忽略玩家的命令。

但另一方面,这种变化也带来了新的问题。例如,现在玩家想召集所有计算机队友一起战斗怪物的首领,但是很难聚集人。总是有一些不愿意服从并继续做他们认为更合适的事情的认可机构。

AI确定地图机制的优先级高于玩怪物的优先级。一旦地图机制出现,即使怪物被鲜血殴打,AI也会放弃扮演怪物的任务并赶到事件发生的位置。怪物会再次冲上去。在这种情况下,无论玩家如何命令AI玩怪物AI,它都不会听你的。即使玩家知道当前使用地图机制的阵容绝对不会抢走AI,它仍会尝试着急事件。位置。有许多必须犯错的动作,AI坚持这样做,但拒绝遵守玩家的正确指示。

人工智能设计者总是尝试设计比人类更智能的人工智能,与手动控制相比,将人工智能的行为放在首位。这会引起很多问题。

考虑一下,家里有一个保姆会怎样?如果不是兼职,则必须提供保姆的家的钥匙,这是系统许可。当您不在家时,在家中会发生什么,您不能要求保姆给您打电话并要求您先这样做。您必须给保姆一些自主权。

再往前看,您的保姆通常会觉得她比您更懂得做家务。即使您花钱请保姆工作,保姆也可能不会听完关于您的所有事情。有时,保姆会违反您的意愿而自以为是,使您发疯。

而已。人工智能设计师不信任人类,并认为人类有缺陷。人工智能应该比人类做得更好。人工智能设计师将人工智能的优先级高于人类。这是所有问题的根本原因。

波音空难也是如此。波音公司更加信任他们的自动控制系统,使自动控制系统的优先级高于人类。

不要忘记,人类是人工智能的领导者,而人工智能最终可以为人类服务。人类更喜欢做出自己的决定,将生死的力量掌握在自己的手中,因此,在发生事故的情况下,他们也可以责怪某个人而不是冷机器。人工智能的设计原则应该是人类的首要任务。

②统一的人工智能系统比多个分散的独立人工智能系统受到更好的控制

在复杂的情况下,很难找到一种绝对正确的方法。就像进军战争一样,没有绝对可行的获胜方法。就像玩《风暴英雄》一样,没有稳定的玩法。或就像有孩子的孩子,尤其是可以做任何事情的熊孩子一样,没有绝对正确的方法。在许多情况下,只有偶然性并适应当地条件。并且每种处理方法都有其自身的优缺点,需要权衡。

像人一样,人工智能在制定决策时总是会产生新的平衡问题,尤其是对于遇到复杂情况的复杂机器和系统。如果余额不好,您将失去余额。

触发器满足立即触发的条件是原罪。波音737 MAX 8客机的MCAS系统存在缺陷,即一旦一个传感器的数据异常,它将立即被处理并运行。空中客车类似的保护系统需要两个或三个传感器同时报警,以防止误报警。

在复杂的情况下,有必要综合数据的各个方面以进行适当的处​​理。但是,无论在任何领域中的应用是什么,在编程中,程序员通常都被设计为在设置触发器后在满足条件后立即触发操作。这样的程序简单直接,但是有致命的缺陷。

当某个触发器接收到的数据中存在错误时,程序立即进行的错误操作可能是无法修复的致命错误。例如,波音空难。

另外,在正常情况下,程序中将有多个触发器,当同时有多个任务时,如果触发多个触发器同时进行操作,它们将相互矛盾。

暴雪的《风暴英雄》中的AI行为就是一个很好的例子。在游戏中,我们经常看到计算机控制的英雄在愚蠢的地方旋转。这是为什么?

由于上述原因,多个任务同时执行,触发了多个触发器以同时进行操作,从而引起矛盾。AI接收事件A并打算赶到位置A,同时接收事件B并打算赶到位置B。这两个触发器连续触发矛盾的操作。人工智能将不是唯一的选择,但只会这两个选择继续循环,结果什么也做不了。

直到一个事件结束之前,AI最终别无选择,然后它将执行另一个事件,例如A事件结束AI和B事件,或者B事件结束AI以及A事件。

好像小明的父亲要小明扫地,小明的母亲要小明买酱油。愚蠢的小明正要扫地时,突然想到买酱油,赶出屋子,但是出门时,他突然想到了扫地。我又回到家,回到家记得买酱油……如此,如此,如此,陷入无限循环。在母亲完成扫地工作之前,小明不必扫地,于是她出去买了酱油。或者她父亲买了酱油时,小明老老实实地扫了家里的地板。

总是同时发生事件。例如,小明想在家里扫地,但突然发生地震时,他不得不跑出家门逃生。我经常在AI程序的设计中看到如此低级的错误:小明在地震发生后立即跑出房屋,但一旦离开房屋并想到要扫地,他就会再次返回。他一进屋,便意识到地震必须继续进行并逃脱。啊,所以小明一直在他家门口进出,无限期骑行,并被地震杀死...

这种情况在Storm Hero游戏中非常普遍。当核心遭到攻击时,生死攸关的AI不会返回城市进行救援。结果,核心爆炸,游戏失败。实际上,AI并不是完全不知道要返回,而是在AI想要返回城市的同时,发生了其他事件,中断了AI的返回,而AI做其他事情,这很典型。摘芝麻,扔西瓜。

并没有确定AI是否要返回城市,但在犹豫时仍无法确定返回城市的决心。

不当的AI程式设计很容易陷入采摘芝麻和投掷西瓜,采摘西瓜和投掷芝麻的无尽循环中。需要有决策者的大脑来根据各种情况做出适当的决策。

从另一个角度来看,必然需要一个统一的人工智能系统,而不是多个分散且独立的人工智能系统。

波音737 MAX 8客机的症结之一是MCAS系统独立于自动驾驶系统。由于传感器数据中的错误,MCAS系统将鼻子向下压,即使它离地面仅一米远,他也不会后悔。

如果MCAS系统从属于主自动驾驶系统,则自动驾驶系统可以集成飞机的各种数据分析,并找出一个数据与另一个数据之间的矛盾。处理策略更安全,它不会跳入大脑并导致坠机事故发生。

③人工智能如何正确理解人类意图是一个永恒的问题

复杂的机器不可能被人类完全操纵。需要人机协作。在人机协作中,不可避免地需要人工智能来正确理解人类的真实意图。

例如,在飞行过程中,飞机前方出现障碍物。此时,飞机可以向上飞行以绕过,也可以向下,向左或向右飞行。这些选项都可以,但是如果飞行员想向上躲避,人工智能想向下躲避。两者造成了冲突,无能为力。看着飞机坠毁成为悲剧,这是不行的。

飞行员想举起飞机,但是MCAS系统想将飞机推下。这样的事故不应该发生。

在实际应用中,应该给人类操作员以最高的权限,而人工智能的地位不能超越人类的操作。毕竟,人工智能不是一个真正的人。人工智能不可能正确理解人的意图。解决方案是人类拥有最高的领导才能。

也可以理解,您家庭的保姆无法完全理解您的需求。您一家人的最高权威就在您手中。您不能允许保姆做什么?保姆可以未经授权行事吗,您能理解吗?

在人机协作过程中,如果人工智能无法正确理解人的意图,那么两者之间的协作就会出现问题,有时还不如完全由人工智能控制的效果好。

风暴英雄已很好地证实了这一点。在合作模式下,玩家选择计算机队友组成一个团队,在该团队中,玩家与计算机控制的队友混合搭配,并遇到完全由计算机控制的敌方团队。

例如,当发生地图机制时,如果由计算机控制的敌方团队首先到达事件地点,那么您自己的AI可能会不愿前往事件地点。是什么引起了这种奇怪的现象?

就是这种情况。电脑队友不确定玩家是否会前往赛事地点。事件地点的另一侧已有5个AI。 4个AI中的每一个都有自己的计算。 4个AI不能击败5个AI。放弃去活动现场。

您自己的4个AI都有自己独立的灵魂。通常,一些AI试图去活动现场,而有些AI却放弃了去活动现场,他们的部队无法集结,人数不多。因此,他们当然无能为力了。好吧,你只能一死一死。相对的五个AI,因为它们完全由AI控制,可以达成协议并以统一的方式移至事件地点,以从团队战斗中受益。

还有一种情况,即使玩家尽快或提前赶到活动现场并与他的4个AI合并,然后对面的5个AI到达,团队之战开始了,玩家为了躲避自己的技能而躲避了一下。我的4个AI立刻以为他们将要撤退,后来他们全部逃跑了,所以团队之战崩溃了。

如您所见,如果玩家想在抓住地图机制时赢得对面的5个AI,则他需要在地图机制发生之前更早到达活动位置,否则他必须参加比赛发生映射机制时,比对面的5个AI提前一个步骤。位置,别忘了给计算机队友指示以指示事件的位置。尽量不要向后躲避,以避免躲藏技能以取胜。

因此,必须有一个统一的人工智能系统,而不是多个分散的独立人工智能系统。波音737 MAX 8客机独立于自动驾驶系统的MCAS系统。人工智能永远无法正确理解人类的真实意图。在人机协作的过程中,人需要享有绝对的最高控制权,人是领导者。

上一篇:风暴英雄德哈卡伤害
已是最新一篇

添加回复:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。