<small id='dSpH'></small> <noframes id='yZex3n'>

  • <tfoot id='A6RlfuQjnN'></tfoot>

      <legend id='2LwYz3el'><style id='S06s8T'><dir id='HhCQoZgU0b'><q id='RTOAHg'></q></dir></style></legend>
      <i id='1Ox70qg'><tr id='Pfrhacz3DC'><dt id='RSMWe03sF'><q id='HUBgC76vRl'><span id='tbfwl'><b id='dG4tb'><form id='1lK43XU'><ins id='ClF3D5Xa9z'></ins><ul id='yWtwZx'></ul><sub id='AN1hgYM'></sub></form><legend id='o6IT9c'></legend><bdo id='aQHMOk'><pre id='sBChg'><center id='blEr'></center></pre></bdo></b><th id='LCzv'></th></span></q></dt></tr></i><div id='97qP1'><tfoot id='1XkwHa'></tfoot><dl id='srd8i'><fieldset id='gu0CWV5Da'></fieldset></dl></div>

          <bdo id='4gx8'></bdo><ul id='SXQikUr'></ul>

          1. <li id='vOIsLtF'></li>
            登陆

            人工智能的六大道德准则

            admin 2019-06-04 387人围观 ,发现0个评论

            导语

            咱们的准则是要采纳问责制,当呈现了欠好的成果,不能让机器或许人工智能体系当替罪羊,人有必要是承当职责的。

            转载|财经杂志

            文|Tim O’Brien

            题图|全景网

            2018年,微软宣布了《未来核算》(The Future Computed)一书,其间提出了人工智能开发的六大准则:公正、牢靠和安全、隐私和保证、容纳、通明、职责

            首要是公正性。公正性是指对人而言,不同区域的人、不同等级的一切人在AI面前是相等的,不应该有人被轻视。

            人工智能数据的规划均始于练习数据的挑选,这是或许发生不公的第一个环节。练习数据应该足以代表咱们生计的多样化的国际,至少是人工智能将运转的那一部分国际。以面部辨认、心情检测的人工智能体系为例,假如只对成年人脸部图画进行练习,这个体系或许就无法精确辨认儿童的特征或表情。

            保证数据的“代表性”还不行,种族主义和性别轻视也或许悄然混入社会数据。假定咱们规划一个协助雇主挑选求职者的人工智能体系,假如用公共工作数据进行挑选,体系很或许会“学习”到大多数软件开发人员为男性,在挑选软件开发人员职位的人选时,该体系就很或许倾向男性,尽管施行该体系的公司想要经过招聘进步职工的多样性。

            假如人们假定技能体系比人更少犯错、愈加精准、更具威望,也或许形成不公。许多情况下,人工智能体系输出的成果是一个概率猜测,比方“请求人借款违约概率约为70%”,这个成果或许十分精确,但假如借款管理人员将“70%的违约风险”简略解释为“不良信誉风险”,回绝向一切人供给借款,那么就有三成的人尽管信誉状况良好,借款请求也被回绝,导致不公。因而,咱们需求对人进行练习,使其了解人工智能成果的意义和影响,补偿人工智能决议计划中的缺乏。

            第二是牢靠性和安全性它指的是人工智能运用起来是安全的、牢靠的,不作恶的。

            现在全美热议的一个论题是主动驾驭车辆的问题。之前有新闻报道,一辆行进中的特斯拉体系呈现了问题,车辆依然以每小时70英里的速度在高速行进,可是驾驭体系现已死机,司机无法重启主动驾驭体系。

            幻想一下,假如你要发布一个新药,它的监管、测验和临床试验会遭到十分严厉的监管流程。可是,为什么主动驾驭车辆的体系安全性完全是松监管乃至是无监管的?这便是一种对主动化的成见,指的是咱们过度信任主动化。这是一个很古怪的对立:一方面人类过度地信任机器,可是另一方面其实这与人类的利益是抵触的。

            另一个事例发生在旧金山,一个现已喝晕了的特斯拉车主直接进到车里打开了主动驾驭体系,睡在车里,然后这辆车就主动开走了。这个特斯拉的车主觉得,“我喝醉了,我没有才能持续开车,可是我能够信任特斯拉的主动驾驭体系帮我驾驭,那我是不是就不违法了?人工智能的六大道德准则”但事实上这也归于违法的行为。

            牢靠性、安全性是人工智能十分需求重视的一个范畴。主动驾驭车仅仅其间一个比方,它触及到的范畴也绝人工智能的六大道德准则不仅限于主动驾驭。

            第三是隐私和保证,人工智能由于触及到数据,所以总是会引起个人隐私和数据安全方面的问题。

            美国一个十分盛行的健身的App叫Strava,比方你骑自行车,骑行的数据会上传到渠道上,在交际媒体渠道上有许多人就能够看到你的健身数据。问题随之而来,有许多美国军事基地的在役武士也在练习时用这个使用,他们练习的轨道数据悉数上传了,整个军事基地的地图数据在渠道上就都有了。美国军事基地的方位是高度保密的信息,可是军方历来没想到一款健身的App就轻松地把数据走漏出去了。

            第四是人工智能有必要考虑到容纳性的品德准则,要考虑到国际上各种功能障碍的人群。

            举个领英的比方,他们有一项服务叫“领英经济图谱查找”。领英、谷歌和美国一些大学联合做过一个研讨,研讨经过领英完成工作提高的用户中是否存在性别差异?这个研讨首要聚焦了全美排名前20 MBA的一些结业生,他们在结业之后会在领英描绘自己的工作生涯,他们首要是比照这些数据。研讨的定论是,至少在全美排名前20的MBA的结业生中,存在自我引荐上的性别差异。假如你是一个男性的MBA结业生,一般你在自告奋勇的力度上要超越女人。

            假如你是一个公司担任招聘的人,登录领英的体系,就会有一些要害字域要选,其间有一页是自我总结。在这一页上,男性对自己的总结和点评一般都会高过女人,女人在这方面关于自我的点评是偏低的。所以,作为一个招聘者,在招人工智能的六大道德准则聘人员的时分其实要取得不同的数据信号,要将这种数据信号的权重降下来,才不会搅扰对应聘者的正常点评。

            可是,这又触及到一个程度的问题,这个数据信号不能调得过低,也不能调得过高,要有一个正确的度。数据能够为人类供给许多的洞察力,可是数据自身也包括一些成见。那咱们怎么从人工智能、道德的视点来更好地掌握这样一个成见的程度,来完成这种容纳性,这便是咱们说的人工智能容纳性的内在。

            在这四项价值观之下还有两项重要的准则:通明度和问责制,它们是一切其他准则的根底。

            第五是通明度。在曩昔十年,人工智能范畴日新月异最重要的一个技能便是深度学习,深度学习是机器学习中的一种模型,咱们以为至少在现阶段,深度学习模型的精确度是一切机器学习模型中最高的,但在这儿存在一个它是否通明的问题。通明度和精确度无法兼得,你只能在二者权衡取舍,假如你要更高的精确度,你就要献身必定的通明度。

            在李世石和AlphaGo的围棋赛中就有这样的比方,AlphaGo打出的许多手棋事实上是人工智能专家和围棋工作选手底子无法了解的。假如你是一个人类棋手,你肯定不会下出这样一手棋。所以究竟人工智能的逻辑是什么,它的思想是什么,人类现在不清楚。

            所以咱们现在面对的问题是,深度学习的模型很精确,可是它存在不通明的问题。假如这些模型、人工智能体系不通明,就有潜在的不安全问题。

            为什么通明度这么重要?举个比方,20世纪90年代在卡耐基梅隆大学,有一位学者在做有关肺炎方面的研讨,其间一个团队做根据规矩的剖析,协助决议患者是否需求住院。根据规矩的剖析精确率不高,但由于根据规矩的剖析都是人类能够了解的一些规矩,因而通明性好。他们“学习”到哮喘患者死于肺炎的概率低于一般人群。

            可是,这个成果明显违反知人工智能的六大道德准则识,假如一个人既患有哮喘,也患有肺炎,那么死亡率应该是更高的。这个研讨“学习”所得出的成果,其原因在于,一个哮喘患者由于常常会处于风险之中,一旦呈现症状,他们的警惕性更高、承受的医护办法会更好,因而能更快得到更好的医疗。这便是人的要素,假如你知道你有哮喘,你就会敏捷采纳应急办法。

            人的主观要素并没有作为客观的数据放在练习模型的数据图中,假如人类能读懂这个规矩,就能够对其进行判别和校正。但假如它不是根据规矩的模型,不知道它是经过这样的规矩来判别,是一个不通明的算法,它得出了这个定论,人类依照这个定论就会主张哮喘患者不要住院进行医治,这明显是不安全的。

            所以,当人工智能使用于一些要害范畴,比方医疗范畴、刑事法令范畴人工智能的六大道德准则的时分,咱们必定要十分eminem当心。比方或人向银行请求借款,银行回绝同意借款,这个时分作为客户就要问为什么,银行不能说我是根据人工智能,它有必要给出一个理由。

            第六是问责。人工智能体系采纳了某个举动,做了某个决议计划,就有必要为自己带来的成果担任。人工智能的问责制是一个十分有争议的论题,咱们仍是回到主动驾驭车上进行评论。的确,它还触及到一个法令或许立法的问题。在美国现已呈现多例由于主动驾驭体系导致的事故。假如人工智能的六大道德准则是机器代替人来进行决议计划、采纳举动呈现了欠好的成果,究竟是谁来担任?咱们的准则是要采纳问责制,当呈现了欠好的成果,不能让机器或许人工智能体系当替罪羊,人有必要是承当职责的。

            但现在的问题是咱们不清楚根据全国际的法令根底而言,究竟哪个国家具有才能处理相似案子的才能。(美国)许多案子的判决是根据“判例法”进行断定的,可是关于这样一些事例,咱们没有先例能够作为法庭判决的法令根底。

            其实,不光是主动驾驭,还有其他许多范畴,比方刑事案子问题,还有触及军事范畴的问题。现在有许多的兵器现已主动化或许是人工智能化了,假如是一个主动化的兵器杀伤了人类,这样的案子应该怎么裁决?

            这就要牵涉到法令中的法人主体的问题,人工智能体系或全主动化体系是否能作为法人主体存在?它会带来一系列的法令的问题:首要,人工智能体系是否能够断定为是一个法令的主体?假如你断定它是一个法令的主体,那就意味着人工智能体系有自己的权力,也有自己的职责。假如它有权力和职责,就意味着它要对自己的行为担任,可是这个逻辑链是否建立?假如它作为一个法令主体存在,那么它要承当相应的职责,也享有承受法令援助的权力。因而,咱们以为法令主体必定要是人类。

            作者为微软人工智能项目总经理,修改:韩舒淋,原载2019年5月27日《财经》杂志

            (本文首刊于2019年5月27日出书的《财经》杂志)

            修改|阿板 校正|坚果 视觉|牛小伟

            声明:该文观念仅代表作者自己,搜狐号系信息发布渠道,搜狐仅供给信息存储空间服务。
            请关注微信公众号
            微信二维码
            不容错过
            Powered By Z-BlogPHP