新技术论坛
搜索
查看: 955|回复: 0
打印 上一主题 下一主题

[大脑仿生] 人工智能演进:道德可以被编程吗?

[复制链接]
  • TA的每日心情
    开心
    2016-10-18 06:23
  • 签到天数: 72 天

    连续签到: 1 天

    [LV.6]常住居民II

    扫一扫,手机访问本帖
    楼主
    跳转到指定楼层
    发表于 2016-7-13 07:34:24 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
           人工智能的最新进展明确表明,我们的电脑需要有一个道德准则。不同意?想想看:一辆车开车上路时,一个骑自行车的孩子在它的前面突然转了个弯。此时车子能转弯进入逆行车道,撞上另一辆已经在那里的汽车?或者可以转弯偏离道路,撞上一棵树?还是继续向前,撞上那个骑车的孩子?
           每一种解决方案都会产生一个问题:这可能会导致死亡。
           这是一个不幸的情况,但是人们每天都要面对这样的情况,如果有一个正在受控的自动驾驶汽车,它需要能够在这样的情况下作出选择。这意味着,我们需要弄清楚如何在我们的电脑里编写道德准则。
           杜克大学计算机科学系教授Vincent Conitzer最近收到未来生命研究所(Future of Life Institute,FLI)的拨款,用以研究如何让一个高级人工智能作出道德判断,并据此采取行动。

    创建道德准则
           乍看之下,我们的目标似乎很简单—只要创建一个符合道德责任行为的AI即可;然而,它远远比原先设想的要复杂得多,因为在创建这类AI的过程中,会有数量惊人的因素左右其实现。就如Conitzer的项目中概述的那样,“道德判断会受到权利(如隐私)、角色(如家庭)、过去的行为(如许诺)、动机和意图,以及其他道德相关特征的影响。这些不同的因素尚未在AI系统中建立”。
           这就是Conitzer现在尝试在做的事。
           在接受Futurism近期的采访中,Contizer解释说,虽然公众可能会关心如何确保流氓AI最终不会泯灭人性,然而就目前(以及接下来一段很长的时间)而言,这种威胁并不存在。因此他的团队并不关心如何使AI无私、崇拜人性,以预防造成全球性的机器人大灾难。相反,他们会在一个更基本的层面上,把重点放在如何确保人工智能系统能够作出艰难的、更接近道德标准的选择,像人类的日常决策一样。
           那么,该怎样才能让AI能够作出一个艰难的道德决定呢?
           Contizer解释说,为了实现这个目标,他们的团队将按照以下两条线开展:让人们作出道德选择,从中发现出模式,然后寻求如何将这些模式置入人工智能。他解释说,“我们目前所做的实际上就是让人们作出道德决定,或者是让人们说明在特定的情况下会作出何种决定,然后我们让机器学着去尝试定义何为一般的模式并确定在某种程度内我们可以重现这类决定。”
           总之,研究团队正试图找出我们作出道德选择的模式继而将这类模式转换成AI系统可以识别的模式。Contizer指出,这本质上都是关于预测人类在特定情况下会作出何种决定的,“如果我们能够变得非常擅长预测人们在这类道德情况下会作出什么样的决定,那么,我们可以以计算机程序的形式自行作出这些决定。”
           然而,这里面存在一个主要的问题,没错,道德是不客观的 - 它既不是永恒的,也不具有普遍性。
           Contizer通过过去几十年的发展很好的阐述了这个问题,“如果我们在一百年前做同样的道德测试,我们会从人们的决定中发现更多的种族歧视、性别歧视,以及各种从现在看来并不是‘好’的事情。同样,现在,也许我们的道德发展并没有走到顶点,百余年后人们可能会觉得一些我们现在做的事情是完全不道德的,例如像我们对待动物的方式。因此,不管怎样,都会有偏见横亘在当前道德水平的发展过程中。”
           当然,上述提到了很多关于道德是多么复杂的问题。“纯粹的利他主义,在博弈论中是很容易解决的,但也许你会觉得别人亏欠于你。这是在博弈论文献中找不到的理论,这样的东西,我们也想了很多,你怎么能够使在博弈论中被称为‘解决方案概念’的理论变得有意义?你又该如何计算这些东西?”
           为了解决这些问题,并帮助正确找出如何把道德功能编写进人工智能之中,该团队正在结合来自计算机科学、哲学和心理学的很多方法。“概括地说,这就是我们的项目所要做的事。”Contizer说到。
           但对于那些有知觉的人工智能呢?我们什么时候需要开始担心他们并讨论如何约束他们的行为呢?

    类人智能
           Contizer表示,类人智能(human-like artificial intelligence)在短时间内还不会出现(所以至少在未来数年不会出现像终结者那样的大灾难……) 。
           “最近,已经出现了一些向类人智能系统接近的进展,我认为这里面包括了很多令人惊讶的进步……但我觉得一个‘真正的AI’,应该是相当灵活的,能够抽象的,并且可以做所有人类可以轻易完成的事情,我认为我们离真正的AI还相当遥远。” Contizer说。
           诚然,我们可以设定系统做很多人类可以做的很好的事情,但也有一些过于复杂的事情很难转换成计算机可以识别和学习(这是所有终极AI的基础)的模式。
           “早期的人工智能研究,最开始几十年人工智能研究的,是为智能确定真正基准的一个事实,如能很好地下国际象棋,这对于电脑来说相当容易。编写并创建一个国际象棋对弈程序是不容易的,但它是可行的。”
           事实上,在今天,计算机在许多比赛中有能力击败世界上最好的选手,例如国际象棋和AlphaGo。
           但是Conitzer澄清,事实证明,这类比赛并不是测量类人类智慧的一个完美方法。或者至少,在人类思维上,用这种方法还有很多方面无法测量出来,“同时,我们了解到,某些对于人类非常简单的问题,实际上对于电脑来说相当困难,或者编程让电脑做某些事情(很困难)。例如,在茫茫人海中找到你的祖母。你可以很容易做到这一点,但是要编写一个电脑程序让它同样做好这件事真的非常的困难。”
           从人工智能研究的初期,我们就能够做到让计算机识别和鉴定一些指定的图片。但是,总体来说,要编写一个可以做人类能做的所有事情的系统,就非常困难了,这就是为什么我们离 “真正的人工智能”还有很长的一段路要走。
           然而,Conitzer声称,现在是时候开始考虑管理这种智能所适用的规则了。“这可能还有点遥远,但对计算机科学家来说,这可能意味着短短几十年的秩序,提早一点去考虑是很有必要的”,他指出,虽然目前还没有任何类人机器人出现,但我们的智能系统已经能作出道德选择,并且这种选择有可能拯救或结束生命。
           “很多时候,他们做的这些决定会影响到别人,我们可能需要做一些通常被认为含有一些道德负担的决定。而一个标准的例子就是一个自动驾驶汽车必须决定是直行撞上前面的车还是改变方向,这可能对一些行人造成伤害。你如何权衡利弊?我认为这就是我们可以有所进展的地方。这并不需要超高智商的人工智能,这只需要一个可以通过各种方式权衡方案的程序即可。”
           当然,知道作出什么决定,首先需要知道究竟什么样的道德准则才是正确的(或至少有一个公平的决定)。只有这样,我们才能开始把它编程,这就是Contizer和他的团队希望做的事。



    高级模式
    B Color Image Link Quote Code Smilies

    本版积分规则

    手机版|Archiver|开发者俱乐部 ( ICP/ISP证:辽B-2-4-20110106号 IDC证:辽B-1-2-20070003号 )

    GMT+8, 2024-12-23 15:00 , Processed in 0.112646 second(s), 22 queries .

    X+ Open Developer Network (xodn.com)

    © 2009-2017 沈阳讯网网络科技有限公司

    快速回复 返回顶部 返回列表