机器人三定律背后所依据的道德哲学理论是什么(徐英瑾:让智能系统成为伦理主体)
作者:“admin”
徐英瑾:让智能系统成为伦理主体 “无处不哲学”编辑 文/徐英瑾 来源/《文汇报》2015年417期 ●3月10日,“围棋人机大战”第二*在韩国首尔的四季酒店开赛,首战击败人类代表的谷歌人工智能程
徐英瑾:让智能系统成为伦理主体
“无处不哲学”编辑
文/徐英瑾 来源/《文汇报》2015年417期
●3月10日,“围棋人机大战”第二*在韩国首尔的四季酒店开赛,首战击败人类代表的谷歌人工智能程序“阿尔法狗”(AlphaGo)从序盘阶段就不断下出罕见变招,李世石再次中盘落败,阿尔法电脑2-0领先。
从19年前,IBM公司的“深蓝”计算机战胜国际象棋世界冠军卡斯帕罗夫引起巨大轰动开始,电脑不断挑战棋类领域的顶尖高手并取得胜利,但围棋因其复杂度一直是其攻克难点。直到近期,才在围棋人工智能项目上取得重大突破。
围棋到底有多复杂?
围棋棋盘横竖各有19条线,共有361个落子点,双方交替落子,这意味着围棋总共可能有10^171(1后面有171个零)种可能性。这个数字到底有多大?宇宙中的原子总数是10^80(1后面80个零),即使穷尽整个宇宙的物质也不能存下围棋的所有可能性。
由于围棋的可能性如此之多,根本就没有什么套路可言,不能用穷举办法思考。下赢围棋的唯一的办法就是让电脑也学会“学习”,而不是死记硬背。本次由谷歌研发的电脑较以往不同的地方在于它是能够自我学习、总结的电脑。如果本次比赛胜出,说明人工智能已经进入了自我学习的阶段,这是一个很大的进步,电脑可以不完全依赖人类输入的程序来运行了。
“造人”都是神灵的特权。一旦人工智能开始接近人类的智慧水平,很可能意味着人类召唤了自身无法掌握的力量。李世石的惨败引起了人类对自身未来的担忧……下文写于2015年4月。今天,科技的进步让人惊讶,但是人类面对的道德、伦理问题确是一致的。
兼听。哪怕与你的认知发生冲突
思考。不止步于自己的思维舒适区
▼
让智能系统成为伦理主体
问题的真正解决思路,似乎不在于如何从外部的立场出发,去给人工智能系统“立法”。更值得推荐的思路,或许是让智能系统成为真正的伦理主体——或者说,让伦理性内植于机器自身的程序之中,概而言之就是,将人工智能研究升级为人工伦理研究。
从霍金的警告到罗素的倡议
此前,天体物理学家霍金向世人发出警告,说超级人工智能已经对我们人类的生存构成了威胁。此言一出,引发各地媒体纷纷转载。不得不承认,笔者最早听闻这一报道之时,多少觉得有点不以为然。其一,霍金虽是科学界旷世奇才,但其对于人工智能的评论却属于明显的“跨界”言行,其“博眼球”的成分或许已压过了此类评论所应有的专业色彩。其二,人工智能技术当下的发展虽说的确很快,但其是否已经达到了逼近人类智能的地步,却还很难说。严格地说,最近的人工智能技术的进步,主要得益于硬件性能方面的日新月异。譬如,配上了更好的传感器以及更烧钱的数据处理系统的自动驾驶系统,的确可以使自己显得更为“灵敏”;拥有更大的数据库的专家系统,亦可以由此使得自己显得更为“博学”(如几乎无事不知的IBM公司的“华生”系统),等等。然而,在基本的算法层面,最近十年来人工智能界是否取得了某种堪比上世纪80年代“人工神经元网络技术”之兴起的重大科学突破,则颇为可疑(更何况即使是这一“突破”所具有的科学意义到底有多大,学界的意见也是见仁见智)。在此背景下,过分炒作人工智能研究所带来的伦理学风险,是不是有点杞人忧天呢?
然而,最近计算机业界所发布的一封公开信,则提醒笔者注意到了人工智能研究中牵涉的伦理学问题所具有的复杂性。这份公开信的标题是“关于靠谱的和有益的人工智能研究所应具有的优先性”,发起人是美国加州大学伯克利分校的资深人工智能专家斯图亚特•罗素。应当看到,此信并未像霍金的警告那样充满了对于人类未来的一边倒的悲观色彩,而是充分肯定了人工智能研究对于提高人类生活质量所具有的巨大潜力。但是,公开信也提醒读者注意此类研究所具有的“双刃剑”效应,并积极呼吁伦理学家和人工智能专家合作,兴利除弊,将人工智能的发展所可能带来的负面效应缩至最小。这也就构成了笔者构思这篇小文的由头。
人工智能研究的四条伦理学规范
前面笔者已经提及,现有的人工智能系统的“智能”其实都带有隐喻色彩(甚至是商业炒作色彩),因此,很多被冠以“人工智能”的研究其实都是对于一般的计算机软件编程工作的“借壳上市”而已。但是罗素等人的公开信则提醒笔者注意到,即使是这个层面上的人工智能研究,也已经对人类现有的伦理和法律体系构成了不同程度的冲击。譬如,即使是目前不那么智能的智能系统的大规模商业应用,也必然会为劳动密集型企业之生存带来灾难性的威胁(这一点对于第三世界国家而言尤为严重)。这样一来,被机器取代的劳动力的就业出路在哪里?此类人工智能产品的运用,会不会进一步加大人类业已存在的严重的财富分配不公的问题,并从而导致更为严重的社会与**问题?又比如,大量的计算机统计技术在金融、保险、股市等领域内的运用,会不会导致“未来”变得过于“透明”,而使得相关行业的获利空间不断被压缩以至于趋近于零?又比如,用人工智能技术武装起来的自动驾驶系统一旦出现事故(在这里我们必须预设任何人造系统都会有大于零的事故率),到底由谁来负责,是机器的产权拥有者,还是生产商?而此类机器的生产商又应当承担多少先天的伦理责任,以尽量降低系统产生对人类有害效应的概率呢?请别忘记了,生产商承担的此类责任越多,产品的售价就会越高,而人工智能产品就越有可能被富足阶层所独占——而这种独占本身又会产生另一类伦理学问题。再比如,我们该如何恰当地评估人工智能技术的军事运用所必然带来的伦理、法律与**后效呢?一方面,我们似乎有很明确的伦理理由去将现有武器“人工智能化”——因为这样的技术升级显然能够使得军事打击变得更为精准,己方伤亡更少,并由此使得战争更为人道;但另一方面,人工智能带给武器的“自主性”对于现有的层级分明的军事指挥体制却是一个巨大的挑战,譬如:人类指挥官如何能够保证其机器人下属不会按照自己的理解去误解其军事指令?甚至我们还可以设想:如若敌对双方的军队都装备了大量具有此类基本自主性智能的军事装备的话,发生人类指挥员所不可预测的偶然性军事冲突的几率是不是反而会被提升呢?
面对这些错综复杂的伦理学问题,罗素等人的建议是在人工智能的研究中树立四条规范性标准,以使得技术的运用不至于出现失控的状况。这四条标准分别是:“可验证性标准”,即保证设计出来的系统的确能够执行人类希望其执行的任务;“有效性标准”,即保证设计出来的系统肯定不会带来人类所不期望看到的那些危害;“安全性标准”,即保证设计出来的系统肯定不会被不具资质的个人或者团体以不恰当的方式加以利用;“可控制性标准”,即保证设计出来的系统在其不幸出错的时候,能够顺利地向人类移交对于自身的操控权。
罗素等人提出的这几条标准本身看上去虽都貌似有理,但就他们提出的用以贯彻这些标准的具体技术解决方案而言,却似乎依然带有“头痛医头、脚痛医脚”之弊。概而言之,他们的技术方案,便是设计出一套套更为高阶的元算法,以便保证被设计的系统的“可验证性”或“有效性”,等等——这大约可类比于设计出一个个点钞机,以便去检验手动点钞结果的准确性。但问题是:不同的人工智能系统背后的算法基础乃是彼此不同的,因此,你用来检验一个系统的可验证性的元算法,就必然无法与另外一个验证系统相通融——而这又大约可类比于专门用来点验人民币的点钞机,是无法被用来点验欧元的。更麻烦的是,这些标准的具体内容必然会因为语境的不同而彼此差异,因此,对于这些标准的内容的预先规定与编程就会遭遇到一些原则性的困难(不管怎么说,恐怕没有任何一条内容有限的规则可以预见到系统所可能遭遇到的所有语境)。比如,就所谓的“有效性标准”而言,要在智能系统所可能作出的所有动作中,预先排除掉哪些动作是“人类用户所不期望看到的”,又谈何容易。举个例子来说,在一个问题求解语境中,吸尘机器人去清洗自身(而不是地板上)的灰尘或许是人类用户所不希望看到的,但是在另外的一个语境中,有些人类用户却希望其这么做。反过来说,如果有人硬是要将这些所有可能的语境都考虑在内并设计出一套超级检查程序的话,那么,对于检查程序本身的运行就很可能会占据大量的运算资源,并最终导致系统的崩溃。
在笔者看来,问题的真正解决思路,似乎不在于如何从外部的立场出发,去给人工智能系统“立法”。更值得推荐的思路,或许是让智能系统成为真正的伦理主体——或者说,让伦理性内植于机器自身的程序之中。若用一句话来概括笔者的思路的话,这就是:“将人工智能研究升级为人工伦理研究”。
“机器人三定律”与作为伦理主体的人工智能系统
为何一定要将对于“人工智能”的研究升级为对于“人工伦理”的研究呢?我们不妨暂时抛开对于人工系统的讨论,而来看一下我们人类自己的“伦理可靠性”。假设你是一家公司的领导或者是一支武装部队的首长,你又如何能够保证下属对于你的忠诚呢?一个比较笨的办法就是制定各种行为标准,严惩不忠者,奖励优秀下属。然而,任何完善的规章制度本身肯定都是有漏洞的(因为任何抽象的规章制度都不会具有彻底的“语境敏感性”),因此,你还得让你的下属从内心生长出对于上级或者团体的忠诚。不难想见,自发的忠诚感与恰当的智能的相互匹配,可以达到某种非常完美的效果,比如,在某主体面对一个新的问题情境时,他既能够根据自己的智能,富有创造性地给出最佳的问题求解策略,又可以根据他的忠心来保证这种求解的效果最终是有利于其所为之服务的社会团体的。反过来说,伦理意识一旦缺失,即使法制体系以及管理规章非常严密,行事者也可以利用其智能从中找到漏洞,并由此让法规异化为为自身牟利的工具。从哲学史的角度看,儒家之所以推崇德治,而对法家所鼓吹的法治的充分有效性有所怀疑,恐怕也是出于同样的理由。
那么,我们又该如何让人工智能系统具有对于人类用户的内在忠诚性呢?根据科幻作家阿西莫夫在其1942年首发的小说《我,机器人》中提出的建议,我们似乎可以讲所谓的“机器人三定律”内植于人工智能系统之中。这三条定律是:
定律一:一个机器人不能伤害人类,也不能够在人类面临受伤害风险时袖手旁观;
定律二:一个机器人必须服从人类的命令,除非这种服从会导致机器人违背定律一;
定律三:一个机器人必须尽力自我保护,除非这种自我保护会导致它违背前两条定律。
这三条定律的意思看似浅显,但若真要将其写成程序,却会立即遭遇到一些哲学层面上的困惑。具体而言,相关的麻烦是由前两条定律中提到的关键词“人类”引起的。不难看出,作为集合名词的“人类”是有歧义的,它既可以指“任何一个人”或“所有人”,也可以指“大多数人”。若取前一种理解,我们就会发现,阿西莫夫的“机器人三定律”,或许可以被视为德国哲学家康德所说的“绝对命令”在机器人时代的翻版。我们知道,按照康德的伦理学,一条绝对命令就是一个没有条件限制的应然性祈使句。在康德道德哲学的语境中,此类需要无条件被执行的祈使句也有三条(按效力大小排序):
第一,所有的道德断言都应当对一切主体和一切语境有效(普遍性标准);
第二,对一切主体和一切语境来说,都应当把其他的任何人当成目的,而非手段(目的性标准);
第三,所有的道德主体在类似的语境中都应当能够根据纯粹实践理性得到相同的“应然性”判断(普遍目的性标准)。
现在我们就不妨来更为仔细地比照一下阿西莫夫的三定律和康德所说的“绝对命令”。若将阿西莫夫的“机器人定律一”中所提到的“人类”理解为“所有人”或“任何人”,该定律显然满足康德所说的“普遍性标准”,因为“定律一”的表述亦是没有条件限制的——换言之,“既不能伤害人类,也不能在人类面临受伤害风险时袖手旁观”这一条是对一切机器人、一切人类个体和一切语境起效的。后两条定律若和此条发生冲突,也必须牺牲自己而服从于它。另外,“定律一”也暗含把人“当成目的”的想法,否则就谈不上“在人类面临受伤害风险时不能袖手旁观”了。
读者或许会质疑说,根据这种对于机器人定律的康德式解读,我们又如何保证机器入能够被运用于一些特殊领域(比如军事或者治安领域)呢?譬如,一个警用武装机器人是否可以对正在挟持人质的恐怖分子开枪呢(别忘记了,恐怖分子也是人,因此也必然会被康德主义者解读为“目的本身”)?又比如,一辆自动驾驶的汽车,又如何能够在面对两难的情况下(譬如那种无论怎么驾车都会撞到行人的情况),根据“伤害最小化”的原则实施“紧急避险”呢(因为即使是“最小化了的”伤害,毕竟也是对于人类的伤害)?由此设计出来的智能系统,会不会最终变成为优柔寡断的“机器人版哈姆雷特”,而无法在面对环境变化时及时给出恰当的回应呢?
而为了解决这个问题,最容易想到的办法是将机器人三定律中的“人类”直接界定为该系统的直接用户。但即使是这个办法也并不治本。首先,在很多场景中,系统所面对的人类对象并不是其直接用户,但是其决定却关系到了他们的生死(如上面提到的防暴机器人的例子)。其次,在系统的直接用户本身的伦理品性难以被保证的情况下,系统很有可能会沦为助纣为虐的工具——在这样的情况下,我们更希望出厂的机器人自身所内装的“伦理模块”会使得别有用心的坏人在恶意使用它们的时候会遭遇到种种技术反抗。因此,我们似乎还需要一种更富灵活性的“人类”定义,以使得智能系统能够在“所有人”和“我的主人”之间找到一个平衡点。这就是前面提及的“大多数人”。
如果说将机器人三定律中的“人类”读解为“所有人”是康德式的义务论式观点的一种典型体现的话,那么边沁或者穆勒式的功利论者就自然会将“人类”解读为“大多数人”。我们知道,英国哲学家边沁的最基本伦理学教条便是:“判断对错的标准,就在于最大多数人的最大程度的快乐。”按照这个标准,机器人自然便会根据利弊之间的对比,来决定自己是否要选择伤害一部分人的利益以维护更多的人的利益。如果我们再用概率论的术语来对边沁的基本原理加以重述的话,那么它还可以被表述为:“判断对错的标准,就在于相关的行为是否能够以最大的几率为最大多数人带来最大程度的快乐。”而根据这条原则加以行事的人工智能系统,显然便能够根据相关行为选择的历史成功率来判断其应该在当下给出哪种选择,并以此将自己的行为的精准度微调至非常细密的程度。
然而,即使是这样一个看似严密的方案,其实也是有着重大缺陷的。首先,“利”和“弊”之间的差异有时候的确很难被量化。比如,牺牲999条生命,是否对于拯救1000条生命来说是不得不付出的代价呢?这个对于任何有基本良知的人来说都难以回答的问题,若被一个机器人仅仅以“1000大于999”这样一个琐碎的算术理由而被当即给予了肯定的解答的话,是不是会显得有点过于草率呢?其次,对于成功率的数据的依赖,是不是就一定能够有效地指导未来呢?譬如,仅仅因为某个选项的历史成功率不高而拒绝考虑之,是不是一种作茧自缚、故步自封、缺乏创新的保守思维的体现呢?再次,并不是所有的可能的道德选项都可以找到历史上的成功率数据,而在此类“计算根据缺乏”的情况下,系统又该何去何从呢?
笔者认为,一种更为稳妥的解决之道,是要在康德主义与边沁主义之间再作出一种平衡,以使得系统能够兼顾两种伦理学体系的好处而尽量避免其劣处。具体而言,系统不妨按照下述程序去处理特定的道德选择情景:
第一,在任何情况下,系统将首先尝试着按照康德式的悲天悯人观点,对所有人的利益加以考量,尽量不去伤害任何人的核心利益(特别是生命权)。
第二,在完成“一”有困难的前提下,系统将按照边沁式的观点,根据最多人的最大利益,或者是根据对于满足此类利益的选项成功几率的计算,而给出资源有限前提下的最优解。
有的读者或许会说,对于“所有人的利益的考量与照顾”只有在极端理想的情形下才能够被加以执行,因此,对于大多数问题处理语境而言,上面所列出的“步骤一”是毫无实际意义的。然而,只要我们将“所有人”的范围缩减至特定的问题处理语境所牵涉到的所有相关当事人,那么,对于这些人的利益的考量所占据的运算资源依然会处在系统的可支付范围之内。此外,也是更重要的是,对于“步骤一”的保留,将使得系统有机会搜索更多的问题求解方式以保障所有人的利益,以免过于匆忙、粗暴的利弊对比遮蔽了某种“保护所有人利益”的选项浮现的可能性。譬如,预装了“步骤一”的防暴机器人就能够在面临人质绑架危机的时刻去搜索那些在保护人质安全之同时,亦保护犯罪嫌疑人自身基本生存权的问题求解方案,而不是“不假思索”地转向冷酷的“击毙罪犯”模式。换言之,预装了“步骤一”的人工智能系统,将在行为表现上显得更有“人情味”,尽管这种表现会在某些语境中导致行为输出的迟缓化。
人文社科学者能够为人工伦理做些什么?
以上,笔者已经就如何通过康德的义务论和边沁的功利论这两方面的考量,在拟议中的人工伦理研究中夯实阿西莫夫关于“机器人三定律”的设想,提供了一些管见。在本文的末尾,笔者还想就广义上的人文社会科学和人工伦理研究之间的关系,发表一些粗浅的意见。
先来看哲学中的伦理学研究和人工伦理研究之间的关系。通常意义上的伦理学研究分为三大分支:所谓的“元伦理学”研究,其关心的是伦理规范自身的本体论地位与语义内涵;所谓的“规范伦理学”,其关心的是不同的伦理规范——如义务论或者功利论的规范——自身的可辩护性;所谓的“应用伦理学”,其关心的则是如何将不同的伦理规范应用于社会生活的不同领域。从表面上看,本文所提到的“人工伦理”研究牵涉的似乎仅仅是应用伦理学的研究,因为它看上去只不过就是对于既有的伦理学规范在人工智能这个新领域内的运用而已。然而,更为仔细的观察却会使得我们发现,人工智能这个行当自身所固有的实验性特征却又反过来为我们检验不同的伦理学理论的有效性提供了契机,因此,我们也完全也可以反客为主,将计算机的平台视为验证既定伦理学理论的工具,并因此使得人工伦理的研究本身带上鲜明的规范伦理学色彩。这种模糊计算机科学和伦理学研究之间界限的新视角,亦在某种宽泛的意义上和目前正方兴未艾的“实验哲学”思潮相呼应,并在相当的程度上对国人所熟悉的以经典诠释为核心的传统哲学研究方式构成强大的冲击。
而在诸种社会科学研究中,与人工伦理最为相关的学科无疑乃是心理学(特别是道德心理学)以及法学。先来说道德心理学。道德心理学的核心命意,乃在于对于人类道德判断背后的心理机制作出经验层面上的描述。可以想见,对于天然具有义务论倾向以及天然具有功利论倾向的不同道德主体所具有的不同心理机制而言,如果心理学家都能够对其作出足够充分的说明的话,那么,相关的研究成果若被加以恰当的抽象化与算法化,就完全可以被人工智能专家所利用,最终设计出具有不同道德倾向的人工伦理主体。
另一个不可或缺的社会科学领域则是法学。前文已提及,进入人类生活各个领域内的智能机器人,将不可避免地牵涉到各种司法关系,比如交通法规、公民的隐私权保护、物权,等等。进入军事领域内的智能机器人则会进一步牵涉到军事保密、交战规则与国际法等诸方面的更为复杂的司法关系。在这种情况下,为了能够让智能机器人适应人类社会既有的司法体系,法律界人士就必须与人工智能专家通力合作,寻找将既有司法规范“算法化”、“程序化”之道;而在另一方面,大量智能机器人的出现又不可能不对人类既有的司法体系构成冲击,而这就又会倒逼着司法领域内的专家就相关领域内的旧法修订乃至新法编纂工作,提出一些能够同时为执法部分、计算机工业界以及广大用户所接受的建议。
——然而,我们当下的人文社会科学的教学以及科研体系,是否已经为迎接这样的“智能机器人时代”的洗礼做好了准备呢?
答案恐怕是不容乐观的。以笔者相对熟悉的哲学领域内的教学与研究情况而言,学界大量的精力还是被放诸对于中西哲学经典的解释与阐发之上,对于“工业4.0时代”提出的最新鲜的时代命题尚缺乏普遍的触动感。而就与人工伦理更为密切的伦理学研究而言,其在中国哲学界内部的学术地位可谓不可思议的边缘化,而这又与某些伦理学分支——特别是应用伦理学——在北美国家的高度繁荣构成了非常刺眼的反差。至于心理学研究(特别是认知心理学研究),虽然近年来在我国的确取得了长足的进步,但是与其他人文社会科学之间的学科交叉和相互融合还非常不足,难以通过自身的发展构成撬动整个社会科学分布板块既有模式的“鲶鱼效应”。相比较而言,法学在我国的发展相对而言获得了较多的社会关注以及学科资源——但即使如此,根据笔者有限的见闻,在汉语学术圈中关于智能机器人的出现所可能出现的法学问题的预研,似乎还付诸阙如。
当然,从更富同情心的视角来看,目前中国人文社会学界对于此类问题的沉默,也是有着相应的客观历史原因的。一方面,人工伦理研究所需要的跨学科视野以及知识背景,需要有整个鼓励文理交汇的文化背景做支撑,但是这样的文化背景在我国还有待进一步培育。另一方面,由于我国目前所处的特殊发展阶段,诸如食物、水、空气等人类基本生存资源的安全问题依然占据了大量公共舆论空间,在这样的历史语境中再来讨论机器人的伦理问题,恐怕会被一些人认为是在“操闲心”。不过,我们同时需要冷静地看到,智能机器人时代自身的到来,不会因为某个国家的知识界正忙于他务而自动放慢自己的脚步——它什么时候到来,并以怎样的方式到来,会仅仅遵循其自身的逻辑。考虑到我国人口老龄化的现实以及我国现有的世界制造大国的地位,很难设想一旦人工智能技术发生突破性进展之后,我国的制造业竟然不会去迎头追赶。而对于这项迫在眉睫的科技大事件的发生,我们的人文社科界若没有做好相应的思想与理论准备,恐怕将难以应对此类技术的社会应用所必然产生的复杂的伦理以及司法后效。从这个角度看,尽管像霍金那样谈论人工智能体如何灭亡人类的确有点过于“科幻”,但是对于人工伦理的讨论却一点也不超前。相反,这样的讨论正当其时。
请点击↓
☉向那个年代的最强大脑致敬!从面对面的办公室说起│一篇让人心潮澎湃的长文
☉ 科学能否回答道德问题
☉别让科学成为上帝——关于“转基因食品”争议的哲学问题
科学的界限就像地平线一样:你越接近它,它挪得越远。——布莱希特
点击阅读热点文章
⊙为人的情境
⊙有到无时方知有—存在和虚无,西方和东方
⊙苦难中的孤独灵魂│无梦楼随笔
⊙马克思:评普鲁士最近的书报检查令
⊙追忆与启迪▎江绪林博士告别仪式的悼词
⊙人活着就得“操心”
⊙ 论被消费的休闲│波德里亚休闲批判的反思
⊙漫谈黑格尔的《精神现象学》
⊙欲望源于他者,需求源于自身▎列维纳斯哲学中的“欲望”概念
⊙哲学:中国、印度与西方同名下的思想遮蔽
↓更多阅读请点击↓
您的每一次转发,都会多一分思考的力量
无处不哲学
ID:zhexue365
计算机伦理学理论分析三大思想,人工道德能动性的三种反驳进路及其价值_细细听136的博客-CSDN博客
自阿西莫夫(I.Asimov)1942年提出机器人学三大法则的构想以来(参见阿西莫夫),各种关于人工智能的科幻小说与电影层出不穷。这些科幻作品引起了人们的极大兴趣,一个重要原因在于,它们把似乎是人类所独有的道德情感与品质赋予了作为智能机器的人工物。最近二十年,随着计算机自主性技术的不断提高,以吉普斯(J.Gips)、艾伦(C.Allen)、安德森夫妇(M.Anderson&S.L.Anderson)等为代表的哲学家们提出了人工道德行动者(artificialmoralagents,简称AMAs)的构想,以让机器拥有道德能动性,并探讨了其在理论与实践上的实现路径,这让科幻作品中的“有情感、有善恶意识的机器人”走向现实的可能性不断增大。(cf.Gips;Allen;Anderson,M.&Anderson,S.L.)然而,更多的哲学家们反对AMAs构想,他们从不同的角度论证构建人工道德能动性是不可能的。这些反驳总体上可以分为三大进路,即以约翰逊(D.G.Johnson)为代表的无自由反驳(cf.Johnson)、以知璨·赫(P.C.Hew)为代表的无责任反驳(cf.Hew)和以斯塔尔(B.C.Stahl)为代表的无意义反驳(cf.Stahl)。
与大多数科幻作品不同,目前对AMAs的各种反驳论证不是宣扬人工智能威胁论,而是类比人类道德能动性的特点,宣称机器不可能拥有人类的道德情感与品质。这就意味着:人工道德能动性的构想是徒劳的。那么,如何理解对AMAs的各种反驳进路?除了部分破坏意义,它们的正面价值是什么?这两个问题对于理解AMAs的反驳进路以及为AMAs的构想进行辩护具有重要意义。
本文首先梳理出三类反驳AMAs构想的论证方式,重点是重构出它们的论证结构,并分析这些论证的推论;接下来,比较这三种反驳的一般共性,同时指出其背后最为根本的哲学假定都是有机观点;最后,从两个方面阐释这些反驳的正面价值:一是它们能够促使支持论者及时调整目标,并反复考虑人工道德能动性在何种意义上是可能的;二是促进哲学家们对机器伦理理论的基础进行反思。
一、对人工道德行动者(AMAs)构想的三种反驳
自艾伦等人明确提出AMAs的构想之后,许多哲学家对其进行了反驳。尽管这些反驳纷繁复杂,但总体上可以概括为三大类。下面分别对它们进行重构,并简要分析这些反驳与传统的道德能动性解释之间的关系,从而为进一步分析反驳进路背后的哲学假定,为其正面价值奠定基础。
1.无自由反驳
所谓无自由反驳,是指从机器没有自由意志这一事实,推出它不可能有道德能动性的论证模式。此反驳有两个核心假定:第一,如果一个存在物缺乏意识或心灵,就不会有自由意志;第二,道德能动性的必要条件之一是具有自由意志,没有自由意志则意味着无法进行自由选择。因此,基于自由意志的反驳论证可重构如下:
所以,基于算法的智能机器不可能成为道德行动者。
无自由反驳的代表人物是约翰逊。在约翰逊看来,即使人工智能体的行为满足诸多道德能动性的一些条件,它不满足、也不可能满足最关键的一个条件:心理状态。一般认为,心理状态是人和高级动物所特有的内在状态,它是心灵的内在表征。人类行动者的心理状态认知性更强,人类可以通过归纳等方法认识世界并进而预测未来的状态,这使得人类行动者有选择为善或作恶的多种可能。然而,计算机系统没有心理状态,自然就没有自由意志。约翰逊甚至认为,即使心理状态可以被构造,它们也没有意图去实施行动——而这源于行动者的自由。由此可见,约翰逊基于机器没有自由意志的前提,得出机器不可能有基于自由的行动,从而那些被宣称能够构造出“人工心理状态”的东西也是被决定的,而无法让机器真正具有道德能动性。(cf.Johnson)此外,奈斯(R.Nath)和萨胡(V.Sahu)也认为,人类伦理思考的核心是心灵的观念,但人类心灵具有自我意识性,而这正是机器所缺乏的性质。(cf.Nath&Sahu)由于机器没有心灵,他们进一步否定机器可以有自由意志和道德情感。可见,奈斯和萨胡的观点比约翰逊的观点更为彻底。
当然,仅从功能主义的角度看,智能机器的行动可以有它的道德功效。比如,它可以改变人工智能体的状态并以这种方式“做事”,从而对道德受动者(moralpatient)产生有利或有害影响。约翰逊认为,人工智能体可以是道德受动者,但它们不是道德行动者,而只是道德能动性的组成部分。如果认为道德受动者也是道德实体,那么关于智能机器、道德实体与道德行动者的关系就是:“计算机系统是道德实体,但不是单独的道德行动者。”(Johnson,p.203)由此看来,人工道德能动性的无自由反驳,并不是完全否定构建AMAs的意义,而是要反对把智能机器看作真正的道德行动者。
在一些哲学家们看来,即使机器的行动能够展现出对人类行动者的道德关怀,由于对其进行惩罚没有任何意义,从而机器无法承担道德责任——这就是人工道德能动性的无责任反驳。这种反驳较早可追溯到库菲利克(A.Kuflik),他认为对于计算机的任何决策,人类都应当承担最终的道德责任。(cf.Kuflik)无责任反驳的论证可以重构如下:
为自身的行动承担道德责任是道德能动性的必要条件;
智能机器没有任何实在感觉,对其奖励和惩罚没有意义;
如果惩罚一个存在物是没有意义的,则它无法承担责任。
所以,智能机器不管多么智能,它都不可能成为道德行动者。
此论证的第二个前提最为关键,它表达了道德责任与惩奖之
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。
阿西莫夫的“机器人三定律”是科幻还是严谨的理论?
没有严谨的科学理论的科幻根本不是科幻,是瞎扯淡。科幻届成名的大牌几乎都有严谨的科学素养。有个很出名的例子就是日本科幻小说“日本沉没”,里面的数据九真一假,真实部分非常真实,真实的像是论文一样。硬生生搞的日本恐慌起来,这就是他严谨的一部分。
回头说阿西莫夫,说阿西莫夫著作等身那都不是夸,他的著作不光多,而且涉及到行业之广也是前无古人的,而且他一直都说自己是个科普作家。可见其科学素养。机器人三定律提出来的时候是电脑还不成熟的上个世纪,所以他无论逻辑多么严谨,机器人研发多么有指导意义,它也只能说是幻想。不过据说现在的已经被奉为机器人的金科玉律。但无论怎么说,真正的智能机器人毕竟还没有问世,所以现在它还只能是严谨的科幻理论。
上世纪的达尔文进化论对人类社会,道德,科学有什么影响
你好!达尔文的进化论是正确的科学理论社会、道德压根没受进化论的任何影响科学由于进化论的提出在生物学上的研究进了一大步如有疑问,请追问。
人工智能时代的价值抉择与伦理重建
本文转自南科人文
2021年4月6日下午,中国社会科学院哲学所段伟文研究员做客南方科技大学人文科学中心,开启“科学伦理与技术伦理名家讲座”第四讲:“人工智能时代的价值抉择与伦理重建”。近年来,人工智能业已成为一种泛在的赋能技术,鉴于其所带来的颠覆性社会影响与开放性人类未来,人们开始慎思人工智能所带来的诸多伦理挑战。其中不仅涉及人工智能与人机关系等未来之思,更亟待反思的是,方兴未艾的数据解析社会与深度智能化时代所面临的价值抉择与伦理重建。段伟文以丰富的人工智能案例,深入阐述了上述科学伦理问题。
主讲人介绍
段伟文,中国社科院哲学所科技哲学研究室主任、研究员,中国社科院科学技术和社会研究中心主任,中国社科院大学教授、博导。享受***特殊津贴专家。主要研究领域为科技哲学、科技伦理、信息与智能的哲学、伦理和社会研究;曾赴牛津大学、匹兹堡大学等访问研究。担任中国大数据专家委员会副主任委员,中科院学部科学规范与伦理研究支撑中心学术顾问,国际期刊“社会中的信息、传播与伦理杂志(JICES)”及国际期刊“负责任的创新(RI)”编委,《自然辩证法研究》副主编,国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”首席专家等。近著有《信息文明的伦理基础》(2020)、《可接受的科学:当代科学基础的反思》(2014)等。
1.引言:科技时代的伦理挑战
段伟文首先从做板凳钉钉子这一日常生活经验出发,指出没固定好的钉子承载着安全风险,这是一个伦理问题。其他工程技术亦是如此。许多更先进的科学技术既看不见,也摸不着,可能会产生更大危害。“伦理问题与做技术、做工程项目是分不开的,这是同一个过程。”段伟文援引麦克卢汉的一句话:“先是我们创造了工具,然后是这些工具创造了我们”,指出人之所以是人,与我们使用工具有关。
段伟文接着以监控、人脸识别和导航等智能技术为例,说明科技如同一个两面神。每一项新技术的出现都必然引起悖论,即人的行为的可能性可能同时被拓展和缩小,安全性可能同时增强和削弱。同学们要学会思考,因为“世界是复杂的、丰富的,不是单一的,需要用智慧应对、和技术斡旋。”
我们如今生活在人类世时代,是一个人类力量强大到可以改变地质面貌的时代。在人类世中,神话中的普罗米修斯,相当于人创造出的技术,人在自己创造的技术面前会自愧不如,例如人的计算能力已经比不上电脑。而技术的加速创新,导致人在技术面前产生出一种过时感,无论多么积极地学习新事物,总是会被技术甩在身后,成为过时的人。在此程度上,技术的加速创新意味着过时是人的命运,用段伟文的话来说,“人从一出生就过时了”。
产业化时代的颠覆性技术,如纳米科技、生命科技、认知科技以及信息科技都是跳跃性发展,给人们的生活带来巨大变化,同时也带来价值和伦理的挑战,我国也面临着同样的问题和挑战。那么,我国学术界对科技伦理问题的关注情况如何?段伟文分享了中国社科院科学技术和社会研究中心2020年的一则调研报告。报告显示,科技伦理领域最受关注的问题依次为基因技术、机器人、安乐死、人类增强、人工智能、脑科学与神经科技研究、辅助生殖技术、大数据与智能化社会管理与治理、人类嵌合体等。科技伦理概念中被认为最重要的问题依次为,尊重人的人格与尊严,杜绝对人的伤害、加强个人数据保护,尊重公众的隐私、避免技术滥用,杜绝突破科技伦理红线的行为、公众利益优先,为人类造福、促进社会公正、加强科技伦理治理,建立健全科技伦理问题分级分类审查制度等。
段伟文指出,人无论做出什么行为始终在社会人际关系中存在着。科技告诉我们能做什么,伦理则告诉我们应不应该去做。
2.作为科技文化创新的机器人定律
“机器人学三定律”最初由阿西莫夫(IsaacAsimov)在其科幻小说《转圈》(Runaround,1942)中提出,已成为机器人和人工智能的社会、伦理和法律研究的原点。“机器人学三定律”具体如下:
第一定律:机器人不得伤害人类或坐视人类受到伤害。
第二定律:在与第一定律不相冲突的情况下,机器人必须服从人类的命令。
第三定律:在不违背第一与第二定律的前提下,机器人有自我保护的义务。
段伟文介绍,“机器人三定律”的背景是“恐惧”。小而言之,体现人们对创造生命体的内在恐惧感,大而言之,是对自身欲望的恐惧。既然恐惧,就要用定律来控制。其次,“机器人三定律”体现了康德道德哲学的原则,机器人应该具有义务,这种道德哲学的预设不是功利主义的,而是义务论的。
虽然“机器人三定律”控制机器人的行为,但段伟文强调,如果想用技术的手段把伦理和价值的规范内置机器人的大脑中,依然会出现各种特殊情况。因为伦理需要思考,这比科技研究更复杂,不仅涉及到科技,还涉及到人,包括人的利益、欲望、想法等。
3.人工智能与人机共生的愿景
人工智能与人共生有四大“部落”:(1)学习,即像人类一样会学习的机器,如机器学习、深度学习、图像识别;(2)推理,即像人类一样会思考的机器,如人工智能国际象棋、围棋等;(3)机器人,像人类一样会与世界互动的机器,如计算机视觉、无人机、陪伴机器人等;(4)语言,即像人类一样会理解和使用语言,如自动翻译、智能音箱等。
段伟文进一步以人工智能写作为例说明机器的认知功能。SpringerNature在2009年公布第一本使用机器学习生成的书:《锂离子电池:当前研究的机器生成的摘要》,该书是针对该主题发表的同行评审论文的摘要,仅在2019年之前的三年中,有关锂离子电池的研究论文就超过53,000篇。对于试图跟上该领域的科学家来说,这是艰难的挑战。但通过使用人工智能自动扫描和输出,科学家可节省时间并继续进行重要的研究。
新时期,人工智能已经变成一个智能体、一个行动者,能够理性的思考和任意联想。未来的智能机器在社会将有广泛的应用领域,如教育、医疗、陪护、助理、伴侣、娱乐、军事等等。相应地,人类主体与智能机器的关系也分为主仆关系、陪伴关系、伴侣关系、协同关系等谱系。
针对上述话题,有同学提出疑问,“人类在科技面前是弱小的,而且总是过时的。这似乎导致一个悖论,人处于劣势位置,发现了科技的问题却没有能力去控制它?”
段伟文回答,“现代人认识事物需要把它制造出来,但我们在调用自然力量去制造它时,只清楚其效用,并不知道会产生什么样的后果。用哲学家阿仑特的话说,现代科学是作为“行动”的制造。但我们不是要完全否定科技,而是需要有价值抉择,减少人的痛苦。”
主持人田松对此进行了两个方面的补充:“一方面,对于个人发明的东西我们都不能掌控,而世界上大部分东西不是我们发明的,我们无法掌控。对现代人来说,从出生到死亡的过程中经历了巨大的技术变化,而这不是本人的发明造成,而是别人的发明,并且这个速度在加快。另一方面,一个行动做出之后,就已经不是原来的样子。例如,1945年三颗原子弹爆炸之后,核粉尘在世界范围内蔓延,而当年原子弹爆炸产生的核粉尘如今依旧在大气中分布。也就是说,1945年的原子弹爆炸永久性改变了大气成分。这意味着一个行动发生之后,世界彻底改变。”
此外,同学们还就核心技术的控制权、中国伦理研究的困境等问题与段伟文交流讨论。
4.数据智能与智能算法的社会伦理考量
智能时代的数据会带来哪些社会伦理问题?针对此问,首先需要解释什么是数据。段伟文指出,数据是对于某个事实的记录,一般来说,以往科学实验是有目的地进行研究和采集数据,如测量温度、体积等。而数据智能中的数据,是利用其他过程中记录下的数据。用段伟文的话来说,“数据即存在。数据与人的关系在于不论是否主动,我们都是数据的贡献者。”
随后段伟文提出了“解析社会”这个概念,即把数据看做人的行为及对人对行为的引导和调控对象。数据反映了人的行为,是人的痕迹。一切都可以被记录和分析。例如,利用学生使用饭卡打开水的数据可以分析学生的成绩。在新时代中,我们的数据被凝视,数据甚至成为我们新的皮肤和器官。
在数据驱动的人工智能社会中,数据不是为专门目的搜集到的,但整合数据会带来令人意想不到的结果。段伟文总结了数据的双重特征:一方面数据是对世界的特征描述,另一方面数据成为构造世界的素材。
总之,数据时代使得遗忘变得困难,我们的行为让我们留下数据痕迹。
5.幽灵工作:机器对人类智能的捕获
当下人工智能与人之间的关系如何?是取代人的工作,还是为人带来更多好处?段伟文以亚马逊土耳其机器人为例对此问进行回答:“现代人工智能的发展其实建立在机器对人智能的捕获上。”
亚马逊于2005年推出了亚马逊土耳其机器人(MechanicalTurk),这是一种众包网络服务,能使计算机程序员调用人类智能来执行目前计算机尚不足以胜任的任务。该服务起到一个衔接的作用,即当机器的智能无法满足需求时,用人类的智能去衔接。但这样的衔接是被隐藏的。段伟文介绍,在自动化智能应用环路中事实上需要人的参与,大多数自动化工作需要人类昼夜不息地对自动化过程做出微调和维护,人却被隐藏起来。
这是一种软件管理的幽灵工作。软件管理着人类,一旦工人成功地训练了人工智能,使它像人类一样工作,就会转向工程师指派的下一个任务,不断地推进自动化的边界。随着智能助理越来越多,人们对人工智能的需求日益苛刻和多样,需要越来越多的人力参与其中,也就意味着智能化需要越来越多的幽灵工作。
对于这种幽灵工作,段伟文指出在智能科技中,需要考虑到工人的利益。“是借用了人类的工作,算法才越来越精确和灵敏。但不能在机器和其背后巨大的资本出现以及产生更大的效益之后完全不顾人的利益,我们需要人性化的重置。”总之,幽灵工作的提供者应该超越软件供应商的角色,将自己视为人类专业技能和创造力的提供者,对工人的劳动条件负责。
6.深度智能化时代的价值抉择
段伟文强调,在加速发展的智能化时代,要考虑社会中人的脆弱性。在智能化监测的透明时代,人的行为被数据把控,成为过时的人和迷茫的人。随着智能手环等量化自我技术的发展,数据及社会计算将成为个人生活的自我调节与反馈的重要依据,人们将步入算法生活时代,如何根据数据改进生活形式,如何在数据与智能的积极运用与过度依赖之间保持平衡等,成为每个人必须面对的价值伦理挑战。
那么,我们该如何应对这些挑战?段伟文指出,一方面,应在价值抉择中运用“外推策略”,走出自己,发现对方,形成共识性的价值选择,进而在实践层面走向共建性的伦理与治理;另一方面,应透过生物特征识别等人工智能应用中的伦理争议与伦理冷漠,探讨人工智能时代的人格、主体性及其社会伦理基础的重构。
文字:王海星
往期精彩必读文章(单击就可查看):
1.谷歌突然宣布:上帝的密码防线逐渐崩溃!人工智能有可能是人类文明史的终结!
2.人工智能的现状与未来
3.国防科技大学教授:殷建平——计算机科学理论的过去、现在与未来
4.图灵奖得主Hamming的22年前经典演讲:如何做研究,才能不被历史遗忘
5.当这位70岁的Hinton老人还在努力推翻自己积累了30年的学术成果时,我才知道什么叫做生命力(附Capsule最全解析)
6.科学正在证明,科学并不科学
7.沉痛!中国半导体”芯酸“史!
8.数学的深渊
9. 计算的极限(续)
10.计算的极限
11.高考大数据:哪个省才是高考地狱模式?结论和想象不太一样
12.老婆离家三周,我写了一个操作系统!
亚当斯密理论的背景是什么?
读研时,我刚过20岁,导师就招我一个,面对面坐在办公桌前讲课,很认真。而我,尤其是在春天到来时节严重犯困,竞然坐在他对面用手支着头就睡着了,不过迷惑之中听的最多的一句话就是:哲学是经济学发展的推动力,任何学科的发展都与一定时代的哲学思潮相联系的。那时他讲统计学说史,讲各类统计方法产生的哲学思潮的影响,我听不大懂,但记住了这个意思。到三十岁那年遇到统计学两大人物论战“统计学大,还是信息论大”,借这个话题我写了一篇《跨越统计信息主体论》发表,主要观点就是从统计学的历史发展观来看,是不是统计信息主体本身并不重要,重要的是统计学如何发展,论述统计学发展三大推动力,尤其是哲学对统计学发展的推动。看来我还是没有浪费导师的幸苦。最近几年读哲学相关书籍源于我思想上的困惑和对机关工作的怠倦,而经过这几年的思考以及重新对职业的选择,又让我有机会重新审视一些哲学对经济学思想的影响,下面我着重谈谈斯密的《道德情操论》和《国富论》中的哲学背景。 斯密的哲学观点来源于同时代的牛顿的自然哲学,自然界的秩序即机械论者的宇宙。牛顿发现了统一物理世界的万有引力定律,18世纪的道德家也仿此提出了几条定理,试图用相同的方式统一道德和社会交往准则,这个准则能够使人们分辨是非,并且选择正确的行动。而这样的行动会在人的利已和利他之间选择,建立完美的平衡,有助于社会福利。 斯密这两部著作包含了他对于道德的审视,《道德情操论》里的“同情心”是伦理学的,它阐明了道德世界的和谐与有益的秩序,这种秩序是来自人们的冲动情操而不是理性的选择。《国富论》则开创性地将**经济学根植于牛顿式的宇宙之中,和谐、有益但是机械,这就是那只“看不见的手”,整个社会从个人追求私利的无意结果中得益。因此在斯密这里同情心是道德世界的作用要素,私利是经济世界里的作用要素,正如牛顿的自然秩序一般。 斯密伦理学范畴的“同情心”是一种发自内心的情感,既然同情他人,就会认可他人的感受,使我们自己行动恰如其分的高雅,并约束我们的自私,使自己仁慈并被他人认可,这并非是道德说教或具有功利性质,“这使人性得以完美,并且在人类中创造出情感与激情的和谐,这种和谐构成了人类的优雅和得体”。这种人类的欲望是自我控制和自我依赖的。他的自由放任的经济学也是这样一种自由秩序。 对私利的追求也是符合自然原理,每个人天生被赋予照顾自己的责任,并且他比任何别人更有优势实现这一点,如果他能在公正的范围内野心勃勃、追逐财富就应该得到钦佩,人们追逐财富的动力并非是受生理需要,而真正激励他们的是超过他人和获得高贵地位的欲望,他们也许自私并具有掠夺性,尽管他们只为自己打算,但是他们还是在为社会创造财富,推动整体改进。 斯密的经济的哲学来源自然秩序的思想,即牛顿式的机械论的秩序,他关于人类的道德情操和经济中看不见手的理论均来源于相同的自助的原则。斯密的著作是理性主义和经验主义、演绎法与归纳法法的混合,他的理性主义使之以自然秩序和天赋自由为原则构建一个庞大的思想体系;而经验主义则使他从现实的观察中提出问题并说服他人,如在《国富论》中斯密无数次运用历史的教训抨击**成低效、腐败、轻浮、浪费以受制于某利益集团。 斯密透彻地阐述了自由放任这一天赋自由体系的必要性并视之给一国带来财富的最好手段。在这个体系中,个人追逐私利但自由秩序会趋于把私利追求转变为一种促进社会利益的手段。
如何简述苏格拉底关于“德性即知识”的思想
一德性是一个人宝贵的生活经验,它是知识的一种;二德性是一个人积累的处世哲学,它是知识的一种;三德性确保获取知识和应用知识的正确性,它是知识的安全门。
智能机器人是否拥有自主意识?
是的,机器人是否具有意识是一个长期而又备受争议的话题。实际上,我们对意识的定义并不一致,因此对于机器人是否拥有意识这一问题也存在很多不同的看法和观点。一些科学家和哲学家认为,意识是由大量神经元之间的相互作用所产生的高度复杂的现象,这样看来机器人可能永远无法具备真正的意识。而另一些人则认为,只要我们能够模拟出人脑中神经元之间的相互作用方式,并将其应用到机器人身上,那么机器人就有可能具有自主思考、感知世界、产生情感等表现出与人类类似或相近的行为。不管怎样,在当前阶段来说,更重要的是确保我们开发出来的智能机器人不会对人造成威胁,并且符合道德和伦理规范。同时我们也需要进一步探究意识及其本质特征,以期能更全面地理解和评价未来可能出现的各种形式的智能体。
ai机器人三大定律?
AI机器人的三大法则是:
1. 机器人不得伤害人类,也不能通过不作为使人类受到伤害。
2. 机器人必须遵从人类的命令,除非这些命令与第一条法则有冲突。
3. 机器人必须保护自己的存在,直到这不与第一条和第二条法则相冲突。
这三个规则,也称为“Isaac Asimov的三大机器人定律”,是著名科幻作家阿西莫夫在他的小说中描述的机器人运作法则。这些定律被认为是保护机器人和人类的关键,以保证机器人在执行任务时不会伤害人类,而且必须服从人类的命令。
本次使用令牌数: 2786
机器人三定律启示?
第一定律
机器人不得伤害人类,或因不作为而让人类受到伤害。
第二定律
机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
第三定律
机器人必须保护自己的存在,只要这种保护不违反第一或第二定律。
【机器人三定律背后所依据的道德哲学理论是什么(徐英瑾:让智能系统成为伦理主体)】相关文章: