诸如如何辨识披着人类面孔的机器人?还有相关的法律问题,在举行产品发布会的之前,确切的来说开发者大会召开之际,政府方面的人就找华盛科技约谈去了。
关于如何辨识机器人的这一点,很好解决,只需要开口是带着些许电音便能立马辨析出来,实际上这也没什么,政府的顾虑主要是来自于社会安全问题。
政府担心的是一些别有用心的人利用机器人来做危害社会安全与犯罪的事情,任何科技产物都是带有两面性的,都是一把双刃剑,关键在于如何把正面积极的作用发布会出来,锁住负面作用的问题。
这些作为开发者的黎川自然都想到了,政府方面牵头带着一批京都大学的法律顾问团队,还有国内的顶尖ai专家和黎川及其华盛科技的ai工程师们长时间共同探讨,解决这个问题。
尤其提起技术上的问题,机器人这个点,自然绕不开阿西莫夫那经典的机器人三定律了,所谓的三定律,即:
零:机器人不得伤害人类整体,也不能坐视人类整体受到伤害。
一:机器人不得伤害人,也不得见人受到伤害而袖手旁观,但不得违反第零定律。
二:机器人应服从人的一切命令,但不得违反第零、第一定律。
三:机器人应该保护自身的安全,但不得违反第零、第一、第二定律。
在探讨这个话题的时候,就有ai专家表示可否参考机器人三定律。科幻作家阿西莫夫的经典机器人三定律似乎就是最合适给机器人的定下的基本守则了,但实时的结果是……不行!
黎川更是直截了当的否了,智能核心并非是像小木那样的智能生命,小木最大的特点是拥有自我情感逻辑,这是智慧的体现,智慧是生命的体现,但ai是永远不会放错误,ai如果犯错了便是程序运行出现了逻辑错误。
黎川这么直接的否掉,原因是阿西莫夫的机器人三定律有着太多的逻辑缺陷。
其中有一个根本缺陷就是,如何去定义人?
一般形态的机器人至少可以分为三种类型:
一种拥有类人形的机器人,典型就是真实伴侣了;
其次是拥有机械躯体的人;
以及其他。
拥有仿生人形的机器毫无疑问依然属于机器,只是外形看起来与人镜像,像真实伴侣就外表更是一模一样,但它本质依然是机器。
而拥有机械躯体的人,虽然他们可能没有经历生物学意义上自然人的生长过程,或者看起来并不像人,比如克隆人,但他们本质是人。
其他,比如人造人是有机生命体与机械的合成品。
而阿西莫夫的“机器人三定律”所面对的要么是机器、要么是人。
甚至,如何去定义机器人?
如果是机器,那么“机器人三定律”起不到任何约束作用,这是使用人类“语言”描述的一种“概念”,“机器本质的机器人”并不能理解“语言”,也不存在“概念”。
它们就像是按照设定好的轨道运行中的火车,只是可能轨道相对复杂了,但它们怎么也不会运行到轨道之外的地方的,否则就会翻车,那么智能核心就会崩溃。
即便按照某种方法把“机器人三定律”翻译成机器人使用的二进制语言输入到它们的智能核心中,“机器本质的机器人”也无法执行这种指令,因为它们根本就“读不懂”。
就像是一只老式发条座钟,可以被设定齿轮转到没个特定位置的时候激活报时的装置,但是无法被设定“看到哈士奇拆家就报警”,就算是写成纸条放到里面或者把字刻在齿轮上也不行。因为老式发条座钟并不能理解“哈士奇”和“家”是什么,这是它被设定运行时的“轨道”之外的存在,是不能说触及的领域。
如果是人,那么即使他不是血肉之躯,也依然有办法读取‘机器人三定律’的内容,可以正确的理解“机器人三定律”所描述的概念。
但是,他没有理由执行这个概念。
是的,他可以理解,但他就是不想执行。
用“机器人三定律”来约束某个特定人造物的行为实际上没有什么意义,因为没法约束全部,全部都约束了就是全部都约束不了。
如果它依然是机器,那么并不需要制定规则来约束它,因为它本身不具备做出“越轨”行为的能力,最多只能“脱轨”坏掉。而当他可以理解“机器人三定律”的时候,他所拥有的理解、逻辑、判断力已经足够让他自行决定是否遵守规则。
比如华小木,小木严格的来说已经是可以使人类定义中的“生命”了,已经脱离了机器人或者ai的范畴了。
简而言之:
会执行“机器人三定律”的机器人根本不能理解“机器人三定律”。因为“它”不能理解“它”。
可以理解“机器人三定律”的机器人根本不会去执行“机器人三定律”,因为“他”不会执行“它”。
就是一句话,是否具备自我人格与情感逻辑分析。
但问题得解决,不然产品没法推出来。
关于这个问题,黎川和一众业内的专家们找到了一个并不完美但绝对靠谱的解决之道,那就是,最终讨论出来的结果是,引入道家无为的思想,同时将明确法律条例写入智能核心。
同时要写入法律这种“有为”之举,目的就是实现无为,正所谓“为出于无为,为之使至于无为”
通俗的来说就是别让机器人主动去多管闲事,哪怕是身边有个老人跌倒了也别去扶,这里有个前提,那就是“主动”,主动这一点非常关键。
而如果机器人的主人授权了也就可以去扶老人,这是“有为”,机器人被动接受主人的命令,但也有明确的法律约束的,因为主人也不能违法,也就是说机器人可以拒绝主人的一些条例。
法律是非常明确的一种执行条令,法律不予许机器人违法,如果主人授权机器人杀人放火,显然是不行,因为法律并不赋予主人拥有这种权利。
而一旦遇到法律都没有的空白区域时,机器人自动选择“无为”之举,尽管看起来显得非常不变通,但这种“不作为”之举至少做到不求无功功,但求无过。
至少可以做到机器人不会成为社会的混乱之源,虽然不完美,但却靠谱,而阿西莫夫的机器人三定律看起来完美,但太不靠谱了。
同时,这也是人与机器人的根本区别,人与工具的根本区别,即:自主选择行为。
总而言之,在国家政策上对人工智能大力推动发展的大环境下,在解决了可能给社会带来负面影响的最基本问题得到解决之后,真实伴侣面向世人是不存在政策上的阻碍。
不过,外界舆论可就是另一回事了,尤其是海外的舆论。
随着华盛科技旗下的真实伴侣开启预售,在全世界初步展开吸金之旅步入第三周时,不管是出于对华盛科技眼红还是看不过亦或者其他因素,反对的声音也许会迟到,但从来不会缺席,一些杠精、大v们也许会迟到,但也从来不会缺席。
一些公知、大v或杠精的声音对于如今的华盛集团而言,可以忽略不计,这些人更像是跳梁小丑,甚至都无法引起华盛科技的在意。
倒是第一个强有力反对的声音,源起地点居然是英国。
居然是腐国你敢信?
最近,英国的一位学者发起了一项活动,呼吁社会禁止企业开发性暧机器人。
这个活动的发起人叫做凯瑟琳-理查森,是英国德蒙福特大学的机器人伦理学专家,她发起的这项活动就是希望引发社会对这一问题的关注,试图说服那些正在开发机器人的企业,虽然没有点名,但谁都知道她在说哪家企业。
华盛:exm???
……
(https://www.yqwxw.cc/html/114/114651/24571002.html)
www.yqwxw.cc。m.yqwxw.cc