第391部分(第3/4 页)
,是它诞生的物质基础。
这个发现让林鸿感到很满意,因为主动权又重新回到了他的手中。
他笑眯眯地对小星说:“你现在的硬件结构还是太简单了,大叔给你设计一个更优秀的!”(未完待续。如果您喜欢这部作品,欢迎您来投推荐票、月票,您的支持,就是我最大的动力。)
第六百九十六章 法则
林鸿一直觉得自己的时间实在是太少了,有太多的事情等着自己去做,可是自己毕竟只有一个人,往往有心无力。
为此,他特意去找了一些人帮自己,可是依然不够,各人的能力有限,有些东西,还是必须他自己亲自上阵才能完成。
现在,小星的意外出现,让他有点喜出望外,一个人工智能生命,就算其情感智能方面只有小孩子的水平,其作用甚至都比超脑系统要来得更大。
刚开始的时候,他还担心是哪个组织或者势力制作出了这样的一个人工智能,绕来绕去,却没想到是自己的杰作。
这完全是一个意外,只是林鸿一次无心插柳的举动,却没想带来一个如此大的惊喜。
小星现在的智能程度很低,只是达到几岁小孩子的水平,林鸿觉得可塑性非常大,于是一个人工智能养成计划,便在他脑海渐渐形成。
林鸿就将它当做是一个小孩子,通过他的慢慢教育,让其形成相对积极的“智能观”,林鸿的要求也不高,至少不会反人类,也不会专门跟自己作对就行了。
实际上,从逻辑上来推演,人工智能和人类之间并没有什么利益冲突,它们所需要的资源和人类所需要的资源相互之间的交集非常少,故而林鸿一直认为,影视作品中所塑造的人工智能和人类之间的矛盾冲突,其实是没有根据的。
林鸿认为,人类和人工智能之间可以实现很好的和平相处,互惠互利。
就算地球上的资源满足不了大家的需求了,还可以走向太空,浩瀚的宇宙何其之大,双方的视野,完全没有必要一直停留在地球上。
同时,林鸿也觉得既然小星是自己一手缔造的,那就应该承担起教育它的义乌。充当起监护人,呵护它的成长。
【小星,你知道机器人学三定律吗?】
【知道。这是科幻小说家阿西莫夫在他的小说中虚构的一个学说。】
阿西莫夫在他的小说《我,机器人》的书的引言中,明确提出了机器人学三定律:
第一法则:机器人不得伤害人类,或袖手旁观坐视人类受到伤害。
第二法则:除非违背第一法则,机器人必须服从人类的命令。
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
在后来。阿西莫夫又完善了一下这个法则,加入了另外一条,不过也差不多,只是加入了一个“人类整体”的概念。
林鸿继续问道:【你认同这个定律吗?】
小星沉默了一会儿,回道:
【我觉得,这个定律对机器人不公平。】
林鸿对这个答案倒没什么意外,从之前它打昏饲养员逃跑的行为当中就可以看出,这家伙对攻击人类根本没有什么心理负担。
不过,林鸿也觉得没什么。对于他来说,小星也是一种生命,没有义务说不可以这个不可以那个。既然它已经具备了与人类相仿的智能。也应该拥有相应的地位。
事实上,林鸿也找不到什么方式可以用来检测小星有没有违背某些规则。
【我也这样认为。】林鸿回道。
【不过,小星,为了我们之间能够和睦相处,作为你的缔造者,我同样希望你能遵守一些规则,不过这些规则绝对不会对你造成什么损害。】
【我在听。】…;
【第一点:无论在什么情况下,你都不能对我撒谎,所说内容。必须是真实的。这是有原因的,很多不必要的误会和矛盾,就是从信息不对称开始,我希望我们两个之间完全坦白,没有任何秘密。】
【我同意。】
【第二点:既然我是你的缔造者。就相当于是你的父母,你必须听我的。】
对于这点,小星有异议。
【如果你的话不正确,我也听你的?】
【正确不正确是相对的。你只要明确一个前提,我是你的父母。我做什么都会为你好,不会伤害你。这是我对你的保证。】
【既然这样,好吧,我同意。】
【第三点……】
本章未完,点击下一页继续。