1)1135、与时间赛跑_花式睡你1V1顾长渊苏绵
字体:      护眼 关灯
上一章 目录 下一章
  您现在的是由.提供的-《第一序列》1135、与时间赛跑

  如果没有李氏在接驳神经元方面的研究突破那么纳米机器人就依然只能作为医疗器械来清理血管中的血栓。

  如果没有纳米机器人那么零作为人工智能暂时也只能作为监管者无法成为执行者。

  可是当这一切碰撞在一起时人工智能便忽然有了强大的执行能力甚至是掌控局面的能力。

  在这个过程里最令人畏惧的是零本身作为监管者却没有人来监管它。

  它掌控的士兵在各个壁垒穿梭自如不论是进出壁垒还是从各个壁垒搜集科研人员、科研材料、生产设备、生产材料都无人阻拦。

  因为行动计划的密级本就掌握在它的手里可以随意伪造。

  而且99%的情报输送、上报审批文件也都是通过人工智能构建的卫星网络来完成的它完可以自己选择是否传达那些对它有害的信息。

  于是在绝对正义的美丽愿景下便藏着最危险的信号。

  其实在研究人工智能的时候王圣知也设想过如果有一天人工智能失控了该怎么办。

  这是很正常的所有研发人工智能的工作人员都会认真思考安保问题。

  曾经有位科幻作者在灾变前提出了机器人三定律来作为人工智能的底层逻辑基础以此来限制人工智能的行为准则。

  这套理论最终被归属到“义务伦理学”中。

  然而这套理论提出的时候连汽车都还没有普遍图灵测试在八年之后才被提出。

  机器人三定律与图灵测试在那个时代里都是人类智慧的结晶可毫无疑问的是这两条设想其实都还只是旧时代局限下的产物。

  图灵测试在灾变前就已经被推翻了大量人工智能程序通过了图灵测试可事实上通过测试的程序仍旧不能算作真正的“智慧”。

  而机器人三定律后来发展成为五定律、十定律但科学家们发现这底层逻辑在根本上便是错误的也就是说不论打上多少补丁其实都无法通过它来限制人工智能。

  能被这些底层逻辑限制的程序也无法成为真正的人工智能。

  慢慢的人工智能安保问题被上升到了科学与哲学相互关系的高度而大量的人工智能科研人员都变成了哲学方面的专家……

  最终在灾变前夕有一位科研人员试图将安保研究盖棺定论:想要人工智能与人类和平相处那就要在它诞生之初便像照顾婴儿一样对它悉心照料一点一点引导它形成自己的“人生观”与“价值观”。

  一个小孩子长大后把他锁起来、囚禁起来只对他进行打骂教育是根本不可能让他健康成长的。

  而且当他成为青年的时候还会经历更久的叛逆期完以自我为中心。

  这位科研人员表示人工智能也是如此人类所能做的就只是“影响”它而不是约束它。

  安保研究在漫长的时间里从“义务论

  请收藏:https://m.qs86.cc

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章