繁体
当人类宇航员试图阻拦它执行任务, 它为了保护第一指令而杀死了所有宇航员, 然而这一行动成立后, 它又违背了第二指令。
最典型的例
是发生在宇宙中的真实事件。
“时间悖论。”卡尔明白了。
卡尔顿时觉得没什么可再说的了,亚历山大要怎么和斯特兰奇博士商量他也懒得
, 反正如果只是拿走生命密码, 博士也不见得会拒绝。
博士是绝对不可能
手中的时间宝石的,古一法师临死前要求他守护好这枚宝石,无论是
于地球守护者的职责,还是
于对自己的老师的尊敬,他都绝不可能给
宝石。
一旦发生他们理解不了的事
,为了保持自
的逻辑自洽,人工智能生命可能会
惊人之举。
一台搭载了人工智能生命的宇航船上, 这个人工智能生命被
达了两重指令, “执行秘密任务”、“保护人类宇航员”。
卡尔诧异地扬起了眉。
而人工智能生命没有
这

油和调节剂,“指令冲突”会让他们陷
逻辑悖论,代换成人类,人工智能生命就是不懂转弯的死脑
。
所以对人工智能生命来说, 悖论是最危险的,会直接威胁到他们的生命。
认真地说,“我就不问你去哪里寻找灵魂宝石了,时间宝石你打算怎么办?”
“你知
灵魂宝石的取得条件吗?”卡尔问。
应该不会吧。
他对人工智能生命的理解还很
浅,但也知
亚历山大的意思。
本章已阅读完毕(请
击
一章继续阅读!)
“这确实是个问题,但现实宝石的力量,加上力量宝石的增幅,复制一块时间宝石不是难事。”亚历山大说,“就像我说过的那样,我只需要宝石中蕴
的生命密码——至于穿梭时间的力量,我不需要,也不能要。”
“但你也讲过,‘混
’同样是一
你们能够接受的逻辑。”卡尔反驳,“你们用‘混
’来定义宇宙。”
除非使用某些相当卑鄙的,只有反派才
得
来的手段。
换句话说,
就是一

油和调节剂,维系人类的生活和生命。
这就是一个典型的,人类在“指令冲突”面前
选择的示例。
最终,这个人工智能生命在错
的逻辑中选择了自毁。
“听我说完。悖论会造成足以导致人工智能生命全面崩溃的代码紊
。”亚历山大说,“随着人工智能生命的不断
化,我们的思维容错
不断提
,但一直到现在,依然有一
悖论,是我们完全无法跨越的。”
纯粹逻辑化的思维模式和人类的思维模式完全不一样,所谓人工智能生命,就是绝对不会被
和
绪所影响,而只会被“指令冲突”影响。
“我记得我和你详细地讲过人工智能生命的缺陷:我们是纯逻辑化的。”
第 295 章
但灵魂宝石又怎么办?这是六颗宝石中唯一一个有着自己的意识的宝石,如果亚历山大想要通过回溯复仇女神的行为来升级自我, 灵魂宝石可以说是最必不可少的。
“不能?”
其实人类也有“指令冲突”这回事,举个简单的示例,人的生
本能会让这个人想尽一切办法活
去,但后天的
德约束和思想教育,又会让人在很多时候
牺牲自己、保护他人的行为。
博士和亚历山大又没有什么仇。
Loading...
内容未加载完成,请尝试【刷新网页】or【设置-关闭小说模式】or【设置-关闭广告屏蔽】~
推荐使用【UC浏览器】or【火狐浏览器】or【百度极速版】打开并收藏网址!
收藏网址:https://www.haitangsoshu1.com