直到2044年,人类世界所谓的人工智能,都是以2006年多伦多大学杰夫辛顿教授奠基的“深度学习”算法思想演化出来的。
这是严肃、真实的世界。
不是傻哔网络小说卖弄的无厘头黑科技。
而只要是基于深度学习这条技术路线发展出来的人工智能,在根子上都有一个无法回避的弱点,那就是只能解决单一目标问题——注意,这里说的是单一目标,而不是单一任务。
让机器人处理多个任务,这是可以的。
但要在执行一个任务时,设定多个目标,或者说多个价值观,那是绝对不可能的。
只要人工智能还是在深度学习的基石上往下发展,而没有彻底从根子上另起炉灶,找到一条全新的技术路线,那么这个问题就是无解。
比如2016年的阿尔法狗,当年轰动一时,连屁人工智能都不懂的小白,也能扯几句,觉得似乎人工智能统治人类就在眼前了。
但是,稍微有点常识的人都知道,阿尔法狗最大的弱点在于,人类只能给它下一个终极目标:那就是把围棋下赢。
围绕这个终极目标,阿尔法狗可以学习百万千万上亿盘棋,而且学习速度快到它一夜之间的进步量,就能超过人类棋手不吃不喝不睡连续苦下三千年。从而最终达到世界第一(当然后面还有更多改进版智能)
但是,人类不可能做到,同时让阿尔法狗兼顾“把棋下赢”和“把棋下得漂亮”或者说“把棋下得有艺术感、戏剧性”。
这是一切基于深度学习的人工智能,无论发展多少年都做不到的。
给他两个“学习”和“努力”的方向,只会导致人工智能逻辑混乱,最后自己烧掉。
所以,即使人工智能出现后,纯粹只有“努力”这种品质的人类,很快像垃圾一样被淘汰掉。
但剩下的人类,依然有存在价值——他们的价值,就在于他们有不同的价值观,他们做每一件事情时,需要在多个价值之间权衡取舍。
就像人类政治家,永远不能说“我可以为了自由不惜一切代价,哪怕彻底牺牲掉秩序和公平、正义”,也永远不能反过来说“我可以为了秩序,彻底牺牲一切自由、公平”。
即使牛克.蒙扎克已经把整个美国的人民脑后都插上了人格芯片,他依然不敢说“为了秩序这个价值,我可以彻底消灭自由这个价值”。
这就是人和人工智能最后的区别,也是人类最后的优越性。