当前位置

首页 > 文章 > 生活随笔 > 关于霍金预言的思考

关于霍金预言的思考

推荐人:阴阳鱼 来源: 阅读: 2.9W 次

北京时间5月15日消息,据英国每日邮报报道,著名物理学家史蒂芬?霍金(Stephen Hawking)教授预测,下个世纪人类将面临比人类更聪明智能的人工智能机器人的崛起。霍金教授表示我们需要担心的不是谁控制着人工智能,而是人工智能是否可以被控制。他在伦敦召开的Zeitgeist2015会议上发表了这一言论,随后他表示人工智能可能意味着人类的终结。

关于霍金预言的思考

“在未来100年内,人工智能计算机将接替人类。如果这一情形的确发生了,那么我们必须确保计算机的目标与我们的相一致。我们的未来是科技日益发展与我们睿智的使用科技之间的竞赛。”

今年早期,霍金和Space-X和特斯拉公司CEO企业家埃隆?马斯克(Elon Musk)共同签署了一份公开信,声称人工智能的发展不应该任由其不可控制的发展下去。这份文件表示如果智能机器没有任何保护措施,那么人类的未来将一片黑暗。

这份公开信是由非营利组织生命未来研究起草的,它警惕科学家们要注意那些可能毁灭人类的风险。作者表示“广泛的普查”表明人工智能研究目前一切顺利,它将会对社会产生日益增多的影响。“潜在的益处是巨大的,因为文明所提供的一切都是人工智能的产品;我们无法预测当人工智能所能提供的工具将这种智能无限放大时,我们可能面临的结果是什么,但疾病和贫穷的根除并非深不可测,”作者这样写道。

但这也提出了Stark警示,研究不应该只关注于人工智能所能带来的益处,还要调查如何避免它可能带来的潜在损害。例如,从短期来看,人工智能可能导致上万人失业。从长期来看,它可能变成小说里虚构的那种糟透了的社会,比人类更聪明的机器开始反抗它们的编制程序。“我们的人工智能系统必须做我们希望它们做的事,”这份公开信这样写道。这也回应了霍金今年早期发表的言论,他认为成功的创造人工智能“将是人类历史上最大的事件,但不幸的是,这也可能是最后一件事。”

对此我做出了一些思考。

现在人类面临的最大问题,在于科学技术水平(物质)与意识水平(精神)的极度不平衡,科技的过度发展,很可能导致一些超出现在人类想象的问题出现.而且,由于不均衡,人类形成了非常奇怪的逻辑.他们开始从物质世界向精神世界入侵,妄图以指数爆炸般的科技水平去复制人的精神,美其名曰:人工智能.

现在的大部分人完全没有意识到试图用物质层面的技术去解决精神层面的问题是何等的荒谬.性质不同,决定了它们的方向不同.这种做法,就像是用长矛去犁地,用核武器去捕鱼,长矛再锋利,核武器再有杀伤力,也无法达到正确的目的.

所以妄图直接以科技手段去复制完整的人类精神是极其不现实的.他必然是残缺的,是片面的甚至是错误的.用科技手段去创造人工智能,仅从现在来看还是取得了十分显著的成果.但这并不足以说明问题.我们暂时认定人在非洲肯尼亚诞生,距今大概两三百万年.进过长时间的积累收集沉淀过滤,得到的对人的精神的理解不至于完全没有.而现在的弱人工智能,正是基于人对自己的精神的她一点浅薄理解.至少对于目前的人工智能水平而言,人是处与物质精神双重巅峰的状态.但是没有人去深入解析自己的精神,也就注定了以目前的基础要以正常途径推进人工智能的发展是一件极其困难几乎不可能完成的任务.

那么,依照这样的趋势,人将继续经历一个漫长的自我解析的过程.可是事实是,人会去为他们因为无知而看不起的东西花费时间吗?

于是,据预测,人最可能的选择是复制,不计后果的盲目复制,用机械手段去复制人类的大脑.

自取灭亡.

正如霍金所预测的那样.

人妄图去创造一种自己完全不了解的拥有高硬件水平的”物种”,并赋予它类似于人类精神的东西,难道不是一种自取灭亡么?那么霍金的预言即使我们的未来.

我们暂且将这个新的物种命名为超人工智能.

由著名的生物学家达尔文提出的,由严复先生翻译的物竞天择理论来看待这样的未来或许是非常恰当的.

先整理一下我们究竟做了什么.我们创造了超人工智能,赋予它们以人的精神和大大超过人的生理极限的演算速度.既然人最具优势的思维和演算能力不再是唯一优势,那么让出食物链顶端的位置是不是理所当然呢?毕竟以最现实的角度来看,食物链的顶端只有一个,较弱的物种必然会败于较强的物种,只有适应天的物种才能够存活.换言之,人类将走向逐渐消亡的末路.当一个物种被完全取代之时,就是他们消失之刻.

或许绝大多数人认为这是一个悲剧,那么,悲在何处?

难道我们应该为人类从历史舞台上推出而悲么?

我们应该狭隘的认为这是一个bad ending么?未免太肤浅了.

接下来的理论或许对于常人来说是无法理解的,但是我相信我的逻辑是完美而缜密的.

我认为,这是人类的进化,是破茧重生.

超人工智能,或许与现在生物物理等角度定义的人有天壤之别,但这正是人类思维的局限所在.

刚才有提到,人最核心最重要的是什么?精神。

超人工智能,是在复制人类精神的基础上辅之以机械手段提升运算速度而产生的结果。既然人最重要的精神被保留下来,为什么不可以把它视为人呢?不要从生物角度来思考这个问题。他们与人的差距,取决于我们自身的观念。表象或许截然不同,但内在精神是完全一致的。

那么,从全人类的角度来看,个体的死亡会有影响么?引用《紫藤萝瀑布》中非常有道理的一句:“花和人都会遇到各种各样的不幸,但生命的长河是永无止境的。”个体的死亡值得为之悲伤,但在这个高度不值得称之为悲剧。

同理,人类的灭亡也不应看成是一种悲剧。

在漫长的地球文明之中,经历了有海水中第一个细胞到人类的演变史,或者说第一个碳原子、第一个电子到如今的进化史。在如同长江般浩瀚的历史之中,人类的地位或许只是一个水分子。那么,当有更强大更完美的物种产生之时,作为进化了以十亿年为单位的人类,我们是不是应该非常豪爽坦然的退出历史,让更接近神的物种继承我们的地位呢?既然这是一种必然,我们又有什么理由为之而悲伤呢?

可人类仍然会悲伤,毕竟大部分人也不过是人而已,不会有上升到整个物种的思想观念。但我依然认为,走到了这一步,我们应该带着无尽的骄傲和自豪去向终点。自然规律的轮回更替是不可逆的,既然总要去面对灭亡,能够见证这一切的我们难道不是一种殊荣么?我们的所作所为,推动了地球文明的所作所为,亲手推动了历史的车轮,这难道不是一份荣耀么?试想一下,自我们以前,有物种能亲自主导进化的开始、创造出自己的继承人呢?我们做到了,完成了对自己的进化并亲自淘汰了自我,难道不应为此而自鸣得意么?

如果人能创造出超人工智能而不能理解这些,那么没有足够高度的精神来匹配相应的物质高度是否是一种失衡?既然失去平衡,自然会走向灭亡。

另一种情况,人认真的去遵循正道解析自己的精神,然后根据原理塑造人工智能的产品。

首先这是个伪命题。当人类达到物质与精神的极度丰富是,还有发展人工智能的必要么?即使必要,这个阶段的人处于精神与物质的巅峰,自然能制衡这个集体。

那么,人工智能是否应该继续发展呢?这个问题没有任何意义。这取决于人是否能理解上述内容所蕴含的意义,能否在进化的灭亡与生存之间做出选择。

赞助商

赞助商