分享到: | 更多 |
英国理论物理学家斯蒂芬·霍金在接受英国广播公司(BBC)采访时说:“制造能够思考的机器无疑是对人类自身存在的巨大威胁,当人工智能发展完全,就将是人类的末日。”前段时间,韩国籍围棋世界冠军李世石在与机器人“阿尔法狗”的人机大战中败下阵来的消息,似乎给霍金的预言做了注脚。媒体上接连不断的关于机器人战士、机器人武器的报道,也让人不能不担忧:好端端的生活,甜蜜蜜的憧憬,真的就要被智能机器人颠覆吗?
霍金虽然有“爱因斯坦之后最杰出的理论物理学家”的美誉,但他在21岁时不幸患上了会使肌肉萎缩的卢伽雷氏症,从此被禁锢在轮椅上,只有三根手指和两只眼睛能够活动。残酷的病情还剥夺了霍金的说话声音,于是由英特尔公司领衔,研究出一种智能机器人,能够洞悉他的思维,为他说话提供单词,霍金得以重新开口说话。但他同时敏锐地认识到,人工智能发展到今天的水平,恐怕将来会赶上甚至超越人类的智慧。他担心人工智能“能够自行发展,并且以从未有过的速度重塑自我,而人类受限于缓慢的生物进化无法与之抗衡而终将被替代。”
霍金的预言和忧虑,对于爱看好莱坞大片的观众来说,或许并不新鲜。美国大片里常有勇猛的人类战士被机器人追杀的画面,那些机器人超级智能,无比强大,人类战士被追逐得精疲力竭,无处藏身。这些虽然都是科幻,但谁说科幻就不能变成现实呢?《西游记》里的孙悟空一斤斗十万八千里,变成了今天的飞机、火箭和各种航天器;老孙拔一毫毛吹一吹就能变成无数小猴子,“变”成了今天的试管婴儿技术;孙猴子的火眼金睛能识真假、辨妖怪,放到今天也是雕虫小技了,DNA的鉴定技术已经炉火纯青,直逼得当下那些风情万种的人,因为曾经的滥情,曾经的“潜规则”,一不小心便踏进“亲子鉴定门”。可见,技术的发达,对人类的极端自由倒是一种制约。
我想,霍金的预言会不会成真,机器人能不能“灭”了人类,不能只看机器人,还要看人类自身。因为人类过于贪婪,而过于贪婪就会使问题走向反面,如英国诗人乔叟所说,贪婪是一切罪恶之源。放眼世界,国与国之间要生存,就要竞争;要制衡,就要实力;要争霸,就要有绝招。所以需要科技的无尽发展,只有科技高度发达了,武器就好,军力就强,拳头就硬,腰杆就直……人类研制出了核武器,又担心人类自身会不会被这些家伙灭掉,核武器的命运尚难预料,现在又想出新花样,搞智能机器人,让它们携带高精尖武器,深入敌国,进行大规模的屠杀或者精确打击。据报道,2013年美国已有1.5万个机器人,有些战斗机器人即使在失去与指挥员的联系后,仍能单兵作战,其智慧、思维、精确、勇猛已不逊于实战部队。
可见,人类如果真的最后灭绝,那也不是因为机器人的无情,而是由于自身的贪婪。霍金对此也有预言。几年前他接受美国知识分子视频共享网站访谈时说,地球200年内会毁灭,而人类要想继续存活只有一条路:移民外星球。他说,人类已经步入越来越危险的时期,我们已经历了多次事关生死的事件。由于人类基因中携带的“自私、贪婪”的遗传密码,人类正在一点点掠夺地球资源,人类不能把所有的鸡蛋都放在一个篮子里,所以不能将赌注放在一个星球上。霍金“极端言论”引来一些中国科学家的质疑,被认为是“杞人忧天”。其实,“杞人忧天”这个典故,放在当下也不再是笑话了,那笼罩在人们头顶的浓厚雾霾,正如一口大大的黑锅,不但要掉下来压垮我们的头颅,还深深窒息了我们的心。
我希望霍金的预言不能成真,而不成真的前提是人类要完善自己,把控自己,节制自己 的贪婪和欲望,禁绝霸道和仇杀。这样,由人设计的机器人,也会秉承人的善意,多干好事,少干或不干坏事,人类才能太平无事,安然无忧。
马广志:文化产业要靠创意制胜2012-05-16 |
马广志:别让“创意经济”变了味2012-07-30 |
喻思娈:科学大家的谦卑2013-07-22 |
陈晓星:钱办不成,侦探也办不成2013-11-08 |
潘 跃:为残疾人撑起梦想的天空2013-12-03 |
喻思娈:科学家的自我否定2014-05-09 |
张田勘:机器人记者来了,记者会失业吗2015-02-04 |
张田勘:机器人杀人?你想多了2015-07-07 |
图灵会煮面条吗?2015-08-19 |
奥斯卡就是欠小李子一座奖杯2016-02-26 |
互联网新闻信息服务许可证 (10120170038)| 信息网络传播视听节目许可证(0111630)| 京ICP备11015995号-1| 联系我们:zgw@workercn.cn
广播电视节目制作经营许可证(广媒)字第185号| 违法和不良信息举报| 网络敲诈和有偿删帖举报电话:010-84151598
Copyright 2008-2022 by www.auribault.com. all rights reserved
中工网微信
中工网微博
中工网抖音
工人日报
客户端
×