分享到: | 更多 |
3月12日,美国总统奥巴马就苹果公司与联邦调查局(FBI)之间的恐嫌手机解锁争议罕见地发表看法。奥巴马指出,“如果我们的科技可以制造出完全无法进入的装置,没有钥匙也没有后门,那我们怎么去逮捕儿童色情图片的罪犯?怎么去破解恐怖分子的阴谋?”
奥巴马的谈话首先提出了一个问题,科研和科技成果的应用是否有禁区。奥巴马对此进行的是假设,如果我们的科技可以制造出完全无法进入的装置。这个假设还可以更多和更严重一些,假如我们的科技可以制造出不受人控制,并且可以杀人和毁灭生态的装置或武器,该如何办?
这一点科学界早就有回答,任何科研和成果的应用,都必须符合人类社会的伦理。这个伦理最基本的核心是珍重生命,不得伤害生命。不得以满足个人或少部分人的利益而伤害大多数人的生命和利益。
站在人的立场上看,无论是今天的阿尔法狗,还是未来的其他人工智能和机器人等,都不得损害人的利益和生命。阿西莫夫的机器人三原则早就有约定:1.机器人不得伤害人类,或看到人类受到伤害而袖手旁观;2.在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;3.在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。
不过,这是就人们可以预料到的科研过程和科技产品可能对人造成伤害而做出的提前设防。但是,更多的科技产品是人们无法预料其制造和尤其是使用过程中可能造成的对人的负面作用。在一些科研人员看来,科技无法有禁区,而且,即便科研成果的应用有问题并造成了对人的伤害,科学是可以通过自己的力量来纠偏的。
但是,即便是人类社会有最强大的自组织功能,也需要进行试错来纠偏和纠错,具有时间的延后性。在成果和产品的使用前进行预测固然最好,但更多的是在后来的使用过程中发现弊端并及时纠错,所以科研和科技成果的使用当然会有公认的禁区,即不得危害人。
显而易见,要到科技产品出现了问题才解决的话,就已经迟了。这也是奥巴马提出的难题,如果科技可以制造出完全无法进入的装置,怎么去破解恐怖分子的阴谋?因此,科技的第一个禁忌就是,不能制造完全无法进入的装置,不能造出人类无法控制的智能技术。但是,这一点已经有可能人们说了不算,谁也无法预测一种人工智能装置制造出来后,如果其有自我学习和进化的功能,人类是否还能控制它。
不过,对于手机的解锁问题,还不在失控的范畴,因为解锁的技术由苹果公司掌握着。奥巴马认为,对于恐怖嫌犯,政府执法人员在取得搜索令之后,可以搜索其房间,对手机却无可奈何。更多人担心的是,如果政府执法人员取得了许可,就可以肆意侵犯每一个人的隐私,并且可以威胁和危害每一个人的安全。
尽管奥巴马认为执法人员可以解锁手机,但并非仅仅是执法人员获得了搜索令之后就可以强迫设计者和厂商解锁,而是要论证,这种解锁是否有更多的正当理由。科研人员和厂商设计、研发和生产科技产品的自由正如人的言论自由一样,应当最大程度地不受限制。但是,相应地,也应当类比人的言论自由的边界,即言论自由是否构成危险。
美国的最高法院对言论自由早就有定义,只有当一种言论所宣传的暴力已经构成了“清楚与现实的危险”,并且这种危险已到了迫在眉睫的地步,政府才有权干预。比照这一点,也只是恐怖分子的手机信息构成了“清楚与现实的危险”,并且这种危险已到了迫在眉睫的地步,执法人员才有权干预——解禁信息或禁止使用这种科技和成果。
互联网新闻信息服务许可证 (10120170038)| 信息网络传播视听节目许可证(0111630)| 京ICP备11015995号-1| 联系我们:zgw@workercn.cn
广播电视节目制作经营许可证(广媒)字第185号| 违法和不良信息举报| 网络敲诈和有偿删帖举报电话:010-84151598
Copyright 2008-2022 by www.auribault.com. all rights reserved
中工网微信
中工网微博
中工网抖音
工人日报
客户端
×