霍金再抛人工智能威胁论:人脑和电脑没区别
物理、天文学家霍金近年来不时有惊人言论,比如人工智能威胁论、地球将在1000年内毁灭论等等。
今天,以“视频”形式出现在2017年GMIC大会上的霍金,在回答GMIC创始人文厨提出的一些问题时,再次重复了“人工智能威胁论”。
霍金说,我认为近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。
对于如何约束互联网巨头拥有的巨量数据,不用这些数据窥探用户隐私或换取暴利。
霍金认为,许多公司仅将这些数据用于统计分析,但任何涉及到私人信息的使用都应该被禁止。会有助于隐私保护的是,如果互联网上所有的信息,均通过基于量子技术加密,这样互联网公司在一定时间内便无法破解。但安全服务会反对这个做法。
采访过程中,对于文厨提出的“推荐三本书,让科技届的朋友们更好的理解科学及科学的未来”的问题,霍金说,他们应该去写书而不是读书。只有当一个人关于某件事能写出一本书,才代表他完全理解了这件事。
霍金认为下一次变革由人工智能和量子计算驱动。霍金说,科技已经成为我们生活中重要的一部分,但未来几十年里,它会逐渐渗透到社会的每一个方面,为我们提供智能地支持和建议,在医疗、工作、教育和科技等众多领域。但是我们必须要确保是我们来掌控人工智能,而非它(掌控)我们。
作为杰出的科学家,霍金在人工智能方面多次发声,直言不讳的表达人工智能威胁论。
近日在接受《泰晤士报》采访时,霍金再度表达了这一担忧。“我不认为人工智能的进步一定会是良性的。一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否会与我们的一致。人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施。”
霍金认为,人工智能进一步发展便可能会通过核战争或生物战争摧毁人类,人类需要利用逻辑和理性去控制未来可能出现的威胁。
另外,此前在英国《卫报》的一篇专栏中,霍金曾表示:“工厂的自动化已经让许多传统制造业工人失业了,而人工智能的崛起会将失业范围扩大到社会上的中产阶级。未来,留给人类的只有护理、创新和监督等少数岗位了。”
未来面前,你我还都是孩子,还不去下载虎嗅App猛嗅创新!
相关阅读
- 04-05
- 04-05
- 04-05
- 04-05
- 04-13
- 04-14
- 04-17
- 04-18
- 04-20
- 04-23
- 04-24
- 04-25
- 04-27
-
今日必看
- 精彩话题