人工智能(AI)技术一直是著名物理学家史蒂芬霍金(StephenHawking)关注的重点。继2015年9月抛出人工智能威胁论之后,近日霍金再次表达了他对人工智能技术的担忧。
霍金再发警告称人工智能可摧毁人类霍金再发警告是怎么回事?
本月8日,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。
霍金表示:
自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和理*去控制未来可能出现的威胁。
霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的世界政府来防范人工智能可能带来的威胁,但他同时认为世界政府本身也有问题,因为这样一个政府可能会施行暴政。