霍金预言时间表
2050年 人类移民火星。
2100年 人类进入外太空,新人种出现。
2215年地球将面临毁灭。
2600年 地球变成炽热的“火球”。
益提高的科学技术暗示着如果我们向外星生命发射信号,那将很快地发现他们,这或将是一场革命性的重大发现,但包括霍金在内的一些科学家认为这将酿成一场灾难。史蒂芬·威廉·霍金,英国剑桥大学应用数学及理论物理学系教授,当代最重要的广义相对论和宇宙论家,是当今享有国际盛誉的伟人之一如果我们发射信号成功地被可能存在的外星人接收,将会发生什么呢?任何广播信号都可能使地球全面性地遭受摧毁,当技术较先进的外星人类发现地球的信号时很可能会向地球发起攻击。
表面上看,这听起来有点儿像低劣的科幻电影情节,但即使灾难的可能性非常低,我们为什么要去赌博冒险呢? 在过去3年里,国际太空航空学学会的SETI科学家一直争论的一个核心问题是是否需要宣布禁止向外星人传递发送任何广播信号,无论我们是否首先接收到他们的信号。事实上,禁止广播信号是不切实际的,显然已为时过晚。在过去60年里,我们通过电视信号、无线电和雷达传输装置已不经意间证实了地球生命的存在。
如果地球之外存在着智慧生命,他们应当能接收到地球的信号。地球曾经多次向外太空发送信息探测释放的放射线并不困难,在太空垂直距离上显着减少,但尽管最近的外星生命与地球保持1000光年,如果他们的天线接收技术比地球先进1-2世纪,仍能探测到地球释放出的信号。
日前在伦敦举行的2015年Zeitgeist大会上,著名科学家史蒂芬·霍金(Stephen Hawking)再次发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。
霍金宣称,现在不是担心谁控制人工智能的时候,而应该担心人工智能是否能被完全控制住。未来100年中,人类将面临比人类更聪明的人工智能的挑战。霍金此前也曾发出警告,他称人工智能可能终结人类。
霍金再发警告:机器人100年内将控制人类
霍金说:“在未来100年内,结合人工智能的计算机将会变得比人类更聪明。届时,我们需要确保计算机与我们的目标相一致。我们的未来取决于技术不断增强的力量和我们使用技术的智慧之间的赛跑。”
今年年初,霍金曾与特斯拉CEO伊隆·马斯克(Elon Musk)共同发表公开信,他们认为人工智能的发展应该受到控制。信中称,如果智能机器无法保障安全,人类可能陷入黑暗的未来。
信中警告科学家们警惕人工智能将抹杀人类。科学家们称:“我们已经达成共识,人工智能研究正取得很大进展,将对社会产生越来越大的影响。潜在好处十分巨大,因为文明提供的一切都是人类智慧的产物。但是当这种智慧放大到人工智能工具都可提供的程度,我们无法预测结果,疾病和贫苦的消除并非不可能。”
但科学家们也提出更严肃警告,人工智能研究必须避免潜在威胁。比如,从短期来看,人工智能可能导致数百万人失业。从长期来看,人工智能可能像科幻电影中一样,比人类更聪明时违反自己的程序设定。为此,必须确保人工智能系统按照人类的意图行事。
11月份,马斯克也提出警告,最少只需5年,智能机器可能就会带来极端危险。他认为,人工智能就像“召唤恶魔”。马斯克在麻省理工学院发表演讲时,将人工智能描述为人类“最大的生存威胁”。他说:“我认为我们对人工智能应该保持高度警惕。如果让我猜测人类生存的最大威胁,那可能就是人工智能。”