人类和超级人工智能的关系发展,多年来一直都是一个热门话题,前段时间,在《人工智能研究杂志》上,又有一个国外的科学家团队通过理论计算,提出了新的警告:认为人类想要控制超级人工智能,基本上是无法实现的,相反的,超级智能机器终将掌控一切。
人类和超级人工智能的关系发展,多年来一直都是一个热门话题,前段时间,在《人工智能研究杂志》上,又有一个国外的科学家团队通过理论计算,提出了新的警告:认为人类想要控制超级人工智能,基本上是无法实现的,相反的,超级智能机器终将掌控一切。
超级智能机器终将掌控一切?
伴随着人工智能的发展,如今人类的很多“饭碗”都已经被人工智能抢走了,当然,从目前来看,主要是以基础工作类的为主,不过,未来伴随着人工智能的不断优化,用不了多久,它们就要向着对于专业要求更高的工作进军了。
根据《日本经济新闻》上发表的一篇报道,日本科研人员正在进行同声传译类的人工智能研发工作,大约在2025年左右,同声传译类的工作,就要陆续由人工智能上岗了,而且它们不仅成本更低廉,同时翻译的精准度也更高,并且速度也更快。
显然,如今人类在很多领域和人工智能相比,都已经开始不占优势,这一点早在“阿尔法狗”战胜人类顶尖围棋手的时候,就已经被很多人担忧了。
而发展到如今,人工智能甚至可以自主学习,甚至如果有人为人工智能编写了一个由于人类的学习程序,那么,当这个人工智能联网的时候,它就可以通过互联网获取各种信息,然后用非常短的时间里,进行学习,甚至在线控制所有的机器。
更加可怕的是:这并不是危言耸听,因为既然人工智能如今在很多领域可以帮助人类,那么,未来在一些领域中,它们也极有可能去摧毁人类,甚至最终联合起来统治地球。
看起来好像是科幻小说是不是?不过,很多对于人工智能发展前景不看好的研究者都认为,这些看起来好像科幻片中才有的情节,如果人类大力发展人工智能,那么,未来有一天,这些真的都有可能会发生,而人类,那个时候想要挽回已经很晚了。
人类应该如何去做?
既然存在着这种担心,那么,自然人类也是应该想办法去遏制住未来局势的,说白了就是“未雨绸缪”,有研究者认为,只需要在人工智能的系统中,编辑一段禁止它们“反人类”,或者是紧实它们“摧毁世界”的程序就好了。
真的如此简单吗?相反的,一些研究者认为,这么做反而会加速人类世界被人工智能摧毁。通过目前的模拟计算,研究者发现,想要通过类似的方法来阻止人工智能,基本上是不可能的了,强制去给它们下命令,甚至有可能会适得其反。
因为在不知道这种遏制它们毁灭世界的算法究竟是否万无一失之前,盲目去进行尝试,相反更可能会激发它们的“觉醒”,所以,人类未来自保,只能去寻求新的方式,不过,这种新的方式究竟应该怎么做,目前没有人知道。
人工智能真的能统治世界吗?
现阶段来看,人类还没有必要去担心,因为研究者们目前担心的,是未来人类创造出的超级人工智能,什么是超级人工智能呢?说白了就是智商远超过人类。
从人类科技发展的角度来看,超级人工智能未来是极有可能出现的,但是目前人类的人工智能水平,却只处于最低级的“弱人工智能”阶段,什么是“弱人工智能”?就是你认为它很强大,但是它的一切能力都是人类赐予的,而且并不是全能的,只是人类的编程,让它在某一个领域“拔尖”。
就好像战胜人类顶尖围棋手的“阿尔法狗”,它在围棋的世界里“拔尖”,但是如果给它换成了其它的领域,也就啥也不是了。
这就好像是现阶段的人类,处于低级文明,人类想要发展,想要变成顶级文明,不过却并不是一蹴而就的,而是需要漫长的时间才可以,这个过程中,人类需要不断升级,不断完善、强化自己,最终才有机会成功。
人工智能也是如此,从“弱人工智能”发展到让人类担忧的,可能会对人类构成威胁的超级人工智能,还有漫长的路要走,而在这个过程中,人类也是有机会去阻止超级人工只能摧毁世界、操控一切的,所以,担心是多余的,放平常心就好,你觉得呢?