首页 > 快讯 AGI通用人工智能几年内就会实现?三位科技大佬给出判断
AGI通用人工智能几年内就会实现?三位科技大佬给出判断
2011年时谷歌DeepMind联合创始人ShaneLegg曾预言,2028年之前AI有50%的概率可能会变得和人一样聪明。最近ShaneLegg接受采访,他强调自己的观点未变,依然认为研究人员有50%的概率实现通用人工智能(AGI,又叫强人工智能)。
现在科技产业对AI的兴趣越来越大,人类实现AGI似乎真的有了一些希望。2011年ShaneLegg能有这样的判断让人惊讶,OpenAICEOSamAltman也在鼓吹AGI。虽然有众多大佬捧场,但人类到底离AGI还有多远?真的能在未来一段时间实现吗?
DeepMind联合创始人ShaneLegg:2028年前有50%概率会实现AGI
1999年时谷歌AI专家RayKurzweil曾出版一本名为《精神机器时代》(TheAgeofSpiritualMachines)的书,他在书中介绍了“超人AI”的未来,ShaneLegg明显受到了这本书的影响。
ShaneLegg说:“书中有两个很重要的观点值得关注,我渐渐相信它是真的。第一个观点,在未来至少几十年里,计算力会呈现出指数级增长的态势。第二个观点,在未来几十年里,全球数据量将会呈现指数级增长态势。”
2011年时深度学习技术已经出现,渐渐流行起来,ShaneLegg认为,将这些新技术与计算力、数据量结合,AGI有可能会变成现实,在本个十年末人类有50%的概率实现AGI。不过这有一个提前:不要出现核战一样疯狂的变故!
十多年后的今天ShaneLegg再次强调,AGI会在本个十年末出现,但出现有几个必要前提。
第一个前提,AGI的定义依赖于人类智力定律,人类智力是相当复杂的,难以准确测量。
ShaneLegg认为,人类到底能做什么?至今我们仍然无法完全确知。人类可以回忆过去发生的事,可以理解视频,如果研究人员能对人类智力进行一系列测试,让AI模型击败人类,那我们就可以说AI达到了AGI的水平。
目前AI有没有在单项测试中达到AGI的水平呢?ShaneLegg认为还没有。他说:“现在AI还没有做到,因为这是通用人工智能,所以AI应该做许多不同的事情,而且不能与人有太大差距。”
第二个前提,AI训练模型应该具有扩展能力。ShaneLegg解释称:“开发算法,让它具有更强的扩展能力,这样的算法收益很高。我认为,行业很可能会着手研究可扩展AI算法。”
ShaneLegg还说,只有拥有强大的计算力才有可能实现AGI。第一步就是用庞大的数据训练AI模型,这种数量是人一生都体验不了的。ShaneLegg认为,这一步人类应该已经做到了。
软银创始人孙正义:20年内将会诞生超人工智能ASI
软银创始人孙正义也持相同看法,他认为,在未来20年内将会诞生超人工智能(ArtificialSuperIntelligence,ASI),AI可以自己发展出思考技能。
孙正义坚信,无论是国家还是个人,如果不能拥抱AI就会落后。他还说,使用AGI和不使用,彼此之间的差距会像人的智力的猴子的智力一样大。孙正义甚至夸张地说,不使用ChatGPT就像拒绝使用电力一样。
他认为,90年代时日本没有拥抱数字技术,最终没有一家日本企业进入世界前十位。如果现在的企业不拥抱AI,十年之后也会面临相同的下场。通过商品制造成为领导者的时代已经过去很久,专注于互联网的大型科技企业也会成为过去。
按照孙正义的预测:“未来AGI将会覆盖所有行业,包括投靠、金融、物流,所有产业。重视的企业将会在十年内成为领导者,新世界将会以AGI作为中心。”他说,在未来,无人驾驶将会变得极为安全,供应链与需求完美匹配,数字客服将会变得极为聪明,靶向基因治疗将会流行。
OpenAI联合创始人IlyaSutskever:AGI很快就会实现
OpenAI联合创始人、首席科学家IlyaSutskever也谈到了AGI。当初OpenAI还很弱小时IlyaSutskever就曾警告说,OpenAI开发的AI技术将会改变世界。
他曾在纪录片中谈到:“AI很好,因为AI可以解决我们遇到的所有问题。它能解决就业问题,疾病问题,贫困问题,但也会创造新的问题。”
在纪录片中,IlyaSutskever预测AGI很快就会实现。他说AI是可以做任何工作、执行任何任务的计算机系统,这些原本由人来做,但AI做得比人还要好。
人类会如何对待AGI?IlyaSutskever用动物来类比,我们对动物并不友善,不是因为我们不爱动物,是因为漠视动物对人类来说更方便。
“我们并不讨厌动物,但是当我们准备在两座城市之间修一条高速公路时,不会去征询动物的意见,我们只管修,因为公路对我们来说很重要。”IlyaSutskever类比道,“人类和AGI的关系会像人类和动物的关系一样。AGI会是真正自主的,它们按自己的方式运行。”
IlyaSutskever的观点相当可怕,人类必须让AGI变得正确,否则会存在很大风险。他说:“如果人类没有这样做,自然进化、自然选择会偏爱AGI系统,AGI会将自己的幸存放在第一位。”
责任编辑:
文章来源:http://www.anfangnews.com/2023/1107/9773.shtml