科技 > 图灵奖得主杨立昆称 GPT线路依旧有局限 面临三大挑战

图灵奖得主杨立昆称 GPT线路依旧有局限 面临三大挑战

2023-06-10 16:34阅读(77)

图灵奖得主杨立昆在参加2023北京智能大会章发表演讲时,将自己对于语言大模型的看法以及之后的发展思路进行了讲述,杨立昆在会议中表示,像GPT这样的主流线路,

1
图灵奖得主杨立昆在参加2023北京智能大会章发表演讲时,将自己对于语言大模型的看法以及之后的发展思路进行了讲述,杨立昆在会议中表示,像GPT这样的主流线路,目前依旧存在着极大的局限,如果想要上AI就犹如人一样,可以对这个世界去进行学习,进行应对,以及进行规划的话,可以去阅读自己在一年之前所发表的论文。
杨丽坤在进行演讲时称,很多科学家在最近这几年来选择使用机器来自我进行监督学习,但是在进行监督学习时,有些系统会犯一些极其重要的错误,系统不会对当前所学的内容进行推理以及规划,只会快速的对当前的内容去进行反映,那么究竟该怎样让机器可以像人类和动物一样去了解这个世界的运转方式并为其预测付出行动的后果呢?
杨立坤在解答这一问题时也明确表明在未来的时间里,AI将会面临三大重要的挑战,而第1个就是究竟该怎样学习世界的各种表现以及究竟该怎样去进行预测,则是如何去对推理来进行学习?第3点则是如何将极其复杂的任务给转变成为简单的任务。
一年之前,杨立昆曾经发表过一篇专门研究人工智能的论文,这篇论文中,杨立坤不仅将自己对于未来人工智能研究走向的方向进行了预测之外,同时也提出了人工智能的核心则是世界的模型,只要世界模型可以让系统去使用,那么系统就可以转变成为一个场景而以,这个场景作为依据为其预测,最终的行动结果。
杨丽坤在和清华大学的教授智能首席科学施诸军进行交谈时,也被朱军问到人工智能的存在,对于人类是否起到威胁,对于这一问题,杨丽坤则明确表示,人类受到人工智能威胁的风险虽然存在,但是谨慎的去进行设计可以从根本上减轻这些威胁的产生,也可以抑制这些威胁的出现。
对于我国国人所怀疑的人工智能系统对人类是否是安全的这一问题,现在还没有办法作出回答,因为我们现在还没有设计出完整的超级智能系统,想要知道超级智能系统对人类的安全是否会产生威胁,除非你对超级系统有一个最基本的设计,否则你是没有办法来确定他是否安全的。