tp钱包官网|“ChatGPT热”之冷思考:小心!它可能在一本正经地胡说八道

时间:2023-02-11        来源: 未知

  编者按:

  短短几个月,ChatGPT在全球圈粉无数,其背后的原理和工作机制是什么?它会替代记者的工作吗?我们应该怎么看待ChatGPT的未来发展?光明网《创新改变中国》栏目专访中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,从人工智能视角探究ChatGPT。

  专家简介

  曹立宏,中国传媒大学脑科学与智能媒体研究院院长、博士生导师,中传学术委员会副主任,中国人工智能学会第八届理事会理事,第八届教育部科技委员会人工智能与区块链技术专委会委员,专注于类脑智能和计算的研究。

  

“ChatGPT使用感不错,但也有不足”

 

  光明网:您使用ChatGPT的感受如何?有哪些明显不足?

  曹立宏:相比过去的GPT3,感觉确实是有明显的提升,尤其是它对话的流畅性很好,说明现在语言生成模式方面做得不错了。对于普通的知识,比较大众化的或者比较浅显的专业知识,它能够提供,组织得也很不错。但对于比较专业性的问题,它就开始出问题了。

  ChatGPT使用了带人类反馈的强化学习,GPT3生成语言的能力就已经很强大了,再加上Chat(聊天)的方式,就比较火,某种意义上这也是商业推广很好的模式。目前ChatGPT似乎有个限制,内容更新不是很快。例如,你要问它中国最火的电视剧,它大概答不出叫《狂飙》。因为这涉及AI中的灾难性遗忘问题:怎么让它很快学会新东西,又不去干涉原来的东西,这是AI领域尚未完全解决的问题。

  另外,ChatGPT没有对概念的具身体验,这就是我们真正的common sense(常识),我们从小在生活环境里所积累的知识,例如重力等等。对一个东西我们不单看到,会听到,可能会摸到、闻到、吃到,是全方位的。如果你看到一个黑色的苹果,你敢吃吗?你肯定会犹豫,没准一摸你就知道那是个烂苹果。实际上我们人类的理解很多东西是具身理解的,在自然语言处理里的“理解”,仅仅依靠文本,是一种肤浅的理解。

 

图片由百度文心大模型 AI 生成

  关键词:《狂飙》,灾难性遗忘,常识,具身体验,文本

 

  光明网:作为一名记者,被ChatGPT替代的可能性有多高?

  曹立宏:我觉得你现在不用太担心,首先记者是个基于深度理解来提出问题的提问者。在深度理解这方面,ChatGPT目前还做不到。还有,它现在不碰情感系统。但作为记者,这两点都很重要。而且,记者需要快速学习,因为你希望知道受访者的性格等等方面,在采访过程当中,甚至你可以快速学习和了解到,这些都不是机器目前能够做得了的。

  

图片由百度文心大模型 AI 生成

  关键词:记者,深度理解,提问,情感,快速学习,性格

  

“ChatGPT更多还只是一个辅助工具”

 

  光明网:我看您在朋友圈里评论,“ChatGPT是穿了个AI的深度学习马甲”,“不要把ChatGPT看成AI就好”,“对科学来说大概率是很流畅地胡说八道”,如何理解这些观点?

  曹立宏:这几年自然语言处理领域确实有比较大的发展。很多学生就往这个方向偏,觉得这个方向好找工作。很多企业也确实需要这样的人,但作为我们做科研的人确实还是蛮担心的,不太乐观,因为它对专业的东西会胡说八道。所以如果是想要搞研究的人把ChatGPT当成导向式的东西的话,可能会引发很大的问题。所以我说它是“穿了个 AI的深度学习的马甲”,它本身并不像科学家或者专业的人具有很专业的思考和专业的知识。

  另一句“不要把它看成是AI就好”,因为AI的本源是想要模仿我们人类的智能。很明显ChatGPT它不是类似于人的智能,在某种意义上它超越了人,它知识面特别广,但是在深度上,它没办法像人一样深入思考。对于具有科学深度的知识和思考,它大概率是很流畅的,但常常是“很一本正经的胡说八道”。

 

图片由百度文心大模型 AI 生成

  关键词:自然语言处理,找工作,胡说八道,马甲,专业思考,AI,人类

 

  光明网:如果不把它看成AI,要把它看成什么呢?

  曹立宏:一个辅助工具,就好像最早的时候连计算器都没有,我们买菜买肉就心算,麻烦一点就拿个笔算,慢一点。后来有计算器了,就快了。现在ChatGPT也是特别快,它的自由度变高了,也就是说我可以随便问。以前你也可以用搜索引擎搜索很多东西,但基本以关键词搜索。现在可以用关键句来搜索。你可以让它帮你写一段,所以效率是高了。但是它的产出的内容是否有深度?这个我不看好。

  

图片由百度文心大模型 AI 生成

  关键词:辅助工具,计算器,自由,搜索引擎,关键句,效率,深度

  

“未来需警惕ChatGPT被滥用”

 

  光明网:怎么看ChatGPT的未来发展?

  曹立宏:我认为ChatGPT有两条发展路径。一还是所谓深度学习,它本质上采用的是人工神经元模型构建的深度学习神经网络及相关的称为反向传播学习算法。但这个模型本身偏离了生物大脑中的神经元模型和学习算法。所以连深度学习最为核心的科学家Geoffrey Hinton还在积极寻找更类似大脑的模型和算法。我们需要更好的模型和算法,可惜到现在也没有完全提出来。对ChatGPT来说,这相当于要动一个比较核心的手术。

  还有一条路径,是更多从大脑的角度去思考,例如在ChatGPT里它用到了一个最基本的技术,就是把例如苹果、梨等等概念量化,变成所谓的词向量,这种量化在大脑里看可能不完全是这样的。所以我们能不能有一个更类似于大脑记忆、量化、学习的方式,也有可能演变出更类似于人的ChatGPT。

  未来,它会是一个人们喜欢去用的工具,我也会用。目前的声音太过于正面了,如果缺乏对它极限能力判断的话,(ChatGPT)会被滥用,滥用带出来的问题就太大了。

  

图片由百度文心大模型 AI 生成

  关键词:深度学习,人工神经元模型,神经网络,反向传播学习算法,大脑,工具

  (光明网记者 林佳欣)

[ 责编:肖春芳 ]