科技创新世界潮丨“火爆”的ChatGPT尚没有“自主心智”——访人工智能专家、欧洲科学院院士金耀初教授
科技日报记者 李山
近日,围绕热门科技话题ChatGPT,科技日报记者专访了欧洲科学院院士、德国比勒菲尔德大学洪堡人工智能教席教授金耀初。金教授并且兼任英国萨里大学计算系“计算智能”说席教授、IEEE计算智能学会候任理事长,曾任《IEEE认知与发育系统汇刊》主编等职。
德国比勒菲尔德大学的金耀初教授长期从事计算智能、演化计算、机器学习、计算神经科学等交叉学科的理论研究和工程应用,目前已发表学术论文500余篇,论文被引用次数达37400余次,2019—2022年连续4年被WebofScience评为“全球高被引科学家”。照片由受访者提供
生成式模型的重大发展
谈到ChatGPT最核心的东西,金耀初表示,ChatGPT所代表的技术是第三波人工智能技术取得的一个重大发展。它基于生成式预训练Transformer模型,并成功应用了“自注意力机制”。与传统的判别式模型相比,生成式模型的最大特点是直截了当学习训练数据本身的特点,因而能更有效地学习大容量的样本,非常是海量的语言、视觉信息。
传统的语言处理模型普通只能依照字词的前后相邻词语来找它们之间的关系,于是有很大的局限性。Transformer引入了自注意力机制后,它就能很灵便地找出不单是某一个句子,而是不同句子,甚至是整篇文章或不同的文章之间词的相互关系,学习能力就增强了不少。
横空出世非一日之功
关于ChatGPT的横空出世,金耀初强调这仅仅是大众的感觉。从科研的角度看,ChatGPT也是一步一步演进而来的。依照OpenAI发表的论文,ChatGPT是花了很长时刻,用了各种学习办法不断训练和微调出来的。生成式模型给出的答案并不是人们事先给它的训练数据,而是模型生成出来的,所以很难保证百分之百正确。ChatGPT在训练过程中用到特别多的最新的学习技术。例如,无监督学习、有监督学习、多任务学习、小样本学习、自监督学习等。
此外,它还加入了基于人类反馈的强化学习,以获得与人类对齐、共情能力。经过人类评价,即给它生成的答案打分来选择一个最佳的答案。那个过程实际上是一个强化学习过程,也算是对原来的模型进行微调。其他AI模型可能没有像ChatGPT如此,用大量的人类反馈来使得模型能产生更加符合人类期待的回答,相应的体验就会有差距。
尚不具备自主的“心智”
金耀初谈到,作为一个从文本到文本的对话系统,ChatGPT最强的地点是对自然语言的充分学习,生成的文本更加“流畅”并符合人类体验,这是一个重大的技术创新。但值得注意的是,生成式机器学习模型有不少,比如从文本到语音信息,或者文本到图像信息,这些方面ChatGPT的表现可能就没那么好了。这是它的一个局限性。
另一方面,目前ChatGPT训练的数据截至2021年,没有训练过的东西,它是不可能准确回答出来的。换句话讲,目前的模型不具备制造新知识的能力。ChatGPT回答咨询题时用的是推理。它不是那种在数据库中搜索答案的概念。生成式模型是依照咨询题本身联想出一个答案。那个答案是模型“学习消化”后产生出来的东西,不是原始的数据。严格意义上来讲,模型本身甚至不明白那个答案的真正含义,它也不能保证答案确信是对的。
ChatGPT不是“万能”的
金耀初认为,ChatGPT离真正的专业应用还有一定的距离。现在大伙儿感受很新奇,都在尝试玩一玩。有的人甚至以为ChatGPT什么都能干,能够很快用在自动驾驶之类的不少应用上,这事实上是误解。自动驾驶的重点不是文本到文本的咨询题,纯粹的生成式模型是不够的。它需要其他判别式的机器学习模型,非常是实时场景的识别。
以现在热议的医疗服务为例,虽然ChatGPT在美国执业医师资格考试中取得不错的成绩,但真实事情下人们会用ChatGPT来代替医师进行诊疗吗?至少目前还不好,因为无法保证它的答案百分之百是正确的。有人讲ChatGPT有时会一本正经地胡讲八道,如此的描述是比较中肯的,人们不能忽视这种风险。
期待将来更多突破
金耀初表示,这一波人工智能可能可不能像第一波和第二波人工智能浪潮那样很快偃旗息鼓。它会接着进展下去,将来三五年,人工智能领域可能还会涌现一些令人吃惊的突破。不少基于ChatGPT的新的想法或技术或会涌现,并在此基础上找到真正好的细分领域的应用。
至于人工智能和机器人的结合,金耀初强调,从某种意义上来讲,这一直是人工智能研究的重点之一。现在ChatGPT与人对话这么流畅,假如把它与数字虚拟人技术结合起来,普通人可能很难分辨出计算机屏幕里回答咨询题的是真人依然一个数字人。固然,将来的进展过程中会涉及不少人工智能的本质咨询题,包括信任、责任、伦理、法律咨询题等。乐观地看,ChatGPT等人工智能应用的妨碍力急剧扩大,反过来会在一定程度上推动上述咨询题的解决。
来源:中国科技网