ChatGPT怎么“考虑”——科学家竞相破解大型语言模型背后的谜团|科技创新世界潮

时间:2024-05-18 13:36:46 推荐 800

图片来源:视觉中国

科技日报记者 刘霞

北京时刻5月14日凌晨,美国开放人工智能研究中心(OpenAI)发布了其下一代大型语言模型GPT-4o,人工智能(AI)领域再起硝烟。

虽然AI一词已很普及,但其内部运作方式仍像黑箱操作一样,是一个谜。因为AI依赖机器学习算法,而先进的机器学习算法使用模拟人脑结构的神经网络,信息在不同神经元间传递,以人类不易理解的方式内化数据,缺乏可视化和透明度。

那个咨询题对ChatGPT等大型语言模型(LLM)来讲尤其严重,部分缘故在于它们规模庞大,有些LLM拥有数千亿甚至上万亿个参数。

英国《自然》杂志网站在15日的报道中指出,为洞悉LLM的黑箱操作,科学家正对AI系统进行逆向工程。他们扫描LLM的“大脑”,以揭示它们在做什么、怎么做以及什么原因如此做等谜团。

谈话疗法

由于聊天机器人能够进行对话,一些研究人员就让模型自我解释,以了解其工作原理。这种办法类似于心理学中使用的“谈话疗法”。

德国斯图加特大学计算机科学家蒂洛·哈根德夫表示,人脑和LLM都像是一个“黑箱”,而心理学有能力研究它。

去年,哈根德夫发表了一篇对于“机器心理学”的文章。他认为,经过将LLM视为人类主体,让其参与对话,能够阐明其复杂行为。

面对复杂咨询题,人类在潜意识里会进行分步骤推理。受此启示,谷歌团队2022年引入了“思维链提示”,以描述一种让LLM展示其“思维”的办法。

简单来讲,思维链提示是一种特殊的上下文学习。不同于标准提示只给出输入—输出,思维链提示还会额外增加推理过程。

该办法在GPT-3等三个大型语言模型上都得到了验证:对照标准提示,新办法在一系列算术推理任务上的准确率都有了显著提高。但美国纽约大学研究人员的一项最新研究表明:LLM并没有利用思维链的推理能力,它不过偷偷加了计算。

美国东北大学计算机科学家戴维·鲍表示,虽然以研究人类的方式研究LLM有点奇怪,但两者的行为却以令人惊讶的方式重叠。在过去两年里,许多科学家将用于人类的咨询卷和实验应用于LLM,测量了其人格、推理、偏见、道德价值观、制造力、情绪、服从性等。结果显示,在许多事情下,机器能复制人类行为。但在有些事情下,它们的行为与人类行为不一样。例如,LLM比人类更容易受到暗示,其行为也会随着咨询题措辞的不同而发生巨大变化。

脑部扫描

一些科学家从神经科学领域汲取技巧,以此来探究LLM的内部工作原理。

为研究聊天机器人是怎么进行欺骗的,美国卡内基梅隆大学计算机专家安迪·邹及其合作者询咨询了LLM,并观察了它们神经元的激活事情。邹指出,这有点像对人类进行脑部神经成像扫描,也有点像使用测谎仪。

研究人员多次让LLM撒谎或讲实话,并测量了神经元活动模式的差异。然后,每当向模型提出一个新咨询题时,他们都能够观察其活动,并推断答案是否真实。在一个简单任务中,该办法的准确率超过90%。邹表示,此类系统能够实时检测出LLM不诚实行为。

鲍及其同事则开辟了扫描和编辑人工智能神经网络的办法,包括一种他们称之为因果追踪的技术,以确定AI“大脑”中以特定方式回答咨询题的部分。

鲍指出,人工神经网络的好处在于,能够在它们身上做神经科学家梦寐以求的实验,比如能够观察每一个神经元、运行数百万次网络、进行各种疯狂的测量和干预,且做这些都不必获得接受书。

打破不可解释性

邹和鲍等人提出LLM扫描技术采用自上而下的办法,将概念或事实归因于潜在的神经表征。还有一些科学家则使用自下而上的办法,即观察神经元并询咨询它们代表什么。

神经元的不可解释性,一直是AI领域的“大哥难”咨询题。2023年,来自Anthropic公司的一个团队提出了一种办法,成功将512个神经元分解成了4096个可解释特征,从而让其具有了可解释性。

研究人员表示,他们这一办法很有可能克服AI不可解释性这一巨大障碍。一旦人类了解LLM工作原理,就能很容易地推断其是否安全,从而决定它是否应该被社会和企业采用。

只是,邹表示,虽然这种办法很有价值,但不太适合解释更复杂的AI行为。

虽然研究人员仍在努力弄清晰AI怎么工作,但人们越来越达成一致意见:AI公司应该努力为其模型提供解释,政府也应该制定相关法规来执行这一点。

来源:中国科技网