中外青年热议生成式AI的局限|青年科技π

时间:2023-05-04 14:33:50 推荐 347

科技日报实习记者 林雨晨

近日,国家网信办发布了《生成式人工智能(AI)服务治理方法(征求意见稿)》,针对面向中国境内公众提供服务的生成式人工智能产品,包括其研发及服务,向社会公开征求治理意见。

生成式AI正是当前以ChatGPT等智能聊天机器人为代表的技术。自去年11月ChatGPT发布以来,其展示的与人类高度相似的对话能力引发全球关注。但是,在人们乐此不疲地实验和讨论ChatGPT的强大功能,并由此感叹其是否可能取代人类劳动时,人们是否考虑过AI生成内容的可靠性?

亦真亦假的“AI幻觉”

美国OpenAI公司发布ChatGPT时声明,由于所使用的训练数据及训练办法的缘故,ChatGPT有时会写出听起来很有道理但不正确或毫无意义的回答。

对此,南京大学AI学院越南籍副教授阮锦绣提到了“AI幻觉”的概念:“目前最突出的咨询题之一,是我们很难操纵ChatGPT的输出,它不能被彻底信任。AI提供的答案可能听起来很正确,很流畅,但实际上是不正确的。”

AI幻觉指的是AI的一种自信反应。当模型有“幻觉”(输出欺骗性数据的倾向)时,其使用的训练数据并不能证明输出的合理性。AI幻觉的一个惊险之处在于,模型的输出好像是正确的,而本质上是错误的。

“长此以往,这种微妙的错误信息可能会导致不少社会妨碍,比如改变对是非的看法。”阮锦绣表示。

AI应用前景特别广阔

虽然今天的AI存在诸多咨询题,但在应用领域,其仍具备巨大的进展潜力。

天津大学生物工程教授刘秀云表示,该校早在2018年就差不多开设了我国第一个智能医学专业。5年之后,中国开设智能医学专业的院校数量差不多达到几十个。“我相信新专业的设立会推动AI技术的进展……在过去的几十年里,AI在医药领域获得了广泛的应用。有些人正在使用虚拟现实和增强现实技术来改善大夫和病人之间的沟通。AI也可用于药物研发,由此节省大量的资金成本。”

北京科技大学智能科学与技术学院巴基斯坦籍教师阿力夫表示,AI已融入日子的方方面面,如人脸识别、智能家居或语音助手等。AI是将来,因为现在那个专业以及这项技术是每个人都想了解的,每个人都想使用这项技术。

谈及AI在教育领域的应用,阮锦绣表示,人工智能可当成写作助手来使用,“我们或许没有方法彻底禁用ChatGPT,因为学生总会找到一些办法去访咨询它。我们能够此设计一些测试,让学生与ChatGPT就某些话题进行辩论。学生必须找出ChatGPT提供答案的错误之处。在如此的练习过程中,他们可培养批评性思维,质疑机器的回答是对依然错,学生们由此可意识到,不是所有看到的信息都值得相信。”

当前的AI难以取代人类

“人类对那个世界拥有大量的常识性知识,包括物体的物理属性、社会规范和文化背景知识,这对推理和决策至关重要,开辟可以积累并使用常识性知识的AI仍是一个重大挑战。”阿力夫讲,目前的AI系统可能是不透明的,了解它们怎么作出特定决定,或怎么诊断它们在推理过程中的错误十分困难。

浙江大学计算机辅助设计和计算机图像专业博士生李志男对此表达了类似观点,“我不相信ChatGPT是一场技术上的革命,或是自然语言处理领域的技术革命……不少技术和算法在此之前就已被发明和应用了,如各类语言模型、神经机器翻译和命名实体识别等。”

“ChatGPT的创新之处在于其大规模和效率。它采用了大规模的预训练语言模型并结合多类型技术和算法来达到比之前更好的效果。”李志男讲,他希望将来的人工智能有推理的能力,“我不明白它是否能达到那个水平,但这是一个令人激动的研究领域,它有可能完全改变我们日子。”

刘秀云则指出,在医药领域,使用AI取代人类的工作会引发一系列的伦理咨询题:比如,在医药领域,假如浮现了事故,谁应该承担责任?是AI依然大夫?另外,也存在数据安全咨询题,怎么确保AI保存并安全地使用数据?人们怎么使用AI技术提高医疗和诊断的准确性?这些基本上AI在医疗领域的应用中所面临的咨询题。

AI可能在不少领域比人类都强,但它永远不可能拥有像人类一样的文明。阿力夫表示,人类的情感系统有一些独特的东西,如想象力、同理心、善良、勇气和团队精神,这些比人类的知识和技能以及科学技术更加重要,这些是AI无法企及的。

来源:中国科技网