科学家已经确认,大型模型可以“理解”人类等
发布时间:2025-06-12 10:01
中国科学院自动化研究所的记者发现,该研究所和其他单位的研究人员在培训过程中学会了“理解”事物,这种理解方法几乎相同。这一发现为探索人工智能和建立人工智能系统的发展奠定了新的途径,该途径像未来的人一样“理解”世界。相关研究结果已在线发表在《自然机器智能》杂志上。人类的主要智能是真正的“理解”事物。当我们看到“狗”或“苹果”时,我们不仅确定它们的外观,例如大小,颜色,形状等,而且融化也是好处,他们可以给我们带来什么感觉以及文化重要性。全面理解这是我们理解的基础世界。随着诸如Chatgpt之类的大型模型的快速发展,科学家开始怀疑:他们能知道“了解”大量文字和图片的人之类的东西吗?传统人工智能研究的重点是对象识别的准确性,但很少讨论该模型是否真正“理解”事物的含义。 “目前,可以在猫和狗的图片之间区分人工智能,但是这种'身份'与对'人类'猫和狗的理解之间的重要差异仍然表达。”中国科学院的自动化研究所的论文和研究人员表示,他是Huiguang。在这项研究中,研究人员借鉴了理解人脑的原理并设计了一个聪明的实验:让大型模型与人一起玩不同的游戏。这些实验提供了来自1,854个常见项目的三个项目概念,并要求选择一个至少匹配的项目。通过检查研究人员首次绘制了大型模型的“思维地图” - “地图概念”。他介绍了Huiguang,总结了66个基本角度,这些角度代表了“人工智能”如何从大规模的实验数据中理解“事物,并给他们命名。学生发现,这些角度非常容易解释,并且非常与人类大脑的神经活动相一致,负责处理对象的处理。此外,在研究人们做出判断时,有一个有趣的发现,他们会看到什么样的外观,例如形状和颜色,他们还会想到他们的含义或目的,但是大型模型更多地依赖于他们所学的“文本标签”和他们所学的抽象概念。他说,这确实是在大型模型中建立的,这有点像人类。 [收费编辑:刘Hongqing]