生成式AI未能形成连贯的世界理解:麻省理工研究揭示模型局限性

近年来,生成式人工智能(AI)技术取得了显著进步,模型在语言理解和生成、代码编写等方面展现出令人印象深刻的能力。然而,一项由麻省理工学院进行的研究发现,这些模型在理解和生成现实世界的精确表示方面存在局限性。

研究人员发现,尽管模型能够在特定任务(如导航)中提供准确的结果,但它们并未形成对世界的连贯理解。以纽约市的导航为例,模型可以提供近乎完美的导航指引,但当面对封闭街道或绕行路线时,其表现会显著下降。进一步分析显示,模型隐式生成的城市地图包含大量不存在的街道,这些街道在网格间扭曲连接,跨越了相隔甚远的交叉口。

这项研究强调了在评估生成式AI模型的能力时,不仅要考虑其在特定任务中的表现,还要关注其是否形成了对世界的准确理解。这对于这些模型的实际应用具有重要意义,尤其是在需要模型理解和适应复杂环境变化的任务中。

研究结果表明,即使是在语言理解和生成方面表现出色的模型,也可能在科学发现和其他领域的探索中遇到挑战。因此,在将这些技术应用于新领域之前,判断它们是否形成了连贯的世界观至关重要。

该研究由麻省理工学院信息与决策系统实验室(LIDS)的主要研究者阿什·兰巴昌(Ashesh Rambachan)领导,相关论文已发表,题为《Evaluating the World Model Implicit in a Generative Model》。