
探究语言学习的神秘面纱一直是人类研究的热门话题。看似婴儿在短时间内就能轻松掌握一门语言,这一看似简单的现象背后隐藏着复杂的机制。语言学家已经对此给出了详尽的理论解释。随着机器学习的快速发展,特别是语言模型的崛起,这一领域再次焕发出新的活力,但也面临着新的挑战。计算机科学家在构建能理解人类语言的机器时,并未完全依赖语言学的既有成果,而是另辟蹊径,创造了像ChatGPT一样的聊天机器人。这些语言模型究竟是否真正在学习语言呢?
纽约大学的计算语言学家塔尔林岑表示,即使这些模型的行为看似与人类相似,其背后的原理可能截然不同。关于语言模型是否真的在学习的问题,不仅是表面定义的问题。如果语言模型确实在学习语言,研究者可能需要新的理论来解释其学习机制。但如果这些模型只是模仿学习语言的行为,那么机器学习对语言学研究的启示就可能有限。对于这一问题,人们仍持有不同观点。
权威人士诺姆乔姆斯基对语言模型持明确观点。他在一篇犀利的评论文章中提到,语言模型与语言学关系不大,因为它们展现出过于强大的学习能力。他甚至认为,这些模型还能学会那些不遵循现有语言规则的语言,即所谓的“不可能语言”。对此观点,最新研究进行了实证检验。研究者创造了一种语言模型并让它学习12种“不可能语言”。结果显示,这些语言模型在学习“不可能语言”时遇到困难,尤其是在学习词语顺序完全打乱的语言时表现挣扎。这一研究对于理解婴儿的语言学习过程具有重要启示作用。
回顾历史,在20世纪上半叶,语言学家主要致力于记录世界各地的语言。到了20世纪50年代末,乔姆斯基开创了新的研究路径。他借鉴理论计算机科学和数理逻辑的思想,探索所有语言的普遍结构。他认为人类大脑天生具有处理语言的能力这一观点为理解语言学中的许多谜团提供了线索。随着机器学习的兴起,基于网络的数学结构的语言模型取得突破性进展。这些模型通过调整连接权重来预测句子的下一个词,为理解语言学习过程提供了新的研究样本。虽然这些模型在某些方面与人类不同,例如需要庞大的词量进行训练,但它们使我们能够更深入地研究语言学习过程。
最新的研究由计算语言学家伊莎贝尔帕帕迪米特利奥领导的小组完成。他们发现即使是训练过的语言模型在面临极端情况时也会感到困惑。这表明强大的语言模型可能面临某些挑战。对于如何处理更接近真实语言的复杂结构的问题仍存在争议。为解答这一问题,研究者设计了不同的实验来检验各种网络的语言学习能力差异以及应对复杂结构的效率与表现对比的研究方案。这个领域的研究前景广阔,值得持续关注。除了科学家的理论探讨外,这个研究领域也对普通大众具有吸引力。在我们的日常生活中有许多与此相关的有趣问题等待我们去探索和研究。这个领域的持续发展和突破将为我们揭示更多关于人类大脑处理复杂任务机制的奥秘。《科技日报》对此进行了报道并指出这一领域的重要性和发展前景。(XXXX年XX月XX日)源自光明网《科技日报》。
