问题背景
近期,有用户发现DeepSeek在回答学术问题时,会引用一些看似权威但实际并不存在的文献。这些文献通常包含真实的作者姓名、期刊名称和DOI编号,但经过核查却无法在任何学术数据库中找到。
这种现象并非DeepSeek独有,而是大型语言模型普遍面临的挑战。当AI在生成内容时,可能会"幻觉"出看似合理但实际上错误的信息,特别是在需要精确引用的学术场景中。
为什么会出现"不存在的文献"?
DeepSeek等AI模型在训练过程中学习了海量的文本数据,包括学术论文、书籍和网页内容。当被要求引用文献时,模型会根据其学习到的模式生成看似合理的引用格式。
然而,这种生成过程并不等同于事实核查。模型可能将多个真实文献的信息混合,或者根据上下文"创造"出符合语境但实际不存在的参考文献,这就是所谓的"AI幻觉"。
重要提示:AI生成的文献引用必须经过人工核实,不能直接作为学术引用。
对学术研究的影响
这种现象对学术诚信构成了潜在威胁。如果研究人员不加核实地使用AI生成的参考文献,可能导致学术不端行为。
同时,这也提醒我们,AI目前更适合作为研究辅助工具,而非完全替代人类的学术判断。在使用AI进行文献检索或综述时,必须保持批判性思维。
如何应对这一问题?
对于用户而言,最佳实践是将AI生成的文献引用作为线索而非事实。可以通过学术搜索引擎(如Google Scholar、PubMed等)验证文献的真实性。
对于AI开发者,需要持续改进模型的事实准确性,引入外部知识验证机制,并在输出中明确标注信息的不确定性。