原文 / English
RAG is not broken, naive vector-only RAG fails at scale.
What's broken is the idea that meaning = vector similarity.
At scale, that collapses.
The future is neurosymbolic AI: • ontologies for structure • deterministic layers for truth • LLMs for interpretation (not computation)
That's how you eliminate retrieval-driven hallucinations.
译文 / 中文
RAG 本身没有问题,出问题的是「naive」——仅靠向量的纯语义检索 RAG 在规模化时会失效。
真正的问题在于「语义 = 向量相似度」这个假设。在规模化场景下,这个假设会崩塌。
未来属于神经符号 AI: • 本体论(Ontology)提供结构化知识表示 • 确定性层保障事实正确性 • LLM 负责人性化解释,而非直接做检索计算
这才是消除检索驱动幻觉的正确路径。