从“相关论文”到“支持证据”:我们最近优化了什么

找论文并不难,难的是找到真正支持一句话的论文。

这正是很多文献工具最容易失真的地方。一篇论文可能主题相关,可能包含相似医学术语,也可能来自同一个研究方向,但它并不一定真的支撑用户原本那句话。对研究者、学生和学术写作者来说,这会带来很重的人工判断成本:输入一句话,得到一批结果,然后还要自己逐篇判断到底哪些能用。

我们最近这一轮优化,重点就在缩短这段判断链路。

真正的问题不是“能不能找到论文”

在反查文献场景里,用户通常不是想拿到一个泛泛的阅读列表,而是在问更具体的问题:

  • 哪些论文支持这句话?
  • 哪些只能部分支持?
  • 哪些结果其实并不支持,甚至方向相反?

这意味着,“相关性”本身是不够的。我们需要更接近“证据”。

长句和复杂 claim 的处理更稳定了

很多用户输入的不是几个关键词,而是正在写的真实句子,甚至一整段文字。里面往往同时包含多个子观点。

这一轮我们增强了长输入的处理方式,让复杂表达能够以更合理的句子单元被检查。这样做的好处是,后半句、第二个 claim、补充性的流行病学描述,不再那么容易被整体 query 稀释掉。

更直接地说,长句不那么容易变成一个过宽、过散的检索请求了。

中文输入的理解能力更强了

另一个非常重要的场景,是用户用中文表达观点,但需要找到英文生物医学文献。

这件事并不等于“翻译一下”就行。科学表达里,字面翻译很容易偏,过宽泛的改写又可能背离原意。

所以这一轮我们增强了中文 claim 的理解与匹配,希望系统尽量还原用户真正想表达的 scientific claim,而不是只做表层词汇匹配。

证据召回覆盖更广了

我们在测试中反复看到一个现象:前几条结果不够好,并不等于数据库里没有支持文献。

很多时候,支持性更强的论文其实存在,只是没有排到足够靠前的位置。因此,这一轮我们扩大了候选证据的召回覆盖,让系统在排序之前,先更充分地把可能有价值的结果找出来。

这能提高用户看到真正可用证据的概率,而不是只看到一批泛泛相关结果。

排序更偏向“支持”,不只是“相关”

一篇论文不应该只因为和 query 共享几个医学术语,就排到前面。

更重要的是,这篇论文是否更可能:

  • 直接支持这句话
  • 部分支持这句话
  • 反对这句话
  • 或至少在实质上回应这句话

这是一个非常关键的体验变化。用户真正需要的,不是“主题差不多”的论文列表,而是一个能减少判断工作量的证据列表。

现在支持按证据类型筛选

这一轮我们还补上了一个很实用的能力:结果支持按证据类型筛选,包括:

  • 支持
  • 部分支持
  • 反对
  • 存疑

这让结果页更适合真实使用场景。

比如:

  • 如果你想给一句话补参考文献,可以先看“支持”
  • 如果你想审查一句话是否站得住,可以优先看“反对”和“存疑”
  • 如果文献结论并不完全一致,“部分支持”就很有价值

这些优化会带来什么效果

综合来看,这一轮优化不是简单地“搜得更多”,而是更努力地把结果推向“真正可用”。

用户现在更可能感受到:

  • 长句处理更稳定
  • 中文输入下的英文文献匹配更自然
  • 候选证据覆盖更广
  • 前排结果里“看起来相关但其实不支撑”的比例更低
  • 找到可直接阅读和引用的论文更快
  • 通过证据类型筛选更容易聚焦真正关心的结果

我们的目标很简单:尽量缩短“用户写下一句话”到“看到可判断证据”之间的距离。

这也是我们会继续优化的方向。

LitSource 团队

LitSource 团队