本文最后更新于 43 天前,如有失效请评论区留言。
最近知乎上有一个热门问题:「如何看待 2026 年国家自然科学基金改版?」作为深度参与了 LaTeX 模板开发的”技术博主”,看到这个问题时,我突然意识到——自己过去一年在 ChineseResearchLaTeX 项目中的探索,或许正好切中了这次改版的核心诉求。
2025 年 12 月 30 日,国家自然科学基金委员会正式启动基金项目申请书”瘦身提质”行动,对申请量最大的面上项目和青年科学基金项目(C类) 申请书提纲进行优化调整1。调整后的申请书正文统一为三大部分:立项依据、研究内容、研究基础,正文篇幅原则上不超过 30 页2。
这个项目从最初的一个简单 LaTeX 模板,逐步演化成今天的 AI 原生科研写作平台,其背后的技术路线和设计理念,或许能给大家带来一些启发。今天就想和大家分享一下,我在这个项目中实现的几个关键突破,以及它们如何呼应了基金委改革的某些方向。
💡 提示:视频已整理至 Bilibili 收藏夹 「nsfc-vibe」 。
用过传统 NSFC LaTeX 模板的小伙伴应该都有这种体验:下载一个 .zip 包,解压后得到一堆 .tex 和 .sty 文件,然后呢?然后就要靠自己一点点往里面填内容了。
文献调研要自己搜、自己读、自己整理;立项依据要自己构思、自己写作、自己修改;参考文献要自己一条条录入 BibTeX;样式对齐要反复编译、反复调整参数……整个流程下来,感觉像是拿到了一把”手术刀”,但还要自己学会”做手术”。
在 ChineseResearchLaTeX 项目中,我构建了一个由 多个专业 AI Skills 组成的完整标书写作流水线:
文献调研阶段
├── get-review-theme # 从任意输入提取综述主题
└── systematic-literature-review # AI 驱动的专家级综述生成
标书准备阶段
├── guide-updater # 基于综述优化项目指南
└── transfer_old_latex_to_new # 旧标书智能迁移
标书写作阶段
├── nsfc-justification-writer # 立项依据(理论创新导向)
├── nsfc-research-content-writer # 研究内容编排
├── nsfc-research-foundation-writer # 研究基础编排
└── nsfc-bib-manager # 引用与 Bib 管理
模板开发阶段
├── make_latex_model # 样式高保真对齐
└── complete_example # 智能示例生成
这不是简单的”工具集合”,而是一个可组合的技能生态。用户可以根据自己的需求,像搭积木一样选择需要的技能组合。比如:
get-review-theme → systematic-literature-reviewtransfer_old_latex_to_new → nsfc-justification-writer这种模块化设计,正好呼应了基金委改革中强调的”系统性思维”——不再是零散的知识点堆砌,而是有机的研究体系构建。
这是我在项目中最深刻的领悟之一。
很多申请书(包括我自己早期的尝试)容易陷入”工程导向”的陷阱——通篇在讲”我要开发一个高效算法”、”我要搭建一个一体化平台”、”我要实现高精度检测”。这些当然重要,但它们不是科学问题的核心。
真正的理论创新导向,应该聚焦在:现有理论框架在什么场景下存在因果缺失/表征不足/假设过强?你的假说如何在弱假设下证明某些性质?你的切入点是否建立了新的表征或方法学?
为了解决这个问题,我开发了 nsfc-justification-writer 技能,核心特性包括:
1. 四段闭环叙事结构
价值与必要性 → 现状与不足 → 科学问题/假说 → 切入点与贡献
2. AI 语义质量检查
3. 渐进式写作引导
coach --stage auto → AI 判断当前阶段(skeleton/draft/revise/polish/final)
→ 输出"本轮只做三件事 + 需要你补充的问题 + 可复制提示词"
这种设计,正是为了帮助研究者从”我要做什么技术”,转向”我要解决什么科学问题”。这与基金委改革中强调的”突出原始创新”不谋而合。
传统的文献调研流程大概是:设计检索词 → 在 PubMed/Web of Science 搜索 → 下载 PDF → 逐篇阅读 → 手工整理笔记 → 开始写作。这个过程不仅耗时,而且容易遗漏重要文献或纳入低质量研究。
我开发的 systematic-literature-review 技能,实现了端到端的 AI 驱动综述生成:
核心创新点
AI 自定检索词:根据主题特性自主规划查询变体(通常 5–15 组),无需用户手工设计检索策略
AI 语义评分 + 自动分组:逐篇阅读标题摘要,1–10 分相关性评分,子主题自动分组(非机械关键词匹配)
高分优先选文:按高分优先比例(60–80%)和目标数量选文,避免纳入低质量文献
字数预算生成:自动生成”综/述”字数预算(70% 引用段 + 30% 无引用段,三次采样取均值)
三档位支持:
Basic(基础级):3000–6000 字,30–60 篇文献(快速调研)
多语言支持:支持 en/zh/ja/de/fr/es 翻译与智能编译
技术亮点
papers 路径;Bib 自动转义 &、补充缺失字段\cite 与 bib 对齐这种 AI 驱动的文献调研方式,不仅大幅提升了效率,更重要的是通过”语义评分”而非”关键词匹配”,能够更准确地识别真正相关的高质量研究。
很多使用 LaTeX 模板的小伙伴都遇到过这种困境:官方给了 Word 模板,你要把它的样式”移植”到 LaTeX 中。但怎么判断对齐了呢?只能肉眼对比 PDF 和 Word,反复调整参数,反复编译……整个过程就像是在”盲人摸象”。
我开发的 make_latex_model 技能,实现了像素级的自动样式对齐:
核心创新
AI 规划模式(需要智能决策):是否需修改?生成具体修改方案?是否达标?
像素级 PDF 对比
每行字数对齐:换行位置必须与 Word 完全一致
HTML 可视化报告
加粗文本可视化(<b> 标签深蓝色显示)
LaTeX 自动修复建议
\section{} 和 \subsection{} 代码根据 Word 格式生成正确的 \textbf{} 标记
迭代优化闭环
workspace/{project}/baseline/、iterations/、reports/、cache/、backup/工作空间隔离
所有运行输出(备份、日志、分析结果)放在 skills/make_latex_model/workspace/{project}/ 目录中,完全不对用户项目目录造成污染。
这种像素级可控的优化闭环,让样式对齐从”艺术”变成了”工程”——可量化、可验证、可迭代。
在项目开发过程中,我始终坚持一个原则:AI 是增强,不是依赖。
核心思想:
示例(nsfc-justification-writer):
| 功能 | 是否需要 AI | Fallback 行为 |
|---|---|---|
| Tier1 诊断(结构/引用/字数/危险命令) | ❌ | N/A |
| 内容维度覆盖检查 | ✅ | 启发式关键词检测(兜底) |
| 吹牛式表述识别(语义) | ✅ | 不阻断;仅依赖 Tier1 高风险示例提示 |
| 术语一致性(语义) | ✅ | 仅输出硬编码矩阵 |
| AI 示例推荐(带理由) | ✅ | 关键词/类别启发式匹配 |
| AI 阶段判断 | ✅ | 硬编码阈值规则 |
| Tier2 深度诊断 | ✅ | 跳过(仅输出 Tier1) |
这种设计保证了即使 AI 不可用(网络问题、服务故障、API 配额耗尽),核心功能仍然能够正常运行。这在实际使用中非常重要——毕竟基金申请有严格的时间截止日期,任何技术故障都可能导致前功尽弃。
三层安全保护:
main.tex、@config.tex 绝对禁止修改)白名单模式匹配(只允许编辑符合正则表达式的文件)
用户内容保护
违规报告生成(详细的安全违规日志)
写入安全策略
security.validate_write_target()main.tex、@config.tex、.cls/.styextraTex/*.tex(非 @config.tex)这种多层防护机制,确保了即使 AI 生成的内容有问题,也不会破坏项目结构或丢失用户数据。
根据斯坦福大学发布的《2025 年 AI 指数报告》,AI 模型的技术性能正以超越摩尔定律的速度指数级进化——2024 年引入的新基准测试(MMMU、GPQA、SWE-bench)在一年内性能大幅提升4,编码任务在 SWE-bench 等基准测试中的通过率显著增长5。这意味着今天 AI 能完成的”格式对齐”、”文献整理”,明天就能协助”观点提炼”、”逻辑重构”,后天甚至可能参与”研究设计”、”假说生成”。基于这个判断,ChineseResearchLaTeX 项目的长期愿景是成为AI 原生科研写作的基础设施:随着 AI 模型能力的提升,项目中的技能会变得更加强大,不仅能扩展到各类科研基金申请书(博后基金、省部级项目、国际基金等),还能覆盖学位论文、期刊投稿、项目报告、学术综述等更广泛的领域,并逐步支持社区贡献自定义技能、学科预设、示例库等开放生态。
回望 ChineseResearchLaTeX 项目的演进历程,从最初的一个简单 LaTeX 模板,到今天的 AI 原生科研写作平台,这个项目经历了从”工具”到”平台”、从”静态”到”智能”、从”格式”到”内容”的范式转移。核心突破体现在五个层面:从”静态模板”到”智能技能生态系统”实现了标书写作全流程的 AI Skills 覆盖;从”格式检查”到”理论创新导向的写作教练”帮助研究者聚焦真正的科学问题;从”手工文献调研”到”AI 驱动的专家级综述生成”实现了端到端的智能化文献调研;从”样式对齐黑盒”到”像素级可控的优化闭环”让样式调整变得可量化、可验证、可迭代;而”脚本可复现 + AI 可选”的混合架构设计则提供了优雅降级保障。这些突破不仅在技术层面提升了标书写作的效率和质量,更在理念层面呼应了基金委改革的方向——从”堆砌工作量”转向”突出原始创新”,从”技术展示”转向”科学问题”,从”零散知识点”转向”系统性研究体系”。
当然,这个项目还有很长的路要走,AI 能力还在快速进化,科研写作的范式也在不断演变。但我相信,只要坚持”AI 是增强,不是依赖”的原则,保持”可复现、可验收、可回滚”的工程标准,这个项目就能真正成为科研工作者的得力助手。如果你对这个项目感兴趣,欢迎访问 GitHub 仓库或加入微信社区(300+ 成员)交流,让我们一起推动科研写作进入 Vibe Writing 时代!
---------------
完结,撒花!如果您点一下广告,可以养活苯苯😍😍😍
本文最后更新于 43 天前,如有失效请评论区留言。
最近知乎上有一个热门问题:「如何看待 2026 年国家自然科学基金改版?」作为深度参与了 LaTeX 模板开发的”技术博主”,看到这个问题时,我突然意识到——自己过去一年在 ChineseResearchLaTeX 项目中的探索,或许正好切中了这次改版的核心诉求。
2025 年 12 月 30 日,国家自然科学基金委员会正式启动基金项目申请书”瘦身提质”行动,对申请量最大的面上项目和青年科学基金项目(C类) 申请书提纲进行优化调整1。调整后的申请书正文统一为三大部分:立项依据、研究内容、研究基础,正文篇幅原则上不超过 30 页2。
这个项目从最初的一个简单 LaTeX 模板,逐步演化成今天的 AI 原生科研写作平台,其背后的技术路线和设计理念,或许能给大家带来一些启发。今天就想和大家分享一下,我在这个项目中实现的几个关键突破,以及它们如何呼应了基金委改革的某些方向。
💡 提示:视频已整理至 Bilibili 收藏夹 「nsfc-vibe」 。
用过传统 NSFC LaTeX 模板的小伙伴应该都有这种体验:下载一个 .zip 包,解压后得到一堆 .tex 和 .sty 文件,然后呢?然后就要靠自己一点点往里面填内容了。
文献调研要自己搜、自己读、自己整理;立项依据要自己构思、自己写作、自己修改;参考文献要自己一条条录入 BibTeX;样式对齐要反复编译、反复调整参数……整个流程下来,感觉像是拿到了一把”手术刀”,但还要自己学会”做手术”。
在 ChineseResearchLaTeX 项目中,我构建了一个由 多个专业 AI Skills 组成的完整标书写作流水线:
文献调研阶段
├── get-review-theme # 从任意输入提取综述主题
└── systematic-literature-review # AI 驱动的专家级综述生成
标书准备阶段
├── guide-updater # 基于综述优化项目指南
└── transfer_old_latex_to_new # 旧标书智能迁移
标书写作阶段
├── nsfc-justification-writer # 立项依据(理论创新导向)
├── nsfc-research-content-writer # 研究内容编排
├── nsfc-research-foundation-writer # 研究基础编排
└── nsfc-bib-manager # 引用与 Bib 管理
模板开发阶段
├── make_latex_model # 样式高保真对齐
└── complete_example # 智能示例生成
这不是简单的”工具集合”,而是一个可组合的技能生态。用户可以根据自己的需求,像搭积木一样选择需要的技能组合。比如:
get-review-theme → systematic-literature-reviewtransfer_old_latex_to_new → nsfc-justification-writer这种模块化设计,正好呼应了基金委改革中强调的”系统性思维”——不再是零散的知识点堆砌,而是有机的研究体系构建。
这是我在项目中最深刻的领悟之一。
很多申请书(包括我自己早期的尝试)容易陷入”工程导向”的陷阱——通篇在讲”我要开发一个高效算法”、”我要搭建一个一体化平台”、”我要实现高精度检测”。这些当然重要,但它们不是科学问题的核心。
真正的理论创新导向,应该聚焦在:现有理论框架在什么场景下存在因果缺失/表征不足/假设过强?你的假说如何在弱假设下证明某些性质?你的切入点是否建立了新的表征或方法学?
为了解决这个问题,我开发了 nsfc-justification-writer 技能,核心特性包括:
1. 四段闭环叙事结构
价值与必要性 → 现状与不足 → 科学问题/假说 → 切入点与贡献
2. AI 语义质量检查
3. 渐进式写作引导
coach --stage auto → AI 判断当前阶段(skeleton/draft/revise/polish/final)
→ 输出"本轮只做三件事 + 需要你补充的问题 + 可复制提示词"
这种设计,正是为了帮助研究者从”我要做什么技术”,转向”我要解决什么科学问题”。这与基金委改革中强调的”突出原始创新”不谋而合。
传统的文献调研流程大概是:设计检索词 → 在 PubMed/Web of Science 搜索 → 下载 PDF → 逐篇阅读 → 手工整理笔记 → 开始写作。这个过程不仅耗时,而且容易遗漏重要文献或纳入低质量研究。
我开发的 systematic-literature-review 技能,实现了端到端的 AI 驱动综述生成:
核心创新点
AI 自定检索词:根据主题特性自主规划查询变体(通常 5–15 组),无需用户手工设计检索策略
AI 语义评分 + 自动分组:逐篇阅读标题摘要,1–10 分相关性评分,子主题自动分组(非机械关键词匹配)
高分优先选文:按高分优先比例(60–80%)和目标数量选文,避免纳入低质量文献
字数预算生成:自动生成”综/述”字数预算(70% 引用段 + 30% 无引用段,三次采样取均值)
三档位支持:
Basic(基础级):3000–6000 字,30–60 篇文献(快速调研)
多语言支持:支持 en/zh/ja/de/fr/es 翻译与智能编译
技术亮点
papers 路径;Bib 自动转义 &、补充缺失字段\cite 与 bib 对齐这种 AI 驱动的文献调研方式,不仅大幅提升了效率,更重要的是通过”语义评分”而非”关键词匹配”,能够更准确地识别真正相关的高质量研究。
很多使用 LaTeX 模板的小伙伴都遇到过这种困境:官方给了 Word 模板,你要把它的样式”移植”到 LaTeX 中。但怎么判断对齐了呢?只能肉眼对比 PDF 和 Word,反复调整参数,反复编译……整个过程就像是在”盲人摸象”。
我开发的 make_latex_model 技能,实现了像素级的自动样式对齐:
核心创新
AI 规划模式(需要智能决策):是否需修改?生成具体修改方案?是否达标?
像素级 PDF 对比
每行字数对齐:换行位置必须与 Word 完全一致
HTML 可视化报告
加粗文本可视化(<b> 标签深蓝色显示)
LaTeX 自动修复建议
\section{} 和 \subsection{} 代码根据 Word 格式生成正确的 \textbf{} 标记
迭代优化闭环
workspace/{project}/baseline/、iterations/、reports/、cache/、backup/工作空间隔离
所有运行输出(备份、日志、分析结果)放在 skills/make_latex_model/workspace/{project}/ 目录中,完全不对用户项目目录造成污染。
这种像素级可控的优化闭环,让样式对齐从”艺术”变成了”工程”——可量化、可验证、可迭代。
在项目开发过程中,我始终坚持一个原则:AI 是增强,不是依赖。
核心思想:
示例(nsfc-justification-writer):
| 功能 | 是否需要 AI | Fallback 行为 |
|---|---|---|
| Tier1 诊断(结构/引用/字数/危险命令) | ❌ | N/A |
| 内容维度覆盖检查 | ✅ | 启发式关键词检测(兜底) |
| 吹牛式表述识别(语义) | ✅ | 不阻断;仅依赖 Tier1 高风险示例提示 |
| 术语一致性(语义) | ✅ | 仅输出硬编码矩阵 |
| AI 示例推荐(带理由) | ✅ | 关键词/类别启发式匹配 |
| AI 阶段判断 | ✅ | 硬编码阈值规则 |
| Tier2 深度诊断 | ✅ | 跳过(仅输出 Tier1) |
这种设计保证了即使 AI 不可用(网络问题、服务故障、API 配额耗尽),核心功能仍然能够正常运行。这在实际使用中非常重要——毕竟基金申请有严格的时间截止日期,任何技术故障都可能导致前功尽弃。
三层安全保护:
main.tex、@config.tex 绝对禁止修改)白名单模式匹配(只允许编辑符合正则表达式的文件)
用户内容保护
违规报告生成(详细的安全违规日志)
写入安全策略
security.validate_write_target()main.tex、@config.tex、.cls/.styextraTex/*.tex(非 @config.tex)这种多层防护机制,确保了即使 AI 生成的内容有问题,也不会破坏项目结构或丢失用户数据。
根据斯坦福大学发布的《2025 年 AI 指数报告》,AI 模型的技术性能正以超越摩尔定律的速度指数级进化——2024 年引入的新基准测试(MMMU、GPQA、SWE-bench)在一年内性能大幅提升4,编码任务在 SWE-bench 等基准测试中的通过率显著增长5。这意味着今天 AI 能完成的”格式对齐”、”文献整理”,明天就能协助”观点提炼”、”逻辑重构”,后天甚至可能参与”研究设计”、”假说生成”。基于这个判断,ChineseResearchLaTeX 项目的长期愿景是成为AI 原生科研写作的基础设施:随着 AI 模型能力的提升,项目中的技能会变得更加强大,不仅能扩展到各类科研基金申请书(博后基金、省部级项目、国际基金等),还能覆盖学位论文、期刊投稿、项目报告、学术综述等更广泛的领域,并逐步支持社区贡献自定义技能、学科预设、示例库等开放生态。
回望 ChineseResearchLaTeX 项目的演进历程,从最初的一个简单 LaTeX 模板,到今天的 AI 原生科研写作平台,这个项目经历了从”工具”到”平台”、从”静态”到”智能”、从”格式”到”内容”的范式转移。核心突破体现在五个层面:从”静态模板”到”智能技能生态系统”实现了标书写作全流程的 AI Skills 覆盖;从”格式检查”到”理论创新导向的写作教练”帮助研究者聚焦真正的科学问题;从”手工文献调研”到”AI 驱动的专家级综述生成”实现了端到端的智能化文献调研;从”样式对齐黑盒”到”像素级可控的优化闭环”让样式调整变得可量化、可验证、可迭代;而”脚本可复现 + AI 可选”的混合架构设计则提供了优雅降级保障。这些突破不仅在技术层面提升了标书写作的效率和质量,更在理念层面呼应了基金委改革的方向——从”堆砌工作量”转向”突出原始创新”,从”技术展示”转向”科学问题”,从”零散知识点”转向”系统性研究体系”。
当然,这个项目还有很长的路要走,AI 能力还在快速进化,科研写作的范式也在不断演变。但我相信,只要坚持”AI 是增强,不是依赖”的原则,保持”可复现、可验收、可回滚”的工程标准,这个项目就能真正成为科研工作者的得力助手。如果你对这个项目感兴趣,欢迎访问 GitHub 仓库或加入微信社区(300+ 成员)交流,让我们一起推动科研写作进入 Vibe Writing 时代!
---------------
完结,撒花!如果您点一下广告,可以养活苯苯😍😍😍