by WILLOSCAR
Research pipelines as semantic execution units: each skill declares inputs/outputs, acceptance criteria, and guardrails. Evidence-first methodology prevents hollow writing through structured intermediate artifacts.
# Add to your Claude Code skills
git clone https://github.com/WILLOSCAR/research-units-pipeline-skills一句话:让 Pipeline 会"带人 / 带模型"做研究——不是给一堆脚本,而是给一套语义化的 skills,每个 skill 知道"该做什么、怎么做、做到什么程度、不能做什么"。
English version: README.en.md.
Skills index: SKILL_INDEX.md.
Skill/Pipeline standard: SKILLS_STANDARD.md.
这类工作最容易陷入两种极端:
本仓库的做法:把“写一篇 survey”拆成一串可验收、可恢复的小步,并把每一步的中间产物写到磁盘上。
inputs / outputs / acceptance / guardrail:需要什么、产出什么、做到什么程度、哪些行为禁止(例如 C2–C4 NO PROSE)。UNITS.csv 一行一个 unit(依赖 + 输入/输出 + 验收)。一眼看懂(你想解决什么,就先看哪里):
| 你想解决的问题 | 优先看哪里 | 常见修复动作 |
|---|---|---|
| 论文太少 / 覆盖不足 | queries.md + papers/retrieval_report.md | 扩关键词桶、提高 max_results、导入离线集合、做 snowball |
| 大纲不稳 / 小节没论文可写 | outline/outline.yml + outline/mapping.tsv | 合并/重排小节、提高 per_subsection、重跑 mapping |
| 证据薄导致写作空洞 | + | 补 notes / 补 evidence packs(先补证据,再写作) |
| 写作出现模板话/口癖/越写越冗余 | + + | 定点改写(并行候选→择优融合;去旁白/去导航/融合冗余段),再跑自检门 |
| 引用密度不够(unique 偏低) | + | 按预算做 in-scope 注入(NO NEW FACTS) |
No comments yet. Be the first to share your thoughts!
papers/paper_notes.jsonloutline/evidence_drafts.jsonloutput/WRITER_SELFLOOP_TODO.mdoutput/PARAGRAPH_CURATION_REPORT.mdsections/*output/CITATION_BUDGET_REPORT.mdcitations/ref.bib配置可能会根据 codex 的更新有变化
[sandbox_workspace_write]
network_access = true
[features]
shell_snapshot = true
codex --sandbox workspace-write --ask-for-approval never
帮我写一篇关于 LLM agents 的 LaTeX survey
workspaces/ 下新建一个带时间戳的文件夹,把所有结果都放进去。workspaces/<…>/output/DRAFT.mdworkspaces/<…>/latex/main.pdfworkspaces/<…>/output/AUDIT_REPORT.mdworkspaces/<…>/output/QUALITY_GATE.md(为什么停、下一步该改什么)workspaces/<…>/output/RUN_ERRORS.md(脚本/缺文件等运行问题)备注(可选,但更稳):
pipelines/arxiv-survey-latex.pipeline.md(需要 PDF 就用它)术语速查(只看这 3 个就够):
workspaces/<name>/)output/QUALITY_GATE.md 写明原因与下一步下面的“详细版”会解释每一步会产出哪些中间文件,以及写作阶段如何逐步润色与收敛。
你在对话里通常会这样说(例子):
帮我写一篇关于 LLM agents 的 LaTeX survey
然后会按阶段推进(每一步都会把结果写到 workspace 里;默认会在 C2 停下来等你确认):
workspaces/ 下新建一个时间戳目录,把后续所有产物都放进去。UNITS.csv / DECISIONS.md / queries.md),让这次 run 可追踪、可恢复。max_results=1800/桶;去重后目标 >=1200),再选出 core set(默认 300 篇,写入 papers/core_set.csv)。