WAP Web Any Paper
Level 层级

WAP turns papers into bilingual, dual-level pages.

Each paper is its own HTML/CSS/JS page. Share it as /paper-slug.

WAP 把论文变成中英双版、双层级页面。

每篇论文都是独立的 HTML/CSS/JS。分享格式:/论文名

Bilingual HS + Grad Standalone Pages

Quick actions

  • Search and open a paper page.
  • Add a new folder under /papers/<slug>.
  • Deploy with GitHub → Vercel.

快速入口

  • 搜索并打开论文页。
  • /papers/<slug> 新建页面。
  • GitHub 推送 → Vercel 自动部署。

Towards Scalable Pre-training of Visual Tokenizers for Generation 视觉分词器可扩展预训练(面向生成)

Teach visual tokenizers to learn meaning, so generation scales. 让视觉分词器学语义,使生成能力随规模提升。
Multi-objective pretraining boosts zero-shot, rFID, and DiT FID. 对比/自监督/重建联合预训练,提升零样本、rFID 与 DiT FID。
arXiv 2512.13687 Tokenizer Generation

Learning to Discover at Test Time 测试时学习以“发现”为目标

Keep learning during testing to beat the best known solution. 在测试时持续学习,超越当前最好解。
Test-time RL optimized for a single best solution under continuous rewards. 在连续奖励问题上,测试时强化学习聚焦单一最优解。
arXiv 2601.16175 TTT RL

Length Generalization in Hierarchical Sparse Attention 分层稀疏注意力的长度泛化

Three design rules let a 4K-trained model work on 32M tokens. 三条设计规则,让 4K 训练模型扩展到 3200 万 tokens。
Ablations isolate principles for training-free length extrapolation. 消融实验定位训练自由长度外推的关键原则。
arXiv 2510.17196 Long Context Sparse Attention

Workflow

  1. Create a folder: /papers/<slug>/.
  2. Add index.html, styles.css, script.js.
  3. Link it on this index page.
  4. Push to GitHub → Vercel deploys.

流程

  1. 创建文件夹:/papers/<slug>/
  2. 添加 index.htmlstyles.cssscript.js
  3. 在索引页加入链接。
  4. 推送到 GitHub → Vercel 自动部署。

About WAP

WAP is a static site. Every paper is a standalone web page, so you can freely design layouts or add interactive demos per paper.

关于 WAP

WAP 是纯静态站点。每篇论文都是独立页面,因此你可以自由设计布局或加入交互演示。