WAP turns papers into bilingual, dual-level pages.
Each paper is its own HTML/CSS/JS page. Share it as /paper-slug.
WAP 把论文变成中英双版、双层级页面。
每篇论文都是独立的 HTML/CSS/JS。分享格式:/论文名。
Bilingual
HS + Grad
Standalone Pages
Quick actions
- Search and open a paper page.
- Add a new folder under
/papers/<slug>. - Deploy with GitHub → Vercel.
快速入口
- 搜索并打开论文页。
- 在
/papers/<slug>新建页面。 - GitHub 推送 → Vercel 自动部署。
Towards Scalable Pre-training of Visual Tokenizers for Generation 视觉分词器可扩展预训练(面向生成)
Teach visual tokenizers to learn meaning, so generation scales.
让视觉分词器学语义,使生成能力随规模提升。
Multi-objective pretraining boosts zero-shot, rFID, and DiT FID.
对比/自监督/重建联合预训练,提升零样本、rFID 与 DiT FID。
arXiv 2512.13687
Tokenizer
Generation
Learning to Discover at Test Time 测试时学习以“发现”为目标
Keep learning during testing to beat the best known solution.
在测试时持续学习,超越当前最好解。
Test-time RL optimized for a single best solution under continuous rewards.
在连续奖励问题上,测试时强化学习聚焦单一最优解。
arXiv 2601.16175
TTT
RL
Length Generalization in Hierarchical Sparse Attention 分层稀疏注意力的长度泛化
Three design rules let a 4K-trained model work on 32M tokens.
三条设计规则,让 4K 训练模型扩展到 3200 万 tokens。
Ablations isolate principles for training-free length extrapolation.
消融实验定位训练自由长度外推的关键原则。
arXiv 2510.17196
Long Context
Sparse Attention
Workflow
- Create a folder:
/papers/<slug>/. - Add
index.html,styles.css,script.js. - Link it on this index page.
- Push to GitHub → Vercel deploys.
流程
- 创建文件夹:
/papers/<slug>/。 - 添加
index.html、styles.css、script.js。 - 在索引页加入链接。
- 推送到 GitHub → Vercel 自动部署。
About WAP
WAP is a static site. Every paper is a standalone web page, so you can freely design layouts or add interactive demos per paper.
关于 WAP
WAP 是纯静态站点。每篇论文都是独立页面,因此你可以自由设计布局或加入交互演示。