# tldr
一个人做的,面向中国跨境电商/独立站/出海创业者的工具评测站。目前 2,243 个工具、46 篇深度评测、1,628 个工具对比页,纯静态导出,数据集 CC BY 4.0 开源。站起来快一个月,GSC 索引率 80%,但流量还小,想听各位提点意见。
# 背景
自己之前做亚马逊和独立站,每次找工具都要在十几个公众号、英文 review 站、雨果跨境之间反复横跳。Toolify 、Futurepedia 、TheresAnAIForThat 这种英文工具导航站做得不错,但中文圈是真空——要么是软文堆砌,要么是没人维护。所以自己动手搞了一个。
Claude Opus 4.7 做规划,GPT5.5 做校验审计,然后 Opus 4.7 编码,再用 GPT5.5 测试,反复调整。
程序代码很简单,搜集里面的站点数据好复杂,200X 的 Claude 订阅一周额度几乎用光。
# 当前规模
- 2,243 个工具( 22 大类 / 164 子类,人工标注分类,不是 AI 批量生成的)
- 46 篇深度评测( 1,500-2,500 字 / 篇 / 7 段式:是什么、核心功能、关键参数、适合谁、不适合谁、和竞品区别、注意事项)
- 1,628 个工具对比页(基于 alternatives 关系自动生成)
- 数据集开源:github.com/launotice-lang/chdh-tools-dataset
# 技术栈( V2EX 友好版)
- Next.js 15 + App Router ,`output: 'export'` 纯静态
- 数据即代码:所有 Tool 在 `data/tools/*.ts`,TypeScript 强类型,零数据库零后台
- 部署:本地 build → rsync → nginx 符号链接原子切换,零停机
- 7 个安全 header ( HSTS preload-ready / CSP / COOP / 完整组合)
- Lighthouse 移动端 100/100/81/100 ( BP 81 是 CF Bot Fight 注入脚本的 deprecated API 警告,自家代码动不了)
# 几条不会变的原则
- 实测优先,46 篇深度评测都是自己一个个用、查、写出来的
- 联盟披露透明:所有 affiliate 链接 `rel="nofollow sponsored noopener"`,详情页底部明示
- 不接付费收录、不接付费排名
- 数据公开 + 开源
# 现在卡住的几个问题,想请教各位
GSC 数据:sitemap 4,070 / 已索引 2,227 / 未索引 534 ( sitemap 内 80% 索引率,新站正常)/ 28 天点击 22 次(也是新站正常)。技术层面没啥大问题,但有几个判断不太确定:
1. **AI 辅助内容扩展边界**:剩下约 2,200 个工具描述较薄(< 200 字),想用 DeepSeek + Gemini 配合人工编辑批量补到 1,000+ 字。Bankrate 、CNET 这种大站都在用 AI 辅助,但 scaled content abuse 也有被砸的真实案例。Google HCU 这条线各位怎么把握?
2. **中文外链投放**:之前按英文站思路规划了 HN / Reddit / awesome-list 一堆英文渠道,后来意识到中文站投英文渠道是受众错配。除了知乎和这里,国内还有哪些适合发"工具盘点"长贴的社区?跨境垂直论坛(知无不言、雨果社区)有效果吗?
3. **首页设计权衡**:现在结构是 hero + 编辑精选 + 全分类 grid + 最近收录。看 Toolify 那种纯工具墙 + 滤镜的设计,我这种"评测优先"是不是太重了?对独立开发者站,哪种结构更跑得通?
站点: https://chdh.me
数据集: https://github.com/launotice-lang/chdh-tools-dataset
不卖东西,欢迎拍砖。觉得有用顺手扩散下让需要的同行看到,谢过。
一个人做的,面向中国跨境电商/独立站/出海创业者的工具评测站。目前 2,243 个工具、46 篇深度评测、1,628 个工具对比页,纯静态导出,数据集 CC BY 4.0 开源。站起来快一个月,GSC 索引率 80%,但流量还小,想听各位提点意见。
# 背景
自己之前做亚马逊和独立站,每次找工具都要在十几个公众号、英文 review 站、雨果跨境之间反复横跳。Toolify 、Futurepedia 、TheresAnAIForThat 这种英文工具导航站做得不错,但中文圈是真空——要么是软文堆砌,要么是没人维护。所以自己动手搞了一个。
Claude Opus 4.7 做规划,GPT5.5 做校验审计,然后 Opus 4.7 编码,再用 GPT5.5 测试,反复调整。
程序代码很简单,搜集里面的站点数据好复杂,200X 的 Claude 订阅一周额度几乎用光。
# 当前规模
- 2,243 个工具( 22 大类 / 164 子类,人工标注分类,不是 AI 批量生成的)
- 46 篇深度评测( 1,500-2,500 字 / 篇 / 7 段式:是什么、核心功能、关键参数、适合谁、不适合谁、和竞品区别、注意事项)
- 1,628 个工具对比页(基于 alternatives 关系自动生成)
- 数据集开源:github.com/launotice-lang/chdh-tools-dataset
# 技术栈( V2EX 友好版)
- Next.js 15 + App Router ,`output: 'export'` 纯静态
- 数据即代码:所有 Tool 在 `data/tools/*.ts`,TypeScript 强类型,零数据库零后台
- 部署:本地 build → rsync → nginx 符号链接原子切换,零停机
- 7 个安全 header ( HSTS preload-ready / CSP / COOP / 完整组合)
- Lighthouse 移动端 100/100/81/100 ( BP 81 是 CF Bot Fight 注入脚本的 deprecated API 警告,自家代码动不了)
# 几条不会变的原则
- 实测优先,46 篇深度评测都是自己一个个用、查、写出来的
- 联盟披露透明:所有 affiliate 链接 `rel="nofollow sponsored noopener"`,详情页底部明示
- 不接付费收录、不接付费排名
- 数据公开 + 开源
# 现在卡住的几个问题,想请教各位
GSC 数据:sitemap 4,070 / 已索引 2,227 / 未索引 534 ( sitemap 内 80% 索引率,新站正常)/ 28 天点击 22 次(也是新站正常)。技术层面没啥大问题,但有几个判断不太确定:
1. **AI 辅助内容扩展边界**:剩下约 2,200 个工具描述较薄(< 200 字),想用 DeepSeek + Gemini 配合人工编辑批量补到 1,000+ 字。Bankrate 、CNET 这种大站都在用 AI 辅助,但 scaled content abuse 也有被砸的真实案例。Google HCU 这条线各位怎么把握?
2. **中文外链投放**:之前按英文站思路规划了 HN / Reddit / awesome-list 一堆英文渠道,后来意识到中文站投英文渠道是受众错配。除了知乎和这里,国内还有哪些适合发"工具盘点"长贴的社区?跨境垂直论坛(知无不言、雨果社区)有效果吗?
3. **首页设计权衡**:现在结构是 hero + 编辑精选 + 全分类 grid + 最近收录。看 Toolify 那种纯工具墙 + 滤镜的设计,我这种"评测优先"是不是太重了?对独立开发者站,哪种结构更跑得通?
站点: https://chdh.me
数据集: https://github.com/launotice-lang/chdh-tools-dataset
不卖东西,欢迎拍砖。觉得有用顺手扩散下让需要的同行看到,谢过。