重要前提
安装AI Skills的关键前提是:必须科学上网,且开启TUN模式,这一点至关重要,直接决定安装能否顺利完成,在此郑重提醒三遍:科学上网,科学上网,科学上网。查看完整安装教程 →
product-analyst by ncklrs/startup-os-skills
npx skills add https://github.com/ncklrs/startup-os-skills --skill product-analyst为数据驱动的产品决策提供战略性的产品分析专业知识——从指标框架选择到实验设计和影响衡量。
优秀的产品分析不在于追踪一切,而在于衡量重要之事,以推动更好的产品决策。
最佳的产品分析:
调用时,应用 rules/ 目录下按以下类别组织的指南:
metrics-* —— 框架(AARRR、HEART)、KPI 选择、指标层级funnel-* —— 转化分析、流失诊断、优化cohort-* —— 留存分析、用户分群、生命周期追踪feature-* —— 功能采用追踪、使用模式、功能成功度广告位招租
在这里展示您的产品或服务
触达数万 AI 开发者,精准高效
experiment-* —— A/B 测试、假设设计、统计严谨性instrumentation-* —— 事件追踪、数据建模、采集最佳实践dashboard-* —— 可视化、利益相关者报告、自助式分析| 阶段 | 核心问题 | 关键指标 |
|---|---|---|
| 获客 | 用户从何而来? | 流量来源、用户获取成本、注册率 |
| 激活 | 他们是否拥有出色的初体验? | 价值实现时间、设置完成率、"顿悟"时刻 |
| 留存 | 他们是否回访? | 日活跃用户/月活跃用户、第1/7/30天留存率、流失率 |
| 收入 | 他们是否付费? | 转化率、每用户平均收入、用户生命周期价值 |
| 推荐 | 他们是否告诉他人? | 净推荐值、推荐率、病毒系数 |
| 维度 | 定义 | 信号类型 |
|---|---|---|
| 愉悦度 | 用户态度、满意度 | 净推荐值、客户满意度、调查 |
| 参与度 | 参与深度 | 会话数、应用内停留时间、每次会话操作数 |
| 接受度 | 新用户/功能采用率 | 新用户数、功能采用率 |
| 留存率 | 随时间推移的持续使用 | 留存曲线、流失率 |
| 任务完成度 | 效率和完成情况 | 任务完成率、错误率、任务耗时 |
┌─────────────────┐
│ 北极星指标 │ ← 最重要的单一指标
│ North Star │
├─────────────────┤
│ 核心关键 │ ← 3-5 个关键绩效指标
│ 绩效指标 KPIs │
├─────────────────┤
│ 支持性指标 │ ← 诊断性和健康度指标
│ Supporting │
├─────────────────┤
│ 运营指标 │ ← 日常追踪指标
│ Operational │
└─────────────────┘
┌───────────────────────────────────────────────────────────┐
│ 留存分析视角 │
├───────────────────────────────────────────────────────────┤
│ N 日留存率 │ 在第 N 天恰好回访的用户百分比 │
│ 无界留存率 │ 在第 N 天或之后回访的用户百分比 │
│ 区间留存率 │ 在特定时间窗口内回访的用户百分比 │
│ 滚动留存率 │ N 天后仍活跃的用户百分比 │
└───────────────────────────────────────────────────────────┘
| 级别 | 方法 | 使用时机 |
|---|---|---|
| 1. 直觉 | 发布并祈祷 | 切勿用于重要功能 |
| 2. 定性 | 用户研究、反馈 | 早期探索阶段 |
| 3. 观察性 | 前后对比分析 | 低风险变更 |
| 4. 准实验 | 队列对比 | 难以随机分组时 |
| 5. A/B 测试 | 随机对照实验 | 优化、验证阶段 |
| 6. 多臂老虎机 | 自适应分配 | 速度优先于精度时 |
| 标准 | 问题 | 良好迹象 |
|---|---|---|
| 可操作性 | 我们能影响它吗? | 存在直接杠杆 |
| 可获取性 | 我们能可靠地衡量它吗? | 数据缺失率 < 5% |
| 可审计性 | 我们能调试异常吗? | 计算逻辑清晰 |
| 一致性 | 它与业务价值挂钩吗? | 管理层关心 |
| 可归因性 | 我们能追踪变化的原因吗? | 可进行 A/B 测试 |
每周安装量
62
代码仓库
GitHub 星标数
9
首次出现
2026年1月27日
安全审计
安装于
opencode59
gemini-cli57
github-copilot57
codex57
cursor56
kimi-cli55
Strategic product analytics expertise for data-driven product decisions — from metrics framework selection to experimentation design and impact measurement.
Great product analytics isn't about tracking everything. It's about measuring what matters to drive better product decisions.
The best product analytics:
When invoked, apply the guidelines in rules/ organized by:
metrics-* — Frameworks (AARRR, HEART), KPI selection, metric hierarchiesfunnel-* — Conversion analysis, drop-off diagnosis, optimizationcohort-* — Retention analysis, segmentation, lifecycle trackingfeature-* — Adoption tracking, usage patterns, feature successexperiment-* — A/B testing, hypothesis design, statistical rigorinstrumentation-* — Event tracking, data modeling, collection best practicesdashboard-* — Visualization, stakeholder reporting, self-serve analytics| Stage | Question | Key Metrics |
|---|---|---|
| Acquisition | Where do users come from? | Traffic sources, CAC, signup rate |
| Activation | Do they have a great first experience? | Time-to-value, setup completion, aha moment |
| Retention | Do they come back? | DAU/MAU, D1/D7/D30 retention, churn |
| Revenue | Do they pay? | Conversion rate, ARPU, LTV |
| Referral | Do they tell others? | NPS, referral rate, viral coefficient |
| Dimension | Definition | Signal Types |
|---|---|---|
| Happiness | User attitudes, satisfaction | NPS, CSAT, surveys |
| Engagement | Depth of involvement | Sessions, time-in-app, actions/session |
| Adoption | New users/features uptake | New users, feature adoption % |
| Retention | Continued usage over time | Retention curves, churn rate |
| Task Success | Efficiency and completion | Task completion, error rate, time-on-task |
┌─────────────────┐
│ North Star │ ← Single metric that matters most
│ Metric │
├─────────────────┤
│ Primary │ ← 3-5 key performance indicators
│ KPIs │
├─────────────────┤
│ Supporting │ ← Diagnostic and health metrics
│ Metrics │
├─────────────────┤
│ Operational │ ← Day-to-day tracking
│ Metrics │
└─────────────────┘
┌───────────────────────────────────────────────────────────┐
│ RETENTION VIEWS │
├───────────────────────────────────────────────────────────┤
│ N-Day Retention │ % who return on exactly day N │
│ Unbounded │ % who return on or after day N │
│ Bracket Retention │ % who return within a time window │
│ Rolling Retention │ % still active after N days │
└───────────────────────────────────────────────────────────┘
| Level | Approach | When to Use |
|---|---|---|
| 1. Gut | Ship and hope | Never for important features |
| 2. Qualitative | User research, feedback | Early exploration |
| 3. Observational | Pre/post analysis | Low-risk changes |
| 4. Quasi-experiment | Cohort comparison | When randomization hard |
| 5. A/B Test | Randomized control | Optimization, validation |
| 6. Multi-arm Bandit | Adaptive allocation | When speed > precision |
| Criterion | Question | Good Sign |
|---|---|---|
| Actionable | Can we influence this? | Direct lever exists |
| Accessible | Can we measure it reliably? | <5% missing data |
| Auditable | Can we debug anomalies? | Clear calculation logic |
| Aligned | Does it tie to business value? | Executive cares |
| Attributable | Can we trace changes to causes? | A/B testable |
Weekly Installs
62
Repository
GitHub Stars
9
First Seen
Jan 27, 2026
Security Audits
Gen Agent Trust HubPassSocketPassSnykPass
Installed on
opencode59
gemini-cli57
github-copilot57
codex57
cursor56
kimi-cli55
DOCX文件创建、编辑与分析完整指南 - 使用docx-js、Pandoc和Python脚本
55,800 周安装