content-digest by ai-native-camp/camp-2
npx skills add https://github.com/ai-native-camp/camp-2 --skill content-digest内容 → 先测验学习 → 选择性深度探索 → 根本概念扩展。
基于任务代理的设计:长上下文由子代理处理,主会话仅消费最终结论
| 类型 | 提取方法 | 存储路径 |
|---|---|---|
| YouTube | 任务代理 (yt-dlp + 净化) | research/digests/youtube/ |
| X/Twitter | fetch-tweet 技能 (api.fxtwitter.com) | research/digests/tweet/ |
| 网页 |
广告位招租
在这里展示您的产品或服务
触达数万 AI 开发者,精准高效
| 任务代理 (浏览器 + 净化) |
research/digests/web/ |
| 任务代理 (Read + 净化) | research/digests/pdf/ |
Phase 1: 内容类型检测
Phase 2: 任务代理执行 (内容提取 + 净化 + 网络研究 + md 保存)
Phase 3: 主会话读取结果 md
Phase 4: 预测验 (3题)
Phase 5: 选择性内容提供
Phase 6: 主测验 (9题)
Phase 7: 精细化提问
Phase 8: 基础扩展
Phase 9: 图式连接
Phase 10: 文档更新 (反映测验结果)
Phase 11: 后续选择
根据输入模式自动确定内容类型:
| 模式 | 类型 |
|---|---|
youtube.com, youtu.be | YouTube |
x.com, twitter.com | X/Twitter |
http://, https:// (其他) | 网页 |
.pdf 文件路径 |
如果不明确,则向用户确认:
AskUserQuestion:
questions:
- question: "要分析什么内容?"
header: "Type"
options:
- label: "YouTube 视频"
description: "请提供 URL"
- label: "网页/文章"
description: "请提供 URL"
- label: "PDF 文档"
description: "请提供文件路径"
在保护主会话上下文的同时处理长内容
Task:
subagent_type: "general-purpose"
description: "内容提取与分析"
prompt: |
## 目标
从 {URL/文件路径} 提取内容并分析,保存为 md 文件
## 步骤 (顺序重要)
1. 内容提取 (应用类型特定方法)
2. 文本净化 (移除编号、时间 → 仅提取英文)
3. 提取核心关键词 (5-10个)
4. 网络研究 (对每个关键词进行 WebSearch)
5. **生成核心摘要** (3-5句话)
6. **得出主要见解** (3个)
7. **生成测验材料** (基于摘要/见解,仅核心主题)
8. 保存 md 文件
## 输出路径
research/digests/{type}/{YYYY-MM-DD}-{sanitized-title}.md
无需任务代理 - 使用 fetch-tweet 脚本直接提取 (短内容)
# 提取推文原文 + 互动数据
python3 .claude/skills/fetch-tweet/scripts/fetch_tweet.py "{URL}" --json
从 JSON 响应中使用的字段:
tweet.text: 推文正文tweet.author: 作者信息 (name, bio, followers)tweet.likes/retweets/views: 互动数据tweet.quote: 引用推文 (如有,结构相同)tweet.media: 附加图片/视频推文较短,因此无需任务代理,主会话可直接处理。如有引用推文,则一并包含分析。存储路径:research/digests/tweet/{YYYY-MM-DD}-{author}-{short-topic}.md
# 1. 提取字幕
yt-dlp --write-auto-sub --sub-lang "en" --skip-download \
--convert-subs vtt -o "%(title)s" "{URL}"
# 2. VTT → 纯文本转换
sed -E 's/^[0-9]+$//' | \ # 移除编号
sed -E 's/[0-9]{2}:[0-9]{2}:[0-9]{2}.*//g' | \ # 移除时间戳
sed -E 's/<[^>]+>//g' | \ # 移除 HTML 标签
tr -s '\n' | \ # 清理空行
grep -v '^$' # 删除空行
净化结果:仅保留纯英文文本 (无时间、编号、重复)
1. mcp__claude-in-chrome__tabs_context_mcp
2. mcp__claude-in-chrome__tabs_create_mcp
3. mcp__claude-in-chrome__navigate: url="{URL}"
4. mcp__claude-in-chrome__get_page_text: tabId={tabId}
5. 滚动后检查额外内容
Read: file_path="{PDF 路径}"
从提取的文本中识别 5-10 个核心关键词后:
WebSearch (并行执行):
- "{关键词1} explained"
- "{关键词2} research"
- "{作者/演讲者} {主题}"
- "{核心概念} fundamentals"
路径:research/digests/{type}/{YYYY-MM-DD}-{sanitized-title}.md
---
title: {内容标题}
type: {youtube|web|pdf}
url: {URL 或文件路径}
author: {作者/频道名}
date: {发布日期}
processed_at: {处理时间}
keywords: [{关键词1}, {关键词2}, ...]
---
# {内容标题}
## 核心摘要
{3-5句话摘要}
## 主要见解
1. **{见解1}**: 说明
2. **{见解2}**: 说明
3. **{见解3}**: 说明
## 网络研究结果
### {关键词1}
- 发现内容摘要
- 来源: {URL}
### {关键词2}
- 发现内容摘要
- 来源: {URL}
## 原文 (已净化)
{移除编号/时间后的纯文本}
## 测验材料 (用于预测验 + 主测验)
> **生成顺序**: 必须先完成上面的"核心摘要"和"主要见解",然后基于此生成测验
> **出题原则**: 仅出核心主题题。排除日期、统计数据、次要细节。
### 基础级别 (3题候选)
- Q1: {核心概念/信息相关}
- Q2: {主要原则相关}
- Q3: {作者核心主张相关}
### 中级级别 (3题候选)
- Q4: {概念间关系}
- Q5: {证据与逻辑连接}
- Q6: {核心思想比较}
### 深度级别 (3题候选)
- Q7: {实际应用/运用}
- Q8: {核心原理的扩展}
- Q9: {作者观点的含义}
任务代理完成后:
Read: file_path="research/digests/{type}/{YYYY-MM-DD}-{sanitized-title}.md"
主会话仅读取净化后的 md 文件 → 最大化上下文效率
目的:制造信息缺口 → 注意力启动 → 引导主动学习
仅提问核心主题:不提问琐碎细节或数字,仅提问与内容核心信息直接相关的内容
利用结果 md 文件中的"测验材料"部分出 3 题:
AskUserQuestion:
questions:
- question: "[预测验] 这个内容可能涉及的核心概念是?"
header: "PQ1"
options: [4个选项]
- question: "[预测验] 作者可能强调的信息是?"
header: "PQ2"
options: [4个选项]
- question: "[预测验] 这个主题中最重要的原则是?"
header: "PQ3"
options: [4个选项]
结果处理:
根据预测验结果向用户提供选择:
AskUserQuestion:
questions:
- question: "您想先查看哪部分内容?"
header: "Content"
options:
- label: "仅错误题目相关部分"
description: "在内容中查找预测验错误部分的答案"
- label: "3个核心见解"
description: "仅内容最重要的要点"
- label: "完整摘要 + 见解"
description: "全面的内容分析"
- label: "直接进入主测验"
description: "不查看摘要,直接进行9题测验"
仅提取与预测验错误答案相关的部分:
## 3个核心见解
1. **[关键词]**: 1-2句话说明
2. **[关键词]**: 1-2句话说明
3. **[关键词]**: 1-2句话说明
## 摘要
{3-5句话}
## 见解
### 核心思想
### 可应用点
3个阶段 × 3题。使用 AskUserQuestion 进行每个阶段。
出题原则:所有题目必须与内容的核心主题直接相关。禁止出次要细节、日期、统计数据的题目。
| 阶段 | 难度 | 出题标准 |
|---|---|---|
| 1 | 基础 | 核心信息、主要概念 |
| 2 | 中级 | 概念间关系、证据连接 |
| 3 | 深度 | 案例分析、应用、具体数据 |
题目类型详情:references/quiz-patterns.md
即时反馈:每个阶段完成后立即提供正确答案/解析
"为什么?"问题引发深度处理 (76% vs 69% 正确率提升)
测验完成后,对核心概念进行深度提问:
AskUserQuestion:
questions:
- question: "以下哪些概念您想更深入地理解?"
header: "Deep Dive"
multiSelect: true
options:
- label: "{概念 A}"
description: "探索为什么这很重要"
- label: "{概念 B}"
description: "理解其根本原理"
- label: "{概念 C}"
description: "扩展实际应用案例"
- label: "直接进入下一阶段"
description: "当前理解水平已足够"
对选定的概念:
将内容扩展到其背后的基础知识
搜索查询:
- "{核心概念} fundamentals explained"
- "{核心概念} 基础原理"
- "{理论/方法论} research paper original"
- "{作者/演讲者} other works recommendations"
## 基础扩展
### 构成此内容基础的概念
| 概念 | 说明 | 来源 |
|------|------|------|
| {基础概念 1} | 1行说明 | {URL} |
| {基础概念 2} | 1行说明 | {URL} |
### 如需深入学习
- **先修知识**: {要完全理解此内容需要了解的内容}
- **后续学习**: {看完此内容后可以看的内容}
- **相关研究**: {学术背景}
与现有知识连接时学习效果最大化
扫描 research/digests/ 文件夹中的现有摘要:
## 相关学习记录
与此内容连接的先前学习:
| 内容 | 类型 | 连接点 | 日期 |
|-------|------|------------|------|
| {先前标题} | {youtube/web/pdf} | {共同概念/对比观点} | {日期} |
### 知识网络
```mermaid
graph LR
A[本次内容] --> B[共同概念]
C[先前内容 1] --> B
D[先前内容 2] --> B
---
## Phase 10: 文档更新 (反映测验结果)
将测验结果添加到任务代理保存的 md 文件中:
```markdown
## 预测验结果
{分数及知识缺口记录}
## 主测验结果
{分数、错题笔记}
## 精细化提问
{选定概念的深度探索}
基本内容已在 Phase 2 中保存。此处仅添加学习结果。
AskUserQuestion:
questions:
- question: "接下来您想做什么?"
header: "Next"
options:
- label: "用其他题目重新测验"
description: "相同内容,新的9题"
- label: "深度研究"
description: "通过网络深度调查扩展 (references/deep-research.md)"
- label: "相关内容推荐"
description: "查找此主题的其他内容"
- label: "结束"
description: "学习完成"
无模式选择。始终以先测验模式进行。
研究表明,学习前测试能带来 9-12% 的提升效果,而先看摘要会使此效果消失。
工作流程 (固定):
1. 内容类型检测
2. 任务代理执行 (提取 + 净化 + 网络研究 + md 保存)
3. 主会话读取结果 md
4. 预测验 (3题) ← 必须先进行
5. 选择性内容提供
6. 主测验 (9题)
7-9. 深度学习 (精细化提问、基础扩展、图式)
10. 文档更新
11. 后续选择
即使用户请求"只要摘要"、"不要测验"等:
--list-subs: 检查字幕列表--cookies-from-browser chrome: 需要登录时始终使用 claude-in-chrome。禁止使用 WebFetch。
1. tabs_context_mcp 检查标签页上下文
2. tabs_create_mcp 创建新标签页
3. navigate 导航到 URL
4. get_page_text 提取文本
5. scroll 加载全部内容 (应对无限滚动)
6. 再次调用 get_page_text 检查额外内容
7. read_page 了解结构 (需要时)
scripts/extract_metadata.sh - YouTube 元数据提取scripts/extract_transcript.sh - YouTube 字幕提取references/quiz-patterns.md - 测验题目类型详情references/deep-research.md - 深度研究工作流程references/learning-science.md - 学习科学研究依据此工作流程基于以下研究:
预测试效应 (Richland et al., Roediger & Karpicke)
信息缺口理论 (Loewenstein, 1994)
精细化提问 (Dunlosky et al., 2013)
PACE 框架 (Gruber et al., 2019)
详情:references/learning-science.md
Weekly Installs
126
Repository
GitHub Stars
9
First Seen
6 days ago
Security Audits
Installed on
claude-code123
opencode8
codex8
gemini-cli7
github-copilot7
amp7
콘텐츠 → Quiz-First 학습 → 선택적 깊이 탐색 → 근본 개념 확장.
Task Agent 기반 설계 : 긴 컨텍스트는 subagent가 처리하고, 메인 세션은 최종 결론만 소비
| 타입 | 추출 방법 | 저장 경로 |
|---|---|---|
| YouTube | Task agent (yt-dlp + 정제) | research/digests/youtube/ |
| X/Twitter | fetch-tweet 스킬 (api.fxtwitter.com) | research/digests/tweet/ |
| Webpage | Task agent (browser + 정제) | research/digests/web/ |
| Task agent (Read + 정제) | research/digests/pdf/ |
Phase 1: 콘텐츠 타입 감지
Phase 2: Task Agent 실행 (콘텐츠 추출 + 정제 + 웹 리서치 + md 저장)
Phase 3: 메인 세션에서 결과 md Read
Phase 4: Pre-Quiz (3문제)
Phase 5: 선택적 콘텐츠 제공
Phase 6: 본 퀴즈 (9문제)
Phase 7: Elaborative Interrogation
Phase 8: Foundation Expansion
Phase 9: 스키마 연결
Phase 10: 문서 업데이트 (퀴즈 결과 반영)
Phase 11: 후속 선택
입력 패턴에 따라 콘텐츠 타입 자동 결정:
| 패턴 | 타입 |
|---|---|
youtube.com, youtu.be | YouTube |
x.com, twitter.com | X/Twitter |
http://, https:// (기타) | Webpage |
.pdf 파일 경로 |
명확하지 않으면 사용자에게 확인:
AskUserQuestion:
questions:
- question: "어떤 콘텐츠를 분석할까요?"
header: "Type"
options:
- label: "YouTube 영상"
description: "URL을 알려주세요"
- label: "웹페이지/아티클"
description: "URL을 알려주세요"
- label: "PDF 문서"
description: "파일 경로를 알려주세요"
메인 세션의 context를 보호하면서 긴 콘텐츠를 처리
Task:
subagent_type: "general-purpose"
description: "콘텐츠 추출 및 분석"
prompt: |
## 목표
{URL/파일경로}에서 콘텐츠를 추출하고 분석하여 md 파일로 저장
## 단계 (순서 중요)
1. 콘텐츠 추출 (타입별 방법 적용)
2. 텍스트 정제 (번호, 시간 제거 → 영어만 추출)
3. 핵심 키워드 추출 (5-10개)
4. 웹 리서치 (키워드별 WebSearch)
5. **핵심 요약 생성** (3-5문장)
6. **주요 인사이트 도출** (3개)
7. **퀴즈 재료 생성** (요약/인사이트 기반으로 핵심 주제만)
8. md 파일 저장
## 출력 경로
research/digests/{type}/{YYYY-MM-DD}-{sanitized-title}.md
Task Agent 불필요 - fetch-tweet 스크립트로 직접 추출 (짧은 콘텐츠)
# 트윗 원문 + 인게이지먼트 데이터 추출
python3 .claude/skills/fetch-tweet/scripts/fetch_tweet.py "{URL}" --json
JSON 응답에서 활용할 필드:
tweet.text: 트윗 본문tweet.author: 작성자 정보 (name, bio, followers)tweet.likes/retweets/views: 인게이지먼트tweet.quote: 인용 트윗 (있을 경우 동일 구조)tweet.media: 첨부 이미지/영상트윗은 짧으므로 Task Agent 없이 메인 세션에서 직접 처리. 인용 트윗이 있으면 함께 포함하여 분석. 저장 경로: research/digests/tweet/{YYYY-MM-DD}-{author}-{short-topic}.md
# 1. 자막 추출
yt-dlp --write-auto-sub --sub-lang "en" --skip-download \
--convert-subs vtt -o "%(title)s" "{URL}"
# 2. VTT → 순수 텍스트 변환
sed -E 's/^[0-9]+$//' | \ # 번호 제거
sed -E 's/[0-9]{2}:[0-9]{2}:[0-9]{2}.*//g' | \ # 타임스탬프 제거
sed -E 's/<[^>]+>//g' | \ # HTML 태그 제거
tr -s '\n' | \ # 빈 줄 정리
grep -v '^$' # 빈 줄 삭제
정제 결과: 순수 영어 텍스트만 남음 (시간, 번호, 중복 없음)
1. mcp__claude-in-chrome__tabs_context_mcp
2. mcp__claude-in-chrome__tabs_create_mcp
3. mcp__claude-in-chrome__navigate: url="{URL}"
4. mcp__claude-in-chrome__get_page_text: tabId={tabId}
5. 스크롤 후 추가 콘텐츠 확인
Read: file_path="{PDF 경로}"
추출된 텍스트에서 핵심 키워드 5-10개 식별 후:
WebSearch (병렬 실행):
- "{키워드1} explained"
- "{키워드2} research"
- "{저자/발표자} {주제}"
- "{핵심개념} fundamentals"
경로: research/digests/{type}/{YYYY-MM-DD}-{sanitized-title}.md
---
title: {콘텐츠 제목}
type: {youtube|web|pdf}
url: {URL 또는 파일경로}
author: {저자/채널명}
date: {발행 날짜}
processed_at: {처리 일시}
keywords: [{키워드1}, {키워드2}, ...]
---
# {콘텐츠 제목}
## 핵심 요약
{3-5문장 요약}
## 주요 인사이트
1. **{인사이트1}**: 설명
2. **{인사이트2}**: 설명
3. **{인사이트3}**: 설명
## 웹 리서치 결과
### {키워드1}
- 발견 내용 요약
- 출처: {URL}
### {키워드2}
- 발견 내용 요약
- 출처: {URL}
## 원문 (정제됨)
{번호/시간 제거된 순수 텍스트}
## Quiz 재료 (Pre-Quiz + 본 Quiz용)
> **생성 순서**: 반드시 위의 "핵심 요약"과 "주요 인사이트"를 먼저 작성한 후, 이를 기반으로 퀴즈 생성
> **출제 원칙**: 핵심 주제만 출제. 날짜, 통계, 지엽적 세부사항 제외.
### 기본 레벨 (3문제 후보)
- Q1: {핵심 개념/메시지 관련}
- Q2: {주요 원칙 관련}
- Q3: {저자 핵심 주장 관련}
### 중급 레벨 (3문제 후보)
- Q4: {개념 간 관계}
- Q5: {근거와 논리 연결}
- Q6: {핵심 아이디어 비교}
### 심화 레벨 (3문제 후보)
- Q7: {실제 적용/응용}
- Q8: {핵심 원리의 확장}
- Q9: {저자 관점의 함의}
Task Agent 완료 후:
Read: file_path="research/digests/{type}/{YYYY-MM-DD}-{sanitized-title}.md"
메인 세션은 정제된 md 파일만 읽음 → context 효율 극대화
목적 : 정보 갭 생성 → 주의력 프라이밍 → 능동적 학습 유도
핵심 주제만 질문 : 사소한 세부사항이나 숫자가 아닌, 콘텐츠의 핵심 메시지와 직결되는 내용만 출제
결과 md 파일의 "Quiz 재료" 섹션을 활용하여 3문제 출제:
AskUserQuestion:
questions:
- question: "[Pre-Quiz] 이 콘텐츠에서 다룰 것 같은 핵심 개념은?"
header: "PQ1"
options: [4개 선택지]
- question: "[Pre-Quiz] 저자가 강조할 것 같은 메시지는?"
header: "PQ2"
options: [4개 선택지]
- question: "[Pre-Quiz] 이 주제에서 가장 중요한 원칙은?"
header: "PQ3"
options: [4개 선택지]
결과 처리 :
Pre-Quiz 결과에 따라 사용자에게 선택지 제공:
AskUserQuestion:
questions:
- question: "어떤 콘텐츠를 먼저 보시겠습니까?"
header: "Content"
options:
- label: "틀린 문제 관련 섹션만"
description: "Pre-Quiz에서 틀린 부분의 답을 찾아보기"
- label: "핵심 인사이트 3개"
description: "콘텐츠의 가장 중요한 포인트만"
- label: "전체 요약 + 인사이트"
description: "종합적인 콘텐츠 분석"
- label: "바로 본 퀴즈로"
description: "요약 없이 9문제 퀴즈 진행"
Pre-Quiz 오답과 관련된 섹션만 추출:
## 핵심 인사이트 3개
1. **[키워드]**: 1-2문장 설명
2. **[키워드]**: 1-2문장 설명
3. **[키워드]**: 1-2문장 설명
## 요약
{3-5문장}
## 인사이트
### 핵심 아이디어
### 적용 가능한 점
3단계 × 3문제. AskUserQuestion으로 각 단계 진행.
출제 원칙 : 모든 문제는 콘텐츠의 핵심 주제와 직결되어야 함. 지엽적 세부사항, 날짜, 통계 수치는 출제 금지.
| 단계 | 난이도 | 출제 기준 |
|---|---|---|
| 1 | 기본 | 핵심 메시지, 주요 개념 |
| 2 | 중급 | 개념 간 관계, 근거 연결 |
| 3 | 심화 | 사례 분석, 적용, 구체적 데이터 |
문제 유형 상세: references/quiz-patterns.md
즉각 피드백 : 각 단계 완료 후 정답/해설 즉시 제공
"왜?" 질문이 깊은 처리를 유발 (76% vs 69% 정답률 향상)
퀴즈 완료 후, 핵심 개념에 대해 심화 질문:
AskUserQuestion:
questions:
- question: "다음 중 더 깊이 이해하고 싶은 개념은?"
header: "Deep Dive"
multiSelect: true
options:
- label: "{개념 A}"
description: "왜 이것이 중요한지 탐구"
- label: "{개념 B}"
description: "이것의 근본 원리 이해"
- label: "{개념 C}"
description: "실제 적용 사례 확장"
- label: "바로 다음 단계로"
description: "현재 이해 수준으로 충분"
선택된 개념에 대해:
콘텐츠 너머의 기초 지식 확장
검색 쿼리:
- "{핵심 개념} fundamentals explained"
- "{핵심 개념} 기초 원리"
- "{이론/방법론} research paper original"
- "{저자/발표자} other works recommendations"
## Foundation Expansion
### 이 콘텐츠의 기초가 되는 개념들
| 개념 | 설명 | 출처 |
|------|------|------|
| {기초 개념 1} | 1줄 설명 | {URL} |
| {기초 개념 2} | 1줄 설명 | {URL} |
### 더 깊이 들어가려면
- **선수 지식**: {이 콘텐츠를 완전히 이해하려면 알아야 할 것}
- **후속 학습**: {이 콘텐츠 다음에 볼 만한 것}
- **관련 연구**: {학술적 배경}
기존 지식과 연결할 때 학습 효과 극대화
research/digests/ 폴더의 기존 다이제스트 스캔:
## 관련 학습 기록
이 콘텐츠와 연결되는 이전 학습:
| 콘텐츠 | 타입 | 연결 포인트 | 날짜 |
|-------|------|------------|------|
| {이전 제목} | {youtube/web/pdf} | {공통 개념/대조되는 관점} | {날짜} |
### 지식 네트워크
```mermaid
graph LR
A[이번 콘텐츠] --> B[공통 개념]
C[이전 콘텐츠 1] --> B
D[이전 콘텐츠 2] --> B
---
## Phase 10: 문서 업데이트 (퀴즈 결과 반영)
Task Agent가 저장한 md 파일에 퀴즈 결과 추가:
```markdown
## Pre-Quiz 결과
{점수 및 Knowledge Gap 기록}
## 본 퀴즈 결과
{점수, 오답 노트}
## Elaborative Interrogation
{선택한 개념에 대한 심화 탐구}
기본 콘텐츠는 Phase 2에서 이미 저장됨. 여기서는 학습 결과만 추가.
AskUserQuestion:
questions:
- question: "다음으로 무엇을 하시겠습니까?"
header: "Next"
options:
- label: "다른 문제로 재퀴즈"
description: "같은 콘텐츠, 새로운 9문제"
- label: "Deep Research"
description: "웹 심층 조사로 확장 (references/deep-research.md)"
- label: "관련 콘텐츠 추천"
description: "이 주제의 다른 콘텐츠 찾기"
- label: "종료"
description: "학습 완료"
모드 선택 없음. 항상 Quiz-First로 진행.
연구에 따르면 학습 전 테스트가 9-12% 향상 효과를 가져오며, 요약을 먼저 보면 이 효과가 사라짐.
워크플로우 (고정):
1. 콘텐츠 타입 감지
2. Task Agent 실행 (추출 + 정제 + 웹 리서치 + md 저장)
3. 메인 세션에서 결과 md Read
4. Pre-Quiz (3문제) ← 반드시 먼저
5. 선택적 콘텐츠 제공
6. 본 퀴즈 (9문제)
7-9. 심화 학습 (Elaboration, Foundation, 스키마)
10. 문서 업데이트
11. 후속 선택
사용자가 "요약만", "퀴즈 없이" 등을 요청해도:
--list-subs: 자막 목록 확인--cookies-from-browser chrome: 로그인 필요 시항상 claude-in-chrome 사용. WebFetch 사용 금지.
1. tabs_context_mcp로 탭 컨텍스트 확인
2. tabs_create_mcp로 새 탭 생성
3. navigate로 URL 이동
4. get_page_text로 텍스트 추출
5. scroll로 전체 콘텐츠 로드 (무한 스크롤 대응)
6. get_page_text 재호출로 추가 콘텐츠 확인
7. read_page로 구조 파악 (필요시)
scripts/extract_metadata.sh - YouTube 메타데이터 추출scripts/extract_transcript.sh - YouTube 자막 추출references/quiz-patterns.md - 퀴즈 문제 유형 상세references/deep-research.md - Deep Research 워크플로우references/learning-science.md - 학습 과학 연구 근거이 워크플로우는 다음 연구에 기반:
Pretesting Effect (Richland et al., Roediger & Karpicke)
Information Gap Theory (Loewenstein, 1994)
Elaborative Interrogation (Dunlosky et al., 2013)
PACE Framework (Gruber et al., 2019)
상세: references/learning-science.md
Weekly Installs
126
Repository
GitHub Stars
9
First Seen
6 days ago
Security Audits
Gen Agent Trust HubPassSocketPassSnykWarn
Installed on
claude-code123
opencode8
codex8
gemini-cli7
github-copilot7
amp7
超能力技能使用指南:AI助手技能调用优先级与工作流程详解
40,300 周安装