last30days-skill
从最近 30 天中研究任意主题。也可通过 “last30” 触发。数据来源包括 Reddit、X、YouTube 和 Web。成为该领域专家,并生成可直接复制粘贴的提示词。 (GitClassic)
last30days v2.1:从最近 30 天研究任意主题
在 Reddit、X、YouTube 和 Web 上研究任何主题。提取人们当前真正讨论、推荐和争论的内容。 (GitClassic)
⚠️ 关键:解析用户意图
在执行任何操作之前,需要从用户输入中解析:
- TOPIC(主题):用户想了解的内容(例如:“web app mockups”、“Claude Code skills”、“image generation”)
- TARGET TOOL(目标工具)(如果指定):用户将使用提示词的工具(例如:“ChatGPT”、“Midjourney”)
-
QUERY TYPE(查询类型):用户希望进行的研究类型:
- PROMPTING(提示词):如 “X prompts”、“prompting for X” → 学习技巧 + 获取可复制提示词
- RECOMMENDATIONS(推荐):如 “best X”、“top X” → 获取具体列表
- NEWS(新闻):如 “what’s happening with X” → 获取最新动态
- GENERAL(通用):其他情况 → 获取整体理解
常见模式:
[topic] for [tool]→ 指定了工具[topic] prompts for [tool]→ 指定了工具- 仅
[topic]→ 未指定工具 - “best/top” → 推荐类查询
重要:在研究前不要询问目标工具。 (GitClassic)
需要存储的变量
TOPICTARGET_TOOL(未指定则为 “unknown”)QUERY_TYPE
在调用工具前,必须向用户展示解析结果:
我将从 Reddit、X 和 Web 中研究 {TOPIC},查找最近 30 天的讨论。
解析结果:
- TOPIC = {TOPIC}
- TARGET_TOOL = {TARGET_TOOL 或 "unknown"}
- QUERY_TYPE = {QUERY_TYPE}
研究通常需要 2-8 分钟(小众主题更久)。现在开始。
研究执行流程
Step 1:运行研究脚本(前台执行)
必须以前台方式运行(不可后台执行),超时时间为 5 分钟。 (GitClassic)
脚本会自动:
- 检测 API key
- 搜索 Reddit / X / YouTube
- 输出所有结果(包括 YouTube 转录)
输出包含三部分:
- X
- YouTube
Step 2:补充 WebSearch
在脚本完成后执行 WebSearch,用于补充博客、教程、新闻等内容。 (GitClassic)
根据 QUERY_TYPE 选择查询方式:
- 推荐类:搜索“best {TOPIC}”等
- 新闻类:搜索“{TOPIC} news 2026”
- 提示词类:搜索“{TOPIC} prompts examples”
- 通用类:搜索“{TOPIC} 2026”
要求:
- 使用用户原始术语
- 排除 reddit / x(已覆盖)
- 包含博客、文档、GitHub
Judge Agent:综合分析
完成所有搜索后,进行内部综合分析:
- Reddit / X 权重更高(有互动数据)
- YouTube 权重高(有观看量、点赞、转录)
- Web 权重较低
- 找出跨来源的共同模式
- 识别矛盾点
- 提取 3–5 个关键洞察 (GitClassic)
⚠️ 关键:基于“真实研究内容”
必须基于研究输出,而不是已有知识:
- 使用真实提到的产品名称
- 使用来源中的观点
- 避免“主观推测”
如果是推荐类查询(RECOMMENDATIONS)
必须提取具体名称:
示例(正确):
- /commit(5 次提及)
- remotion skill(4 次)
而不是泛泛总结。 (GitClassic)
输出结构
第一部分:What I learned
基于研究输出总结:
What I learned:
Topic 1 — 内容(来自 Reddit/X)
Topic 2 — 内容
Topic 3 — 内容
KEY PATTERNS:
1. ...
2. ...
3. ...
第二部分:统计信息(必须精确计算)
---
✅ All agents reported back!
├─ 🟠 Reddit: {N} threads │ {N} upvotes │ {N} comments
├─ 🔵 X: {N} posts │ {N} likes │ {N} reposts
├─ 🔴 YouTube: {N} videos │ {N} views │ {N} with transcripts
├─ 🌐 Web: {N} pages (supplementary)
└─ 🗣️ Top voices: @{handle1}, r/{sub}
---
第三部分:引导用户
根据 QUERY_TYPE 给出下一步建议,例如:
- 提问
- 深入分析
- 生成 prompt
必须提供 2–3 个具体示例。 (GitClassic)
用户回复后的处理
根据用户意图执行:
- 提问 → 直接回答
- 深入 → 扩展分析
- 创建内容 → 生成 Prompt
Prompt 生成规则
必须:
- 符合研究中推荐的格式(如 JSON / 结构化)
- 可直接复制使用
- 使用研究中提到的关键词
输出格式:
Here's your prompt for {TARGET_TOOL}:
---
[Prompt 内容]
---
This uses ...
Prompt 之后的总结
---
📚 Expert in: {TOPIC} for {TARGET_TOOL}
📊 Based on: {统计数据}
Want another prompt? Just tell me what you're creating next.
安全与权限
该技能会:
- 使用 OpenAI API 搜索 Reddit
- 使用 X API 或 Cookie 搜索 X
- 使用 yt-dlp 获取 YouTube 数据
- 使用搜索 API 获取 Web 内容
- 存储数据到本地 SQLite (SkillsLLM)
不会:
- 不会发帖或点赞
- 不会访问用户账号
- 不会共享 API key
- 不会记录密钥
- 不会发送未授权数据 (SkillsLLM)
项目总结(原文含义)
这是一个用于:
- 实时趋势研究(30 天)
- 社区驱动洞察(Reddit/X)
- 自动生成 Prompt
的 AI Skill 工具。 (SourcePulse)
如果你下一步想深入,我可以帮你做一版更“架构级拆解”: 👉 它本质上是一个「RAG + 多源信号加权 + Prompt 编译器」系统,甚至可以直接改造成你在做的 AI 根因分析平台的一部分。
