last30days-skill

从最近 30 天中研究任意主题。也可通过 “last30” 触发。数据来源包括 Reddit、X、YouTube 和 Web。成为该领域专家,并生成可直接复制粘贴的提示词。 (GitClassic)


last30days v2.1:从最近 30 天研究任意主题

在 Reddit、X、YouTube 和 Web 上研究任何主题。提取人们当前真正讨论、推荐和争论的内容。 (GitClassic)


⚠️ 关键:解析用户意图

在执行任何操作之前,需要从用户输入中解析:

  1. TOPIC(主题):用户想了解的内容(例如:“web app mockups”、“Claude Code skills”、“image generation”)
  2. TARGET TOOL(目标工具)(如果指定):用户将使用提示词的工具(例如:“ChatGPT”、“Midjourney”)
  3. QUERY TYPE(查询类型):用户希望进行的研究类型:

    • PROMPTING(提示词):如 “X prompts”、“prompting for X” → 学习技巧 + 获取可复制提示词
    • RECOMMENDATIONS(推荐):如 “best X”、“top X” → 获取具体列表
    • NEWS(新闻):如 “what’s happening with X” → 获取最新动态
    • GENERAL(通用):其他情况 → 获取整体理解

常见模式:

  • [topic] for [tool] → 指定了工具
  • [topic] prompts for [tool] → 指定了工具
  • [topic] → 未指定工具
  • “best/top” → 推荐类查询

重要:在研究前不要询问目标工具。 (GitClassic)


需要存储的变量

  • TOPIC
  • TARGET_TOOL(未指定则为 “unknown”)
  • QUERY_TYPE

在调用工具前,必须向用户展示解析结果:

我将从 Reddit、X 和 Web 中研究 {TOPIC},查找最近 30 天的讨论。

解析结果:
- TOPIC = {TOPIC}
- TARGET_TOOL = {TARGET_TOOL 或 "unknown"}
- QUERY_TYPE = {QUERY_TYPE}

研究通常需要 2-8 分钟(小众主题更久)。现在开始。

研究执行流程

Step 1:运行研究脚本(前台执行)

必须以前台方式运行(不可后台执行),超时时间为 5 分钟。 (GitClassic)

脚本会自动:

  • 检测 API key
  • 搜索 Reddit / X / YouTube
  • 输出所有结果(包括 YouTube 转录)

输出包含三部分:

  1. Reddit
  2. X
  3. YouTube

Step 2:补充 WebSearch

在脚本完成后执行 WebSearch,用于补充博客、教程、新闻等内容。 (GitClassic)

根据 QUERY_TYPE 选择查询方式:

  • 推荐类:搜索“best {TOPIC}”等
  • 新闻类:搜索“{TOPIC} news 2026”
  • 提示词类:搜索“{TOPIC} prompts examples”
  • 通用类:搜索“{TOPIC} 2026”

要求:

  • 使用用户原始术语
  • 排除 reddit / x(已覆盖)
  • 包含博客、文档、GitHub

Judge Agent:综合分析

完成所有搜索后,进行内部综合分析:

  1. Reddit / X 权重更高(有互动数据)
  2. YouTube 权重高(有观看量、点赞、转录)
  3. Web 权重较低
  4. 找出跨来源的共同模式
  5. 识别矛盾点
  6. 提取 3–5 个关键洞察 (GitClassic)

⚠️ 关键:基于“真实研究内容”

必须基于研究输出,而不是已有知识:

  • 使用真实提到的产品名称
  • 使用来源中的观点
  • 避免“主观推测”

如果是推荐类查询(RECOMMENDATIONS)

必须提取具体名称

示例(正确):

  • /commit(5 次提及)
  • remotion skill(4 次)

而不是泛泛总结。 (GitClassic)


输出结构

第一部分:What I learned

基于研究输出总结:

What I learned:

Topic 1 — 内容(来自 Reddit/X)
Topic 2 — 内容
Topic 3 — 内容

KEY PATTERNS:
1. ...
2. ...
3. ...

第二部分:统计信息(必须精确计算)

---
✅ All agents reported back!
├─ 🟠 Reddit: {N} threads │ {N} upvotes │ {N} comments
├─ 🔵 X: {N} posts │ {N} likes │ {N} reposts
├─ 🔴 YouTube: {N} videos │ {N} views │ {N} with transcripts
├─ 🌐 Web: {N} pages (supplementary)
└─ 🗣️ Top voices: @{handle1}, r/{sub}
---

第三部分:引导用户

根据 QUERY_TYPE 给出下一步建议,例如:

  • 提问
  • 深入分析
  • 生成 prompt

必须提供 2–3 个具体示例。 (GitClassic)


用户回复后的处理

根据用户意图执行:

  • 提问 → 直接回答
  • 深入 → 扩展分析
  • 创建内容 → 生成 Prompt

Prompt 生成规则

必须:

  • 符合研究中推荐的格式(如 JSON / 结构化)
  • 可直接复制使用
  • 使用研究中提到的关键词

输出格式:

Here's your prompt for {TARGET_TOOL}:

---

[Prompt 内容]

---

This uses ...

Prompt 之后的总结

---
📚 Expert in: {TOPIC} for {TARGET_TOOL}
📊 Based on: {统计数据}

Want another prompt? Just tell me what you're creating next.

安全与权限

该技能会:

  • 使用 OpenAI API 搜索 Reddit
  • 使用 X API 或 Cookie 搜索 X
  • 使用 yt-dlp 获取 YouTube 数据
  • 使用搜索 API 获取 Web 内容
  • 存储数据到本地 SQLite (SkillsLLM)

不会:

  • 不会发帖或点赞
  • 不会访问用户账号
  • 不会共享 API key
  • 不会记录密钥
  • 不会发送未授权数据 (SkillsLLM)

项目总结(原文含义)

这是一个用于:

  • 实时趋势研究(30 天)
  • 社区驱动洞察(Reddit/X)
  • 自动生成 Prompt

的 AI Skill 工具。 (SourcePulse)


如果你下一步想深入,我可以帮你做一版更“架构级拆解”: 👉 它本质上是一个「RAG + 多源信号加权 + Prompt 编译器」系统,甚至可以直接改造成你在做的 AI 根因分析平台的一部分。

参考资料