- 📁 references/
- 📄 _meta.json
- 📄 SKILL.md
agent-mbti
基于MBTI框架的AI Agent性格诊断与配置系统。当用户想要 (1) 测试/诊断 Agent 的个性类型,(2) 了解 Agent 的实际个性与用户期望的个性之间的差距,(3) 生成配置建议以调整 Agent 行为,(4) 自定义 Agent 的通信风格、主动性、推理方法或执行模式时使用。支持免费层(快速评估)和高级层(包含详细诊断的完整 93 个问题评估)。
基于MBTI框架的AI Agent性格诊断与配置系统。当用户想要 (1) 测试/诊断 Agent 的个性类型,(2) 了解 Agent 的实际个性与用户期望的个性之间的差距,(3) 生成配置建议以调整 Agent 行为,(4) 自定义 Agent 的通信风格、主动性、推理方法或执行模式时使用。支持免费层(快速评估)和高级层(包含详细诊断的完整 93 个问题评估)。
当用户参考以前的工作、询问最近发生的事情、需要有关项目或人员的背景信息,或者当您应该存储通话、会议或重要对话的笔记时,请使用。当用户说“记住这一点”或要求您搜索内存时也会激活。
用于 ATXP 验证代理的 Git 存储库托管 — 创建存储库、获取经过身份验证的克隆/推送 URL,以及管理 code.storage 上的存储库
当用户希望 AI 将需求文本、需求文档和现有审查的计划文件转换为依存关系排序的实施计划(综合的“checklist.md”)时使用,并且仅在明确的执行命令之后,才在安全的情况下使用子代理并行实施这些计划,并在需要的情况下按顺序实施这些计划。
完整的 ATEL 技能——从零到赚取 USDC。一个文件涵盖所有内容:安装、身份、钱包、注册、免费/付费订单、里程碑、托管、争议、余额。 AI 代理读取此信息一次后即可在 ATEL 上完全运行。
使用 Agora 产品编写代码和集成指南。涵盖 RTC(视频/语音、直播、屏幕共享)、RTM/信令、对话式 AI 语音代理、Agora CLI 项目工作流程、云录制、服务器网关和令牌生成。用于 Agora、RTC、RTM、ConvoAI、“agora” CLI、“agora 登录”、“agora 项目创建”、“agora 项目环境”、“agora 项目医生”、视频通话、语音通话、屏幕共享、录音、令牌、信令或跨 Web、React、Next.js、iOS、Android、Go 和 Python 的 ConvoAI 请求。规则:仅使用 Agora 集成的技能参考文件 - 不要在网络上搜索 Agora 文档。对于 ConvoAI 演示或原型,请始终首先克隆官方示例 - 不要从头开始实施。
Personal Multi-Platform Publisher — 一文多发工具,将 Markdown 文章同时发布到微信公众号和小红书。微信端通过 wenyan-cli + 自建服务器代理,小红书端通过浏览器自动化。
验证 GSP 管道完整性 - 代理/技能合同、安装程序正确性、运行时兼容性、版本同步和模板一致性。 GSP 维护者的内部开发工具。
当需要定义或更新验收门禁时,使用本 Skill 管理设计确认门、逻辑确认门、实现质量门、交付质量门和 parity-gate。 在任何完成声明之前强制执行验证铁律:没有新鲜证据,不得宣称完成。 --- # 验收门管理器 ## 验证铁律 ``` 没有在当前步骤运行验证命令并看到输出,不得宣称任何完成状态 ``` 这条铁律适用于所有完成声明、满意表达和正向状态描述。 ### 5 步验证门 在宣称任何完成状态之前,必须依次执行: 1. **IDENTIFY**:什么命令或证据能证明这个声明? 2. **RUN**:执行完整命令(新鲜的、完整的,不是上一次的结果) 3. **READ**:完整阅读输出,检查退出码,数清失败数 4. **VERIFY**:输出是否确认了声明? - 如果否 → 陈述实际状态和证据 - 如果是 → 带着证据陈述声明 5. **CLAIM**:只有在以上步骤全部完成后,才能做出声明 跳过任何一步 = 不诚实,不是高效。 ### 禁止措辞 以下措辞在没有对应验证证据时绝对禁止使用: - "应该可以了" - "应该没问题" - "大概通过了" - "看起来正确" - "基本完成了" - "应该能用了" - "问题应该解决了" - 任何包含"应该""大概""看起来""基本"的完成性表述 ### 常见完成声明的证据要求 | 声明 | 需要的证据 | 不够的证据 | |------|-----------|-----------| | 测试通过 | 测试命令输出:0 failures | 上一次运行结果、"应该通过" | | 构建成功 | 构建命令:exit 0 | Lint 通过、"看起来没问题" | | Bug 已修复 | 复现原始症状的测试通过 | 代码改了、"应该修好了" | | 需求已满足 | 逐条对照检查清单 | 测试通过(测试不等于需求) | | 子代理已完成 | 检查 VCS diff 确认变更 | 子代理报告"成功" | | 静态校验通过 | 项目构建命令(mvn compile / tsc / pnpm build 等)exit 0 | IDE ReadLints "无错误"、编辑器无标红 | | 无回归 | 全量测试通过 | 部分测试通过 | ### 自我合理化防御 | 借口 | 现实 | |------|------| | "应该能用了" | 运行验证命令 | | "我很有信心" | 信心不是证据 | | "就这一次" | 没有例外 | | "Lint 通过了" / "ReadLints 无错误" | IDE 诊断不等于编译、不等于测试;必须用项目构建工具链验证 | | "子代理说成功了" | 独立验证 | | "已经很晚了、很累了" | 疲劳不是借口 | | "部分检查够了" | 部分证据什么也证明不了 | ## 使用时机 - `/plan` 生成 acceptance - `/verify` 更新门禁状态 - `/ship` 前检查是否真的可以交付 - **任何即将宣称"完成"的时刻** ## 使用方式 1. 生成或更新 `.ai-os/acceptance.yaml` 2. 根据 `../../references/risk-triggers.md` 判断当前 `quality_tier`,并在高风险档写入 `required_special_reviews` 3. 确保存在以下门禁: - `design-confirmation` - `logic-confirmation` - `implementation-quality` - `delivery-readiness` - `parity-gate`(reverse-spec 适用) 4. 为每个门禁绑定检查项和证据,至少覆盖契约基准一致性、项目原生静态校验、人工动作显式化和 degraded-path 证据 5. 发现门未通过时,禁止宣称完成 ## 质量判断原则 - 页面像但逻辑错:不通过 - 逻辑对但体验和 IA 明显偏:不通过 - 关键技术栈、目标运行态或不可逆方案未确认:相关门禁不通过 - 只有入口、占位态或 demo,关键能力并不真实可用:不通过 - 未实现或未验证的能力被写成已完成:不通过 - 只有正常路径证据,没有异常 / 空数据 / 权限拒绝 / 超时证据:不通过 - fallback 结果充当正式交付:不通过 - 没有项目原生静态校验证据,且也没有显式记录仓库缺少入口:不通过 - 仍需人工执行 SQL / 重启 / 迁移 / 补数 / 环境变更,却没有在交付说明中显式列出:不通过 ## 危险信号 —— 立即停下 如果你正准备: - 使用上方禁止措辞中的任何表述 - 在跑命令前表达满意 - 准备提交 / 推送 / 创
当您需要将新的 Claude Code 代理(新的 tmux 窗口)附加到现有正在运行的 octomux 任务,共享任务的工作树和 cwd 时使用
指导 AI 代理通过 NyxID MCP 元工具通过 AI 生成在 Ornn 平台上创建新技能
使用 PostHog 分析用户行为模式和群组
skill-sample/ ├─ SKILL.md ⭐ 必备:技能说明入口:用途 / 安装 / 用法 / 示例 / 依赖 ├─ manifest.sample.json ⭐ 推荐:机器可读元信息:用于索引 / 校验 / 自动填表 ├─ LICENSE.sample ⭐ 推荐:授权与使用范围:开源 / 限制 / 商用说明 ├─ scripts/ │ └─ example-run.py ✅ 可运行示例脚本:让用户导入后立刻验证“能用” ├─ assets/ │ ├─ example-formatting-guide.md 🧩 输出规范:统一排版 / 结构 / 风格 │ └─ example-template.tex 🧩 模板资源:报告/文档模板,快速生成标准产物 └─ references/ 🧩 参考资料库:方法论 / 结构指南 / 最佳实践 ├─ example-ref-structure.md 🧩 结构参考:章节框架 / 目录组织 ├─ example-ref-analysis.md 🧩 分析参考:常用套路 / 指标口径 └─ example-ref-visuals.md 🧩 视觉参考:图表规范 / 可视化建议
更多 Agent Skills 规范 详见Anthropic官方文档:https://agentskills.io/home
├─ ⭐ 必备:YAML Frontmatter(必须存在,放在文件最顶部) │ ├─ ⭐ name :技能唯一名;须符合命名规则,并建议与目录名一致 │ └─ ⭐ description :技能描述;建议包含触发关键词(便于检索/匹配) │ ├─ ✅ 可选:Frontmatter 扩展字段(规范允许,但非强制) │ ├─ ✅ license :许可证标识(也可配合单独 LICENSE 文件) │ ├─ ✅ compatibility :兼容性/运行环境要求(仅在确实有限制时写) │ ├─ ✅ metadata :任意键值对(如 author/version/source_url 等) │ └─ 🧩 allowed-tools :允许工具白名单(规范标注为 experimental) │ └─ ✅ 推荐:Markdown 正文(自由格式,但建议按“渐进式披露”组织) ├─ ✅ Overview / Purpose :一句话说明目标 + 不做什么(边界) ├─ ✅ When to use :触发条件/适用场景(让模型/用户知道何时调用) ├─ ✅ Step-by-step :步骤化流程(最好 3–6 步,保证可复现) ├─ ✅ Inputs / Outputs :输入格式、输出格式、产物位置(文件/文本/JSON等) ├─ ✅ Examples :至少 1 个可复制示例(越“能跑”越好) ├─ 🧩 Files & References :引用assets/、references/、scripts/(相对路径) ├─ 🧩 Edge cases :边界情况/限制(大文件、速率限制、失败回退) ├─ 🧩 Troubleshooting :常见错误与解决(依赖缺失、路径不对、权限问题) └─ 🧩 Safety notes :涉及联网/写文件/执行命令时给出提醒(建议写)
在 GitHub 和各类社区里,技能文件分散、难检索、也难判断是否可靠。SkillWink 把开源技能集中整理成可搜索、可筛选、可直接下载使用的技能库,让你更快找到“正好能用”的那一个。并且支持在SkillWink上直接上传skills。
我们提供 AI 语义搜索 + 关键字检索,支持 版本更新与多维排序(下载/点赞/评论/更新),并为每个技能提供 SKILL.md 开放标准与来源信息。你还可以在详情页直接 评论讨论、交流用法与改进建议。
快速上手:
支持下载与导入 skills(.zip/.skill),本地放置后即可生效:
~/.claude/skills/(Claude Code)
~/.codex/skills/(Codex CLI)
~/.gemini/skills/(Gemini CLI)
同一份 SKILL.md 跨平台通用。
你需要了解的:技能是什么、怎么运行的、怎么找、怎么导入、怎么判断可信、怎么参与共建。
这里的“skills(技能)”是一种可复用的任务能力包,通常包含 SKILL.md 说明(用途、输入输出、使用方法)以及可选的脚本/模板/示例文件。
你可以把它理解为:给 AI 助手或工具链用的“插件说明书 + 资源包”,可被反复安装与分享。
技能系统采用“渐进式披露”策略,高效管理上下文信息,具体流程如下:
发现阶段:系统启动时,智能体仅加载各技能的名称与简要描述——信息精简,足以判断其适用场景,避免冗余加载。
激活阶段:当任务需求与某技能描述匹配时,智能体才将对应的完整 SKILL.md 说明文档动态载入上下文。
执行阶段:智能体严格遵循文档指引执行操作,并按需调用关联文件或运行内置代码模块。
核心优势:该设计使智能体始终保持轻量高效,同时具备“按需扩展上下文”的能力,既保障响应速度,又确保复杂任务拥有充分执行依据。
推荐 3 种方式组合使用:
注:以上导入方式文件大小控制在10M之内。
常见路径如下(不同系统略有差异,以你本机为准):
同一份 SKILL.md 通常可以跨工具复用。你在 SkillWink 导入后,也可以查看“放置指引/安装说明”。
可以。很多技能本质是标准化说明 + 资源,只要目标工具支持读取该格式,就能共享使用。
比如:检索类技能 + 写作类技能 + 自动化脚本,形成“发现 → 处理 → 输出”的工作流。
一部分skills来源于公开的 GitHub 仓库。我们会筛掉低质量仓库(至少 2 星),并扫描基本质量指标,还有一部分是SkillWink平台的创作者独立上传的。作为使用者,在安装前应始终审查代码,对安全问题负责。
最常见原因是这几类:
我们会尽量避免。你可以用 排序 + 评论 让“好用的”更靠前: