- 📁 agents/
- 📄 SKILL.md
apple-dev-docs
>-
>-
>-
>-
创建具有完整生态系统集成的新 DAAF 代理定义文件的指南。在添加新的专用代理、修改代理结构或验证跨文档的代理集成完整性时使用。 --- # 代理创作 创建符合规范模板的新 DAAF 代理,并完全连接到系统文档中以实现可发现性和可用性。 ## 此技能的用途 - 指导创建符合 `agent_reference/AGENT_TEMPLATE.md` 的代理 `.md` 文件(12 个强制部分) - 确保跨代理一致性(标准化置信模型、学习信号、STOP 格式等) - 提供**完整的集成检查表**,涵盖跨代码库引用代理的每个文件,以确保它是可发现的,并且系统代理可以很好地理解其调用模式 - 补充`skill-authoring`:该技能处理行为协议文件;如果新代理还需要配套技能,请单独调用“技能创作”## 决策树:您需要什么? ``你在做什么? │ ├─ 创建全新的代理 │ └─ 遵循下面的“新代理工作流程” │ ├─ 修改现有代理以匹配模板 │ └─ 阅读:references/template-walkthrough.md │ + agent_reference/AGENT_TEMPLATE.md(规范蓝图) │ ├─ 检查代理是否完全集成到生态系统中 │ └─ 阅读: references/integration-checklist.md │ ├─ 了解所有代理之间必须相同的内容 │ └─ 阅读:references/cross-agent-standards.md │ └─ 在添加之前了解当前的代理环境 └─ 阅读:agents/README.md (代理索引 + “常见混淆对”) ``` ## 新代理工作流程 ### 第 1 阶段:设计(编写之前) 在开始之前,您必须对以下每个问题都有清晰、连贯且令人信服的答案: 1. **用一句话定义角色** — 该代理的作用是什么以及它为何存在? 2. **识别管道阶段** - 它在哪个阶段运行,或者我
用于数学和文本文件的小型 Python 实用程序。
>-
当要求审核、评估或报告 Copilot Studio 和 Microsoft 365 Copilot 代理中的 AI 代理安全状况时,请使用此技能。在“AI 代理状态”、“代理安全审核”、“Copilot Studio 代理”、“代理库存”、“代理身份验证”、“未经身份验证的代理”、“代理工具”、“代理上的 MCP 工具”、“代理知识源”、“XPIA 风险”、“代理蔓延”、“AI 代理风险”、“代理治理”等关键字上触发,或者在调查 AI 代理配置、访问策略、工具权限或凭证暴露时触发。 此技能查询高级狩猎中的 AIAgentsInfo 表,以生成全面的安全态势评估,涵盖代理库存、身份验证差距、访问控制错误配置、MCP 工具扩散、知识源暴露、XPIA 电子邮件泄露风险、硬编码凭据检测、HTTP 请求风险、创建者治理和代理蔓延分析。支持内联聊天和 Markdown 文件输出。
在 Ruby 项目中工作时使用 - 提供文档、类型和工具的权威来源
|-
使用 Salesforce Agent Script(用于使用 Atlas Reasoning Engine 创作 Agentforce 代理的脚本语言)时使用此技能。触发器包括:创建、修改或理解Agent Script代理;使用 AiAuthoringBundle 文件或 .agent 文件;设计主题图或流程控制;制定或更新代理规范;验证代理脚本或诊断编译错误;预览代理或调试行为问题;部署、发布、激活或停用代理;删除或重命名代理;编写 AiEvaluationDefinition 测试规范或运行代理测试。这项技能从头开始教授代理脚本 - 人工智能模型对此语言的先前训练数据为零。请勿用于 Apex 开发、流程构建、提示模板创作、Experience Cloud 配置或与代理脚本无关的常规 Salesforce CLI 任务。
根据黄金参考对座席行为进行评估和评分。每当用户想要运行评估、检查通过/失败状态、了解指标分数、比较会话的回归、验证代理行为或对文件或实时会话的跟踪进行评分时,请使用此技能。触发诸如“评估此跟踪”、“检查我的代理输出”、“我的代理是否做了正确的事情”、“比较运行”、“我的代理回归了吗”、“对会话 X 进行评分”、“针对黄金进行评估”、“运行评估”等短语。适用于本地跟踪文件和实时流会话。 --- 评估代理行为并解释分数的含义。 ## 确定输入类型 首先,确定要评估的内容: - **跟踪文件** — 用户提及 `.json` 或 `.jsonl` 文件路径 → 使用 `evaluate_traces` - **Sessions 与 Golden** — 用户有多个实时会话并希望进行回归测试 → 使用 `evaluate_sessions` - **单个实时会话** — 用户希望针对黄金评估集对一个会话进行评分 → 指导他们将 `evaluate_sessions` 与一个会话一起使用Golden ## 评估跟踪文件 1. 获取文件路径。检查扩展名: `.jsonl` → `trace_format: "otlp-json"` | `.json` → `"jaeger-json"`(默认) 2. 询问他们是否有黄金评估集 JSON。对于“tool_trajectory_avg_score”(默认指标),需要一个评估集 - 它提供了要进行比较的预期工具调用序列。 如果他们还没有,请解释这一点并建议从“hallucinations_v1”开始,或者询问他们是否想首先从参考运行中创建一个黄金集。 3. 使用文件、格式和评估集调用“evaluate_traces”。 4. 以分数表形式呈现结果(请参阅下面的分数解释)并解释失败的原因。 ## 评估会话(回归测试) 此工作流程要求服务器使用“--dev”标志运行(启用 WebSocket 和会话流)。普通的“agentevasserve”不会有会话。如果您从下面的任何工具中收到连接错误,请告诉用户:``bash uv run agentevalsserve --dev``
用于 AI 代理的 React DevTools CLI。当用户要求您在运行时调试 React 或 React Native 应用程序、检查组件 props/state/hooks、诊断渲染性能、分析重新渲染、查找缓慢组件或了解某些内容重新渲染的原因时使用。触发器包括“为什么要重新渲染”、“检查组件”、“X 有什么 props”、“分析应用程序”、“查找缓慢的组件”、“调试 UI”、“检查组件状态”、“应用程序感觉很慢”或任何 React 运行时调试任务。
skill-sample/ ├─ SKILL.md ⭐ 必备:技能说明入口:用途 / 安装 / 用法 / 示例 / 依赖 ├─ manifest.sample.json ⭐ 推荐:机器可读元信息:用于索引 / 校验 / 自动填表 ├─ LICENSE.sample ⭐ 推荐:授权与使用范围:开源 / 限制 / 商用说明 ├─ scripts/ │ └─ example-run.py ✅ 可运行示例脚本:让用户导入后立刻验证“能用” ├─ assets/ │ ├─ example-formatting-guide.md 🧩 输出规范:统一排版 / 结构 / 风格 │ └─ example-template.tex 🧩 模板资源:报告/文档模板,快速生成标准产物 └─ references/ 🧩 参考资料库:方法论 / 结构指南 / 最佳实践 ├─ example-ref-structure.md 🧩 结构参考:章节框架 / 目录组织 ├─ example-ref-analysis.md 🧩 分析参考:常用套路 / 指标口径 └─ example-ref-visuals.md 🧩 视觉参考:图表规范 / 可视化建议
更多 Agent Skills 规范 详见Anthropic官方文档:https://agentskills.io/home
├─ ⭐ 必备:YAML Frontmatter(必须存在,放在文件最顶部) │ ├─ ⭐ name :技能唯一名;须符合命名规则,并建议与目录名一致 │ └─ ⭐ description :技能描述;建议包含触发关键词(便于检索/匹配) │ ├─ ✅ 可选:Frontmatter 扩展字段(规范允许,但非强制) │ ├─ ✅ license :许可证标识(也可配合单独 LICENSE 文件) │ ├─ ✅ compatibility :兼容性/运行环境要求(仅在确实有限制时写) │ ├─ ✅ metadata :任意键值对(如 author/version/source_url 等) │ └─ 🧩 allowed-tools :允许工具白名单(规范标注为 experimental) │ └─ ✅ 推荐:Markdown 正文(自由格式,但建议按“渐进式披露”组织) ├─ ✅ Overview / Purpose :一句话说明目标 + 不做什么(边界) ├─ ✅ When to use :触发条件/适用场景(让模型/用户知道何时调用) ├─ ✅ Step-by-step :步骤化流程(最好 3–6 步,保证可复现) ├─ ✅ Inputs / Outputs :输入格式、输出格式、产物位置(文件/文本/JSON等) ├─ ✅ Examples :至少 1 个可复制示例(越“能跑”越好) ├─ 🧩 Files & References :引用assets/、references/、scripts/(相对路径) ├─ 🧩 Edge cases :边界情况/限制(大文件、速率限制、失败回退) ├─ 🧩 Troubleshooting :常见错误与解决(依赖缺失、路径不对、权限问题) └─ 🧩 Safety notes :涉及联网/写文件/执行命令时给出提醒(建议写)
在 GitHub 和各类社区里,技能文件分散、难检索、也难判断是否可靠。SkillWink 把开源技能集中整理成可搜索、可筛选、可直接下载使用的技能库,让你更快找到“正好能用”的那一个。并且支持在SkillWink上直接上传skills。
我们提供 AI 语义搜索 + 关键字检索,支持 版本更新与多维排序(下载/点赞/评论/更新),并为每个技能提供 SKILL.md 开放标准与来源信息。你还可以在详情页直接 评论讨论、交流用法与改进建议。
快速上手:
支持下载与导入 skills(.zip/.skill),本地放置后即可生效:
~/.claude/skills/(Claude Code)
~/.codex/skills/(Codex CLI)
~/.gemini/skills/(Gemini CLI)
同一份 SKILL.md 跨平台通用。
你需要了解的:技能是什么、怎么运行的、怎么找、怎么导入、怎么判断可信、怎么参与共建。
这里的“skills(技能)”是一种可复用的任务能力包,通常包含 SKILL.md 说明(用途、输入输出、使用方法)以及可选的脚本/模板/示例文件。
你可以把它理解为:给 AI 助手或工具链用的“插件说明书 + 资源包”,可被反复安装与分享。
技能系统采用“渐进式披露”策略,高效管理上下文信息,具体流程如下:
发现阶段:系统启动时,智能体仅加载各技能的名称与简要描述——信息精简,足以判断其适用场景,避免冗余加载。
激活阶段:当任务需求与某技能描述匹配时,智能体才将对应的完整 SKILL.md 说明文档动态载入上下文。
执行阶段:智能体严格遵循文档指引执行操作,并按需调用关联文件或运行内置代码模块。
核心优势:该设计使智能体始终保持轻量高效,同时具备“按需扩展上下文”的能力,既保障响应速度,又确保复杂任务拥有充分执行依据。
推荐 3 种方式组合使用:
注:以上导入方式文件大小控制在10M之内。
常见路径如下(不同系统略有差异,以你本机为准):
同一份 SKILL.md 通常可以跨工具复用。你在 SkillWink 导入后,也可以查看“放置指引/安装说明”。
可以。很多技能本质是标准化说明 + 资源,只要目标工具支持读取该格式,就能共享使用。
比如:检索类技能 + 写作类技能 + 自动化脚本,形成“发现 → 处理 → 输出”的工作流。
一部分skills来源于公开的 GitHub 仓库。我们会筛掉低质量仓库(至少 2 星),并扫描基本质量指标,还有一部分是SkillWink平台的创作者独立上传的。作为使用者,在安装前应始终审查代码,对安全问题负责。
最常见原因是这几类:
我们会尽量避免。你可以用 排序 + 评论 让“好用的”更靠前: