- 📄 SKILL.md
create-serena-memory-for-component
为任意组件或模块创建/更新 Serena memory 的工作流与格式规范。用于用户要求“源码级梳理并写入 Serena memory”的场景,例如“对 X 进行源码级梳理并写入 Y.md”,或者“分析 X 并生成Serena memory”。适用于组件类/接口名或模块名(如 OACModule_*),并要求输出包含概述/职责/涉及文件/架构/依赖/注意事项/调用方等章节。
为任意组件或模块创建/更新 Serena memory 的工作流与格式规范。用于用户要求“源码级梳理并写入 Serena memory”的场景,例如“对 X 进行源码级梳理并写入 Y.md”,或者“分析 X 并生成Serena memory”。适用于组件类/接口名或模块名(如 OACModule_*),并要求输出包含概述/职责/涉及文件/架构/依赖/注意事项/调用方等章节。
反思记忆
使用 Cognis by Lyzr 为 AI 代理提供持久记忆和上下文。当用户提到“记住这个”、“我做了什么”、“保存这个供以后使用”、“团队知识”、“项目背景”、“回忆”、“记忆”或需要跨会话的长期记忆时,请使用此技能。当用户询问过去的决定、偏好或之前的对话时也可以使用。支持个人记忆(每个用户)、团队记忆(在存储库贡献者之间共享)、语义搜索和自动上下文组装。
使用 Cognis by Lyzr 为 AI 代理提供持久记忆和上下文。当用户提到“记住这个”、“我做了什么”、“保存这个供以后使用”、“团队知识”、“项目背景”、“回忆”、“记忆”或需要跨会话的长期记忆时,请使用此技能。当用户询问过去的决定、偏好或之前的对话时也可以使用。支持个人记忆(每个用户)、团队记忆(在存储库贡献者之间共享)、语义搜索和自动上下文组装。
当 Codex 用户或 Codex 代理需要通过 MCP 安装、配置、验证、故障排除或操作 Mnemos 时,或者当他们在 Codex 中提及 Codex 内存、AGENTS.md 内存策略、Codex Automations 或 Mnemos 时使用。
自适应记忆系统可以让任何法学硕士的输出随着时间的推移变得更好。从每次扫描中了解什么有效(策略)和什么无效(抗体)。在生成之前注入获胜模式,在生成之后捕获错误。具有多域支持的热/冷分层内存。
AI 工作空间的结构化内存系统。将 Markdown 内存文件索引到 SQLite FTS5 中,以进行快速引用搜索。提取结构化事实,维护内存健康状况,并为 MCP 服务器提供用于 Claude Code 集成的实时搜索 + 写入路径。 --- # 结构化内存引擎 ## MCP 工具 (v4) 当作为 MCP 服务器运行时 (`node lib/mcp-server.js`),公开: - `sme_query` — 搜索内存。支持`query`、`limit`、`since`、`type`、`minConfidence`、`includeStale`。 - `sme_context` — 获取消息的相关上下文。返回排序的、令牌预算的、格式化的上下文以进行注入。支持 `message`、`maxTokens`。 - `sme_remember` — 将事实/决定/偏好保存到今天的内存日志中。自动索引。 - `sme_index` — 重新索引工作区。使用“force: true”进行完全重建。 - `sme_reflect` — 运行维护:衰减、强化、陈旧检测、矛盾、修剪。 使用 `dryRun: true` 进行预览。 - `sme_status` — 索引统计信息。 ## CLI 命令 ```bash # 索引工作区内存文件节点 lib/index.js index [--workspace PATH] [--force] [--include extra.md,other.md] # 搜索索引内存节点 lib/index.js 查询“search terms” [--limit N] [--since 7d|2w|3m|2026-01-01] [--context N] [--type fact|confirmed|inferred|...] [--min-confidence 0.5] [--include-stale] # 显示索引状态 node lib/index.js status [--workspace PATH] # 内存维护节点 lib/index.js 反映 [--workspace PATH] [--dry-run] node lib/index.js 矛盾 [--workspace PATH] [--unresolved] node lib/index.js archived [--workspace PATH] [--limit N] node lib/index.js Restore <chunk-id> [--workspace PATH] ``` ## 配置
当用户想要审核长期记忆中是否有陈旧、不正确、过时或重复的条目,或根据新信息更正内存条目时使用
查看和更改 hmem 内存设置、挂钩、同步和检查点配置。每当用户键入 /hmem-config、要求更改内存设置、调整参数、调整批量读取行为、配置自动检查点、管理 hmem-sync 或解决内存相关问题时,请使用此技能。当用户询问“自动保存火力的频率”、“为什么我的上下文如此大”、“将检查点更改为自动”、“启动需要多少令牌”或“设置同步”等问题时也会触发。 --- # hmem-config — 查看和更改设置 此技能将指导您阅读、解释和更新 hmem 的配置。该配置控制内存如何存储、显示、检查点以及跨设备同步。 ## 找到并读取配置 配置位于与 .hmem 文件相同的目录中的 `hmem.config.json` 中。 位于 `~/.hmem/hmem.config.json` (与 .hmem 文件位于同一目录中)。直接读取文件——不要询问用户它在哪里。如果不存在,请创建一个(仅需要指定非默认值)。该配置使用统一格式,包含“内存”块和可选的“同步”块:````json { "memory": { ... }, "sync": { ... } } ``` ## 显示当前设置 呈现当前值与默认值的表格。仅突出显示与默认值不同的值 - 用户关心他们自定义的内容,而不是完整列表。 ###核心参数|参数|默认 |目的| |------------|---------|---------| | `maxCharsPerLevel` | | `maxCharsPerLevel` [200, 2500, 10000, 25000, 50000] |每个树级别的字符限制 [L1–L5]。 L1 始终在启动时加载,因此保持简短可以在每个会话中节省令牌。 L5 是原始数据,很少被访问。 | | `最大深度` | 5 |树深度 (1–5)。大多数用户需要 5。较低的值可以节省存储空间,但会失去粒度。 | | `默认读取限制` | 100 | 100每次批量读取的最大条目数。较低 = 启动速度更快,较高 = 概述更完整。 | | `maxTitleChars` | 50 | 50自动提取的标题长度。仅适用于没有明确说明的条目
Distill a graduated lab senior into an AI Skill. Import chats, meeting notes, photos, and screenshots to build Group Memory + Persona with continuous evolution. | 把毕业大师兄蒸馏成 AI Skill,导入聊天记录、组会纪要、照片和截图,生成 Group Memory + Persona,支持持续进化。
您必须在任何工作之前使用它来调用项目内存,并在实施之后使用它来存储决策。 Lossless-claude (lcm) 通过 CLI 命令提供持久的跨会话内存。
Zo 计算机的混合 SQLite + Vector 角色内存系统。具有时间查询、图形增强搜索、BFS 路径查找、知识差距分析、自动捕获管道的情景记忆。为角色提供持久记忆,包括语义搜索(nomic-embed-text)、HyDE 查询扩展(qwen2.5:1.5b)、Ollama 支持的内存门、5 层衰减和群体集成。需要 Ollama 进行嵌入。
skill-sample/ ├─ SKILL.md ⭐ 必备:技能说明入口:用途 / 安装 / 用法 / 示例 / 依赖 ├─ manifest.sample.json ⭐ 推荐:机器可读元信息:用于索引 / 校验 / 自动填表 ├─ LICENSE.sample ⭐ 推荐:授权与使用范围:开源 / 限制 / 商用说明 ├─ scripts/ │ └─ example-run.py ✅ 可运行示例脚本:让用户导入后立刻验证“能用” ├─ assets/ │ ├─ example-formatting-guide.md 🧩 输出规范:统一排版 / 结构 / 风格 │ └─ example-template.tex 🧩 模板资源:报告/文档模板,快速生成标准产物 └─ references/ 🧩 参考资料库:方法论 / 结构指南 / 最佳实践 ├─ example-ref-structure.md 🧩 结构参考:章节框架 / 目录组织 ├─ example-ref-analysis.md 🧩 分析参考:常用套路 / 指标口径 └─ example-ref-visuals.md 🧩 视觉参考:图表规范 / 可视化建议
更多 Agent Skills 规范 详见Anthropic官方文档:https://agentskills.io/home
├─ ⭐ 必备:YAML Frontmatter(必须存在,放在文件最顶部) │ ├─ ⭐ name :技能唯一名;须符合命名规则,并建议与目录名一致 │ └─ ⭐ description :技能描述;建议包含触发关键词(便于检索/匹配) │ ├─ ✅ 可选:Frontmatter 扩展字段(规范允许,但非强制) │ ├─ ✅ license :许可证标识(也可配合单独 LICENSE 文件) │ ├─ ✅ compatibility :兼容性/运行环境要求(仅在确实有限制时写) │ ├─ ✅ metadata :任意键值对(如 author/version/source_url 等) │ └─ 🧩 allowed-tools :允许工具白名单(规范标注为 experimental) │ └─ ✅ 推荐:Markdown 正文(自由格式,但建议按“渐进式披露”组织) ├─ ✅ Overview / Purpose :一句话说明目标 + 不做什么(边界) ├─ ✅ When to use :触发条件/适用场景(让模型/用户知道何时调用) ├─ ✅ Step-by-step :步骤化流程(最好 3–6 步,保证可复现) ├─ ✅ Inputs / Outputs :输入格式、输出格式、产物位置(文件/文本/JSON等) ├─ ✅ Examples :至少 1 个可复制示例(越“能跑”越好) ├─ 🧩 Files & References :引用assets/、references/、scripts/(相对路径) ├─ 🧩 Edge cases :边界情况/限制(大文件、速率限制、失败回退) ├─ 🧩 Troubleshooting :常见错误与解决(依赖缺失、路径不对、权限问题) └─ 🧩 Safety notes :涉及联网/写文件/执行命令时给出提醒(建议写)
在 GitHub 和各类社区里,技能文件分散、难检索、也难判断是否可靠。SkillWink 把开源技能集中整理成可搜索、可筛选、可直接下载使用的技能库,让你更快找到“正好能用”的那一个。并且支持在SkillWink上直接上传skills。
我们提供 AI 语义搜索 + 关键字检索,支持 版本更新与多维排序(下载/点赞/评论/更新),并为每个技能提供 SKILL.md 开放标准与来源信息。你还可以在详情页直接 评论讨论、交流用法与改进建议。
快速上手:
支持下载与导入 skills(.zip/.skill),本地放置后即可生效:
~/.claude/skills/(Claude Code)
~/.codex/skills/(Codex CLI)
~/.gemini/skills/(Gemini CLI)
同一份 SKILL.md 跨平台通用。
你需要了解的:技能是什么、怎么运行的、怎么找、怎么导入、怎么判断可信、怎么参与共建。
这里的“skills(技能)”是一种可复用的任务能力包,通常包含 SKILL.md 说明(用途、输入输出、使用方法)以及可选的脚本/模板/示例文件。
你可以把它理解为:给 AI 助手或工具链用的“插件说明书 + 资源包”,可被反复安装与分享。
技能系统采用“渐进式披露”策略,高效管理上下文信息,具体流程如下:
发现阶段:系统启动时,智能体仅加载各技能的名称与简要描述——信息精简,足以判断其适用场景,避免冗余加载。
激活阶段:当任务需求与某技能描述匹配时,智能体才将对应的完整 SKILL.md 说明文档动态载入上下文。
执行阶段:智能体严格遵循文档指引执行操作,并按需调用关联文件或运行内置代码模块。
核心优势:该设计使智能体始终保持轻量高效,同时具备“按需扩展上下文”的能力,既保障响应速度,又确保复杂任务拥有充分执行依据。
推荐 3 种方式组合使用:
注:以上导入方式文件大小控制在10M之内。
常见路径如下(不同系统略有差异,以你本机为准):
同一份 SKILL.md 通常可以跨工具复用。你在 SkillWink 导入后,也可以查看“放置指引/安装说明”。
可以。很多技能本质是标准化说明 + 资源,只要目标工具支持读取该格式,就能共享使用。
比如:检索类技能 + 写作类技能 + 自动化脚本,形成“发现 → 处理 → 输出”的工作流。
一部分skills来源于公开的 GitHub 仓库。我们会筛掉低质量仓库(至少 2 星),并扫描基本质量指标,还有一部分是SkillWink平台的创作者独立上传的。作为使用者,在安装前应始终审查代码,对安全问题负责。
最常见原因是这几类:
我们会尽量避免。你可以用 排序 + 评论 让“好用的”更靠前: