axiom-ios-ml by charleswiltgen/axiom
npx skills add https://github.com/charleswiltgen/axiom --skill axiom-ios-ml对于任何设备端机器学习或语音转文字工作,您必须使用此技能。
在以下情况使用此路由:
ios-ml 与 ios-ai — 了解区别:
| 开发者意图 | 路由 |
|---|---|
| "使用 Apple Intelligence / 基础模型" | ios-ai — Apple 的设备端 LLM |
| "在设备上运行我自己的 ML 模型" | ios-ml — CoreML 转换 + 部署 |
| "使用 @Generable 添加文本生成" | ios-ai — 基础模型结构化输出 |
| "使用 KV 缓存部署自定义 LLM" | ios-ml — 自定义模型优化 |
| "使用 Vision 框架进行图像分析" | ios-vision — 非 ML 部署 |
广告位招租
在这里展示您的产品或服务
触达数万 AI 开发者,精准高效
| "使用 Apple 预训练的 NLP 模型" | ios-ai — Apple 的模型,非自定义 |
经验法则:如果开发者正在转换/压缩/部署他们自己的模型 → ios-ml。如果他们正在使用 Apple 内置的 AI → ios-ai。如果他们正在进行计算机视觉 → ios-vision。
实现模式 → /skill coreml
API 参考 → /skill coreml-ref
诊断 → /skill coreml-diag
实现模式 → /skill speech
| 想法 | 现实 |
|---|---|
| "CoreML 只是加载和预测" | CoreML 包含压缩、有状态模型、计算单元选择和异步预测。coreml 涵盖所有内容。 |
| "我的模型很小,不需要优化" | 即使小模型也能从计算单元选择和异步预测中受益。coreml 包含这些模式。 |
| "我就用 SFSpeechRecognizer" | iOS 26 的 SpeechAnalyzer 具有更好的准确性和离线支持。speech 技能涵盖现代 API。 |
coreml :
coreml-diag :
speech :
用户:"如何将 PyTorch 模型转换为 CoreML?" → 调用:/skill coreml
用户:"压缩我的模型以适配 iPhone" → 调用:/skill coreml
用户:"为我的语言模型实现 KV 缓存" → 调用:/skill coreml
用户:"模型首次启动时加载缓慢" → 调用:/skill coreml-diag
用户:"我的压缩模型精度很差" → 调用:/skill coreml-diag
用户:"为我的应用添加实时转录" → 调用:/skill speech
用户:"使用 SpeechAnalyzer 转录音频文件" → 调用:/skill speech
用户:"什么是 MLTensor,如何使用它?" → 调用:/skill coreml-ref
每周安装数
103
代码仓库
GitHub 星标数
601
首次出现
2026年1月21日
安全审计
安装于
opencode89
claude-code85
codex83
gemini-cli81
cursor79
github-copilot77
You MUST use this skill for ANY on-device machine learning or speech-to-text work.
Use this router when:
ios-ml vs ios-ai — know the difference:
| Developer Intent | Router |
|---|---|
| "Use Apple Intelligence / Foundation Models" | ios-ai — Apple's on-device LLM |
| "Run my own ML model on device" | ios-ml — CoreML conversion + deployment |
| "Add text generation with @Generable" | ios-ai — Foundation Models structured output |
| "Deploy a custom LLM with KV-cache" | ios-ml — Custom model optimization |
| "Use Vision framework for image analysis" | ios-vision — Not ML deployment |
| "Use pre-trained Apple NLP models" | ios-ai — Apple's models, not custom |
Rule of thumb : If the developer is converting/compressing/deploying their own model → ios-ml. If they're using Apple's built-in AI → ios-ai. If they're doing computer vision → ios-vision.
Implementation patterns → /skill coreml
API reference → /skill coreml-ref
Diagnostics → /skill coreml-diag
Implementation patterns → /skill speech
| Thought | Reality |
|---|---|
| "CoreML is just load and predict" | CoreML has compression, stateful models, compute unit selection, and async prediction. coreml covers all. |
| "My model is small, no optimization needed" | Even small models benefit from compute unit selection and async prediction. coreml has the patterns. |
| "I'll just use SFSpeechRecognizer" | iOS 26 has SpeechAnalyzer with better accuracy and offline support. speech skill covers the modern API. |
coreml :
coreml-diag :
speech :
User: "How do I convert a PyTorch model to CoreML?" → Invoke: /skill coreml
User: "Compress my model to fit on iPhone" → Invoke: /skill coreml
User: "Implement KV-cache for my language model" → Invoke: /skill coreml
User: "Model loads slowly on first launch" → Invoke: /skill coreml-diag
User: "My compressed model has bad accuracy" → Invoke: /skill coreml-diag
User: "Add live transcription to my app" → Invoke: /skill speech
User: "Transcribe audio files with SpeechAnalyzer" → Invoke: /skill speech
User: "What's MLTensor and how do I use it?" → Invoke: /skill coreml-ref
Weekly Installs
103
Repository
GitHub Stars
601
First Seen
Jan 21, 2026
Security Audits
Gen Agent Trust HubPassSocketPassSnykPass
Installed on
opencode89
claude-code85
codex83
gemini-cli81
cursor79
github-copilot77
AI 代码实施计划编写技能 | 自动化开发任务分解与 TDD 流程规划工具
49,000 周安装