grepai-embeddings-ollama by yoanbernabeu/grepai-skills
npx skills add https://github.com/yoanbernabeu/grepai-skills --skill grepai-embeddings-ollama本技能介绍如何使用 Ollama 作为 GrepAI 的嵌入提供程序,实现 100% 私密、本地的代码搜索。
| 优势 | 描述 |
|---|---|
| 🔒 隐私性 | 代码永不离开您的机器 |
| 💰 免费 | 无 API 成本或使用限制 |
| ⚡ 速度 | 无网络延迟 |
| 🔌 离线 | 无需互联网即可工作 |
| 🔧 控制 | 自由选择模型 |
# 安装 Ollama
brew install ollama # macOS
# 或
curl -fsSL https://ollama.com/install.sh | sh # Linux
# 启动 Ollama
ollama serve
# 下载模型
ollama pull nomic-embed-text
广告位招租
在这里展示您的产品或服务
触达数万 AI 开发者,精准高效
# .grepai/config.yaml
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://localhost:11434
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://192.168.1.100:11434 # 远程 Ollama 服务器
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://localhost:11434
dimensions: 768 # 通常会自动检测
ollama pull nomic-embed-text
| 属性 | 值 |
|---|---|
| 维度 | 768 |
| 大小 | ~274 MB |
| 速度 | 快 |
| 质量 | 对代码效果极佳 |
| 语言 | 针对英语优化 |
配置:
embedder:
provider: ollama
model: nomic-embed-text
ollama pull nomic-embed-text-v2-moe
| 属性 | 值 |
|---|---|
| 维度 | 768 |
| 大小 | ~500 MB |
| 速度 | 中等 |
| 质量 | 极佳 |
| 语言 | 多语言 |
最适合包含非英语注释/文档的代码库。
配置:
embedder:
provider: ollama
model: nomic-embed-text-v2-moe
ollama pull bge-m3
| 属性 | 值 |
|---|---|
| 维度 | 1024 |
| 大小 | ~1.2 GB |
| 速度 | 较慢 |
| 质量 | 非常高 |
| 语言 | 多语言 |
最适合大型、复杂的代码库,其中准确性至关重要。
配置:
embedder:
provider: ollama
model: bge-m3
dimensions: 1024
ollama pull mxbai-embed-large
| 属性 | 值 |
|---|---|
| 维度 | 1024 |
| 大小 | ~670 MB |
| 速度 | 中等 |
| 质量 | 最高 |
| 语言 | 英语 |
配置:
embedder:
provider: ollama
model: mxbai-embed-large
dimensions: 1024
| 模型 | 维度 | 大小 | 速度 | 质量 | 使用场景 |
|---|---|---|---|---|---|
nomic-embed-text | 768 | 274MB | ⚡⚡⚡ | ⭐⭐⭐ | 通用 |
nomic-embed-text-v2-moe | 768 | 500MB | ⚡⚡ | ⭐⭐⭐⭐ | 多语言 |
bge-m3 | 1024 | 1.2GB | ⚡ | ⭐⭐⭐⭐⭐ | 大型代码库 |
mxbai-embed-large | 1024 | 670MB | ⚡⚡ | ⭐⭐⭐⭐⭐ | 最高精度 |
模型会加载到 RAM 中。确保有足够的内存:
| 模型 | 所需 RAM |
|---|---|
nomic-embed-text | ~500 MB |
nomic-embed-text-v2-moe | ~800 MB |
bge-m3 | ~1.5 GB |
mxbai-embed-large | ~1 GB |
Ollama 自动使用:
检查 GPU 使用情况:
ollama ps
默认情况下,Ollama 在模型闲置 5 分钟后会将其卸载。保持加载状态:
# 无限期保持模型加载
curl http://localhost:11434/api/generate -d '{
"model": "nomic-embed-text",
"keep_alive": -1
}'
curl http://localhost:11434/api/tags
ollama list
curl http://localhost:11434/api/embeddings -d '{
"model": "nomic-embed-text",
"prompt": "function authenticate(user, password)"
}'
Ollama 应用在登录时自动运行。
# 启用服务
sudo systemctl enable ollama
# 启动服务
sudo systemctl start ollama
# 检查状态
sudo systemctl status ollama
nohup ollama serve > /dev/null 2>&1 &
在功能强大的服务器上运行 Ollama 并进行远程连接:
# 允许远程连接
OLLAMA_HOST=0.0.0.0 ollama serve
# .grepai/config.yaml
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://server-ip:11434
❌ 问题: 连接被拒绝 ✅ 解决方案:
# 启动 Ollama
ollama serve
❌ 问题: 找不到模型 ✅ 解决方案:
# 拉取模型
ollama pull nomic-embed-text
❌ 问题: 嵌入生成缓慢 ✅ 解决方案:
nomic-embed-text)ollama ps)❌ 问题: 内存不足 ✅ 解决方案:
❌ 问题: 模型更新后嵌入结果不同 ✅ 解决方案: 模型更新后重新索引:
rm .grepai/index.gob
grepai watch
nomic-embed-text 开始: 速度与质量的最佳平衡成功的 Ollama 配置:
✅ Ollama 嵌入提供程序已配置
提供程序:Ollama
模型:nomic-embed-text
端点:http://localhost:11434
维度:768 (自动检测)
状态:已连接
模型信息:
- 大小:274 MB
- 已加载:是
- GPU:Apple Metal
周安装量
263
仓库
GitHub 星标
15
首次出现
2026年1月28日
安全审计
安装于
opencode209
codex206
gemini-cli193
github-copilot190
kimi-cli179
amp177
This skill covers using Ollama as the embedding provider for GrepAI, enabling 100% private, local code search.
| Advantage | Description |
|---|---|
| 🔒 Privacy | Code never leaves your machine |
| 💰 Free | No API costs or usage limits |
| ⚡ Speed | No network latency |
| 🔌 Offline | Works without internet |
| 🔧 Control | Choose your model |
# Install Ollama
brew install ollama # macOS
# or
curl -fsSL https://ollama.com/install.sh | sh # Linux
# Start Ollama
ollama serve
# Download model
ollama pull nomic-embed-text
# .grepai/config.yaml
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://localhost:11434
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://192.168.1.100:11434 # Remote Ollama server
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://localhost:11434
dimensions: 768 # Usually auto-detected
ollama pull nomic-embed-text
| Property | Value |
|---|---|
| Dimensions | 768 |
| Size | ~274 MB |
| Speed | Fast |
| Quality | Excellent for code |
| Language | English-optimized |
Configuration:
embedder:
provider: ollama
model: nomic-embed-text
ollama pull nomic-embed-text-v2-moe
| Property | Value |
|---|---|
| Dimensions | 768 |
| Size | ~500 MB |
| Speed | Medium |
| Quality | Excellent |
| Language | Multilingual |
Best for codebases with non-English comments/documentation.
Configuration:
embedder:
provider: ollama
model: nomic-embed-text-v2-moe
ollama pull bge-m3
| Property | Value |
|---|---|
| Dimensions | 1024 |
| Size | ~1.2 GB |
| Speed | Slower |
| Quality | Very high |
| Language | Multilingual |
Best for large, complex codebases where accuracy is critical.
Configuration:
embedder:
provider: ollama
model: bge-m3
dimensions: 1024
ollama pull mxbai-embed-large
| Property | Value |
|---|---|
| Dimensions | 1024 |
| Size | ~670 MB |
| Speed | Medium |
| Quality | Highest |
| Language | English |
Configuration:
embedder:
provider: ollama
model: mxbai-embed-large
dimensions: 1024
| Model | Dims | Size | Speed | Quality | Use Case |
|---|---|---|---|---|---|
nomic-embed-text | 768 | 274MB | ⚡⚡⚡ | ⭐⭐⭐ | General use |
nomic-embed-text-v2-moe | 768 | 500MB | ⚡⚡ | ⭐⭐⭐⭐ | Multilingual |
bge-m3 | 1024 | 1.2GB | ⚡ | ⭐⭐⭐⭐⭐ | Large codebases |
Models load into RAM. Ensure sufficient memory:
| Model | RAM Required |
|---|---|
nomic-embed-text | ~500 MB |
nomic-embed-text-v2-moe | ~800 MB |
bge-m3 | ~1.5 GB |
mxbai-embed-large | ~1 GB |
Ollama automatically uses:
Check GPU usage:
ollama ps
By default, Ollama unloads models after 5 minutes of inactivity. Keep loaded:
# Keep model loaded indefinitely
curl http://localhost:11434/api/generate -d '{
"model": "nomic-embed-text",
"keep_alive": -1
}'
curl http://localhost:11434/api/tags
ollama list
curl http://localhost:11434/api/embeddings -d '{
"model": "nomic-embed-text",
"prompt": "function authenticate(user, password)"
}'
Ollama app runs automatically on login.
# Enable service
sudo systemctl enable ollama
# Start service
sudo systemctl start ollama
# Check status
sudo systemctl status ollama
nohup ollama serve > /dev/null 2>&1 &
Run Ollama on a powerful server and connect remotely:
# Allow remote connections
OLLAMA_HOST=0.0.0.0 ollama serve
# .grepai/config.yaml
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://server-ip:11434
❌ Problem: Connection refused ✅ Solution:
# Start Ollama
ollama serve
❌ Problem: Model not found ✅ Solution:
# Pull the model
ollama pull nomic-embed-text
❌ Problem: Slow embedding generation ✅ Solutions:
nomic-embed-text)ollama ps)❌ Problem: Out of memory ✅ Solutions:
❌ Problem: Embeddings differ after model update ✅ Solution: Re-index after model updates:
rm .grepai/index.gob
grepai watch
nomic-embed-text: Best balance of speed/qualitySuccessful Ollama configuration:
✅ Ollama Embedding Provider Configured
Provider: Ollama
Model: nomic-embed-text
Endpoint: http://localhost:11434
Dimensions: 768 (auto-detected)
Status: Connected
Model Info:
- Size: 274 MB
- Loaded: Yes
- GPU: Apple Metal
Weekly Installs
263
Repository
GitHub Stars
15
First Seen
Jan 28, 2026
Security Audits
Gen Agent Trust HubFailSocketPassSnykWarn
Installed on
opencode209
codex206
gemini-cli193
github-copilot190
kimi-cli179
amp177
agent-browser 浏览器自动化工具 - Vercel Labs 命令行网页操作与测试
140,500 周安装
Docassemble 表单构建器技能 - 创建智能动态问卷与文档生成工具
257 周安装
Fastify TypeScript 生产级后端框架指南:高性能 Node.js Web 开发与 JSON 模式验证
257 周安装
AI 演示文稿生成器 | 一键创建专业幻灯片,支持 Marp 格式输出
257 周安装
Mapbox搜索模式指南:地理编码、POI搜索与位置发现最佳实践
257 周安装
Zustand适配器:为json-render提供状态管理后端,支持嵌套切片与Zustand v5+
257 周安装
Blender MCP 插件使用指南:3D 场景自动化与 Python 脚本控制教程
257 周安装
mxbai-embed-large |
| 1024 |
| 670MB |
| ⚡⚡ |
| ⭐⭐⭐⭐⭐ |
| Maximum accuracy |