grepai-embeddings-lmstudio by yoanbernabeu/grepai-skills
npx skills add https://github.com/yoanbernabeu/grepai-skills --skill grepai-embeddings-lmstudio本技能介绍如何将 LM Studio 用作 GrepAI 的嵌入提供程序,它提供了一个用户友好的图形界面来管理本地模型。
LM Studio 是一个用于运行本地大语言模型的桌面应用程序,具有以下特点:
访问 lmstudio.ai 并根据您的平台下载:
nomic-embed-text-v1.5广告位招租
在这里展示您的产品或服务
触达数万 AI 开发者,精准高效
bge-small-en-v1.5bge-large-en-v1.5http://localhost:1234)# .grepai/config.yaml
embedder:
provider: lmstudio
model: nomic-embed-text-v1.5
endpoint: http://localhost:1234
embedder:
provider: lmstudio
model: nomic-embed-text-v1.5
endpoint: http://localhost:8080
embedder:
provider: lmstudio
model: nomic-embed-text-v1.5
endpoint: http://localhost:1234
dimensions: 768
| 属性 | 值 |
|---|---|
| Dimensions | 768 |
| Size | ~260 MB |
| Quality | Excellent |
| Speed | Fast |
embedder:
provider: lmstudio
model: nomic-embed-text-v1.5
| 属性 | 值 |
|---|---|
| Dimensions | 384 |
| Size | ~130 MB |
| Quality | Good |
| Speed | Very fast |
最适合: 较小的代码库,更快的索引速度。
embedder:
provider: lmstudio
model: bge-small-en-v1.5
dimensions: 384
| 属性 | 值 |
|---|---|
| Dimensions | 1024 |
| Size | ~1.3 GB |
| Quality | Very high |
| Speed | Slower |
最适合: 追求最高准确度。
embedder:
provider: lmstudio
model: bge-large-en-v1.5
dimensions: 1024
| 模型 | 维度 | 大小 | 速度 | 质量 |
|---|---|---|---|---|
bge-small-en-v1.5 | 384 | 130MB | ⚡⚡⚡ | ⭐⭐⭐ |
nomic-embed-text-v1.5 | 768 | 260MB | ⚡⚡ | ⭐⭐⭐⭐ |
bge-large-en-v1.5 | 1024 | 1.3GB | ⚡ | ⭐⭐⭐⭐⭐ |
1234 (默认)寻找绿色的指示器,表示服务器正在运行。
# 检查服务器是否响应
curl http://localhost:1234/v1/models
# 测试嵌入功能
curl http://localhost:1234/v1/embeddings \
-H "Content-Type: application/json" \
-d '{
"model": "nomic-embed-text-v1.5",
"input": "function authenticate(user)"
}'
在 LM Studio 的 Local Server 标签页中:
| 设置项 | 推荐值 |
|---|---|
| Port | 1234 |
| Enable CORS | Yes |
| Context Length | Auto |
| GPU Layers | Max (for speed) |
LM Studio 自动使用:
在设置中调整 GPU 层数以平衡内存和速度。
对于服务器环境,LM Studio 支持命令行模式:
# 启动服务器而不使用图形界面(请查阅 LM Studio 文档获取确切语法)
lmstudio server start --model nomic-embed-text-v1.5 --port 1234
❌ 问题: 连接被拒绝 ✅ 解决方案: 确保 LM Studio 服务器正在运行:
❌ 问题: 找不到模型 ✅ 解决方案:
❌ 问题: 嵌入生成速度慢 ✅ 解决方案:
❌ 问题: 端口已被占用 ✅ 解决方案: 在 LM Studio 设置中更改端口:
embedder:
endpoint: http://localhost:8080 # 使用不同的端口
❌ 问题: LM Studio 关闭后服务器停止 ✅ 解决方案: 保持 LM Studio 在后台运行,或者考虑使用作为系统服务运行的 Ollama
| 特性 | LM Studio | Ollama |
|---|---|---|
| GUI | ✅ 有 | ❌ 仅 CLI |
| 系统服务 | ❌ 应用必须运行 | ✅ 后台服务 |
| 模型管理 | ✅ 可视化 | ✅ CLI |
| 易用性 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| 服务器可靠性 | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
推荐: 如果您偏好图形界面,请使用 LM Studio;如果需要始终在线的后台服务,请使用 Ollama。
如果您需要一个更可靠的后台服务:
安装 Ollama:
brew install ollama
ollama serve &
ollama pull nomic-embed-text
更新配置:
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://localhost:11434
重新索引:
rm .grepai/index.gob
grepai watch
nomic-embed-text-v1.5 以获得最佳平衡成功的 LM Studio 配置:
✅ LM Studio 嵌入提供程序已配置
提供程序:LM Studio
模型:nomic-embed-text-v1.5
端点:http://localhost:1234
维度:768 (自动检测)
状态:已连接
注意:保持 LM Studio 运行以使嵌入功能正常工作。
每周安装量
203
代码仓库
GitHub 星标数
15
首次出现
2026年1月28日
安全审计
已安装于
opencode169
codex160
gemini-cli148
github-copilot147
kimi-cli141
amp138
This skill covers using LM Studio as the embedding provider for GrepAI, offering a user-friendly GUI for managing local models.
LM Studio is a desktop application for running local LLMs with:
Visit lmstudio.ai and download for your platform:
nomic-embed-text-v1.5bge-small-en-v1.5bge-large-en-v1.5http://localhost:1234)# .grepai/config.yaml
embedder:
provider: lmstudio
model: nomic-embed-text-v1.5
endpoint: http://localhost:1234
embedder:
provider: lmstudio
model: nomic-embed-text-v1.5
endpoint: http://localhost:8080
embedder:
provider: lmstudio
model: nomic-embed-text-v1.5
endpoint: http://localhost:1234
dimensions: 768
| Property | Value |
|---|---|
| Dimensions | 768 |
| Size | ~260 MB |
| Quality | Excellent |
| Speed | Fast |
embedder:
provider: lmstudio
model: nomic-embed-text-v1.5
| Property | Value |
|---|---|
| Dimensions | 384 |
| Size | ~130 MB |
| Quality | Good |
| Speed | Very fast |
Best for: Smaller codebases, faster indexing.
embedder:
provider: lmstudio
model: bge-small-en-v1.5
dimensions: 384
| Property | Value |
|---|---|
| Dimensions | 1024 |
| Size | ~1.3 GB |
| Quality | Very high |
| Speed | Slower |
Best for: Maximum accuracy.
embedder:
provider: lmstudio
model: bge-large-en-v1.5
dimensions: 1024
| Model | Dims | Size | Speed | Quality |
|---|---|---|---|---|
bge-small-en-v1.5 | 384 | 130MB | ⚡⚡⚡ | ⭐⭐⭐ |
nomic-embed-text-v1.5 | 768 | 260MB | ⚡⚡ | ⭐⭐⭐⭐ |
bge-large-en-v1.5 | 1024 | 1.3GB | ⚡ | ⭐⭐⭐⭐⭐ |
1234 (default)Look for the green indicator showing the server is running.
# Check server is responding
curl http://localhost:1234/v1/models
# Test embedding
curl http://localhost:1234/v1/embeddings \
-H "Content-Type: application/json" \
-d '{
"model": "nomic-embed-text-v1.5",
"input": "function authenticate(user)"
}'
In LM Studio's Local Server tab:
| Setting | Recommended Value |
|---|---|
| Port | 1234 |
| Enable CORS | Yes |
| Context Length | Auto |
| GPU Layers | Max (for speed) |
LM Studio automatically uses:
Adjust GPU layers in settings for memory/speed balance.
For server environments, LM Studio supports CLI mode:
# Start server without GUI (check LM Studio docs for exact syntax)
lmstudio server start --model nomic-embed-text-v1.5 --port 1234
❌ Problem: Connection refused ✅ Solution: Ensure LM Studio server is running:
❌ Problem: Model not found ✅ Solution:
❌ Problem: Slow embedding generation ✅ Solutions:
❌ Problem: Port already in use ✅ Solution: Change port in LM Studio settings:
embedder:
endpoint: http://localhost:8080 # Different port
❌ Problem: LM Studio closes and server stops ✅ Solution: Keep LM Studio running in the background, or consider using Ollama which runs as a system service
| Feature | LM Studio | Ollama |
|---|---|---|
| GUI | ✅ Yes | ❌ CLI only |
| System service | ❌ App must run | ✅ Background service |
| Model management | ✅ Visual | ✅ CLI |
| Ease of use | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| Server reliability | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
Recommendation: Use LM Studio if you prefer a GUI, Ollama for always-on background service.
If you need a more reliable background service:
brew install ollama
ollama serve &
ollama pull nomic-embed-text
2. Update config:
embedder:
provider: ollama
model: nomic-embed-text
endpoint: http://localhost:11434
3. Re-index:
rm .grepai/index.gob
grepai watch
nomic-embed-text-v1.5 for best balanceSuccessful LM Studio configuration:
✅ LM Studio Embedding Provider Configured
Provider: LM Studio
Model: nomic-embed-text-v1.5
Endpoint: http://localhost:1234
Dimensions: 768 (auto-detected)
Status: Connected
Note: Keep LM Studio running for embeddings to work.
Weekly Installs
203
Repository
GitHub Stars
15
First Seen
Jan 28, 2026
Security Audits
Gen Agent Trust HubPassSocketPassSnykPass
Installed on
opencode169
codex160
gemini-cli148
github-copilot147
kimi-cli141
amp138
agent-browser 浏览器自动化工具 - Vercel Labs 命令行网页操作与测试
150,000 周安装
UI/UX 前端设计最佳实践指南:42条规则优化无障碍访问与核心Web指标
200 周安装
The Mom Test 框架:避免误导的客户访谈指南,验证产品想法的实用方法论
200 周安装
GPT Image 1.5 图像生成与编辑技能 - 基于OpenAI的AI图像处理工具
200 周安装
MiniMax API 使用指南:AI 聊天补全、文本转语音、视频生成
200 周安装
Gemini 同行评审:AI 代码审查工具,提升代码质量与安全性
200 周安装
数学路由工具math-router:自动解析数学请求生成精确CLI命令,支持SymPy/Z3/Shapely等32种计算
200 周安装