重要前提
安装AI Skills的关键前提是:必须科学上网,且开启TUN模式,这一点至关重要,直接决定安装能否顺利完成,在此郑重提醒三遍:科学上网,科学上网,科学上网。查看完整安装教程 →
fabric-onelake-2025 by josiahsiegel/claude-plugin-marketplace
npx skills add https://github.com/josiahsiegel/claude-plugin-marketplace --skill fabric-onelake-2025Microsoft Fabric 是一个统一的 SaaS 分析平台,集成了 Power BI、Azure Synapse Analytics 和 Azure Data Factory 的功能。ADF 为 Fabric Lakehouse 和 Fabric Warehouse 提供了原生连接器,实现了 ADF 与 Fabric 工作空间之间的无缝数据移动。
Fabric Lakehouse 连接器支持对 Microsoft Fabric Lakehouse 中的表和文件进行读写操作。
| 活动 | 是否支持 |
|---|---|
| 复制活动(源和接收器) | 是 |
| 查找活动 | 是 |
| 获取元数据活动 | 是 |
| 删除活动 | 是 |
LakehouseworkspaceId 和 artifactId广告位招租
在这里展示您的产品或服务
触达数万 AI 开发者,精准高效
LakehouseTableSink(表), LakehouseFileSink(文件)LakehouseTableSourceappend 或 overwrite查找工作空间和项目 ID:
https://app.powerbi.com/groups/<workspaceId>/...有关完整的链接服务、数据集和复制活动 JSON 示例,请参阅 references/lakehouse-examples.md。
Fabric Warehouse 连接器在 Fabric 生态系统中提供基于 T-SQL 的数据仓库功能。
| 活动 | 是否支持 |
|---|---|
| 复制活动(源和接收器) | 是 |
| 查找活动 | 是 |
| 获取元数据活动 | 是 |
| 脚本活动 | 是 |
| 存储过程活动 | 是 |
Warehouseendpoint, warehouseWarehouseSinkinsert 或 upsertautoCreate(如果表不存在则创建)有关完整的链接服务、复制活动、存储过程和脚本活动 JSON 示例,请参阅 references/warehouse-examples.md。
ADF 支持与 OneLake 的三种集成模式:
| 模式 | 描述 | 主要优势 |
|---|---|---|
| ADLS Gen2 快捷方式 | 通过 OneLake 快捷方式引用 ADLS 数据(零拷贝) | 无数据重复 |
| 增量加载 | 基于水印的增量复制到 Lakehouse | 高效更新 |
| 跨平台调用 | 使用 InvokePipeline 活动调用 Fabric 管道 | 混合编排 |
OneLake 快捷方式是当数据已存在于 ADLS Gen2 时的首选方法——它们提供即时零拷贝访问,无需移动数据。仅当需要数据转换或格式转换时,才使用 ADF 复制活动。
有关所有三种模式的完整管道 JSON 示例,请参阅 references/onelake-patterns.md。
对于 Fabric Lakehouse:
对于 Fabric Warehouse:
CREATE USER [your-adf-name] FROM EXTERNAL PROVIDER;
ALTER ROLE db_datareader ADD MEMBER [your-adf-name];
ALTER ROLE db_datawriter ADD MEMBER [your-adf-name];
应用注册设置:
使用托管标识 -- 单个 ADF 使用系统分配的,多个 ADF 使用用户分配的。尽可能避免使用服务主体密钥。将所有机密存储在 Key Vault 中。
为大型负载启用暂存 -- 对于数据量 > 1 GB、复杂转换或 Fabric Warehouse 加载,使用带压缩的暂存。
利用 OneLake 快捷方式 -- 使用 ADLS Gen2 -> OneLake 快捷方式 -> 直接访问 而不是 ADLS Gen2 -> 复制活动 -> Lakehouse。无数据移动、即时可用、降低成本。
监控 Fabric 容量单位 (CU) -- 跟踪每次管道运行的 CU 消耗、峰值使用情况和限制。通过增量加载、非高峰时段调度和适当大小的并行度进行优化。
使用表选项 AutoCreate -- 在 WarehouseSink 上设置 tableOption: "autoCreate" 以实现自动模式管理和更快的开发。
实施错误处理 -- 在复制活动上配置重试策略,并使用 dependencyConditions: ["Failed"] 添加基于 WebActivity 的故障日志记录。
| 问题 | 错误消息 | 解决方案 |
|---|---|---|
| 权限被拒绝 | "用户无权访问 Fabric 工作空间" | 将 ADF 托管标识添加为参与者;对于 Warehouse,创建 SQL 用户;允许 5 分钟传播时间 |
| 找不到端点 | "无法连接到端点" | 验证 workspaceId/artifactId;检查工作空间 URL;确保 Lakehouse/Warehouse 未暂停 |
| 模式不匹配 | "列类型不匹配" | 使用 tableOption: "autoCreate" 或在转换器中显式指定列映射 |
| 性能下降 | 复制性能缓慢 | 启用暂存,增加 parallelCopies (4-8),增加 DIUs (8-32),检查 CU 限制 |
references/lakehouse-examples.md - 完整的链接服务、数据集、复制活动和查找 JSON 示例references/warehouse-examples.md - 完整的链接服务、复制活动、存储过程和脚本活动 JSON 示例references/onelake-patterns.md - 用于快捷方式、增量加载和跨平台调用管道的管道模式每周安装次数
65
代码仓库
GitHub 星标数
21
首次出现
Jan 24, 2026
安全审计
已安装于
claude-code52
opencode51
gemini-cli50
codex48
cursor44
antigravity42
Microsoft Fabric is a unified SaaS analytics platform combining Power BI, Azure Synapse Analytics, and Azure Data Factory capabilities. ADF provides native connectors for Fabric Lakehouse and Fabric Warehouse, enabling seamless data movement between ADF and Fabric workspaces.
The Fabric Lakehouse connector enables read and write operations to Microsoft Fabric Lakehouse for tables and files.
| Activity | Supported |
|---|---|
| Copy Activity (source and sink) | Yes |
| Lookup Activity | Yes |
| Get Metadata Activity | Yes |
| Delete Activity | Yes |
LakehouseworkspaceId and artifactIdLakehouseTableSink (tables), LakehouseFileSink (files)LakehouseTableSourceappend or overwriteFinding Workspace and Artifact IDs:
https://app.powerbi.com/groups/<workspaceId>/...For complete linked service, dataset, and copy activity JSON examples, see references/lakehouse-examples.md.
The Fabric Warehouse connector provides T-SQL based data warehousing capabilities within the Fabric ecosystem.
| Activity | Supported |
|---|---|
| Copy Activity (source and sink) | Yes |
| Lookup Activity | Yes |
| Get Metadata Activity | Yes |
| Script Activity | Yes |
| Stored Procedure Activity | Yes |
Warehouseendpoint, warehouseWarehouseSinkinsert or upsertautoCreate (creates table if missing)For complete linked service, copy activity, stored procedure, and script activity JSON examples, see references/warehouse-examples.md.
ADF supports three integration patterns with OneLake:
| Pattern | Description | Key Benefit |
|---|---|---|
| ADLS Gen2 Shortcuts | Reference ADLS data via OneLake shortcuts (zero-copy) | No data duplication |
| Incremental Load | Watermark-based incremental copy to Lakehouse | Efficient updates |
| Cross-Platform Invoke | Use InvokePipeline activity to call Fabric pipelines | Hybrid orchestration |
OneLake Shortcuts are the preferred approach when data already exists in ADLS Gen2 -- they provide instant zero-copy access without data movement. Use ADF Copy Activity only when data transformation or format conversion is needed.
For complete pipeline JSON examples for all three patterns, see references/onelake-patterns.md.
For Fabric Lakehouse:
For Fabric Warehouse:
CREATE USER [your-adf-name] FROM EXTERNAL PROVIDER;
ALTER ROLE db_datareader ADD MEMBER [your-adf-name];
ALTER ROLE db_datawriter ADD MEMBER [your-adf-name];
App Registration Setup:
Use Managed Identity -- System-assigned for single ADF, user-assigned for multiple. Avoid service principal keys when possible. Store any secrets in Key Vault.
Enable Staging for Large Loads -- Use staging with compression for data volumes > 1 GB, complex transformations, or Fabric Warehouse loads.
Leverage OneLake Shortcuts -- Use ADLS Gen2 -> OneLake Shortcut -> Direct Access instead of ADLS Gen2 -> Copy Activity -> Lakehouse. No data movement, instant availability, reduced costs.
Monitor Fabric Capacity Units (CU) -- Track CU consumption per pipeline run, peak usage, and throttling. Optimize with incremental loads, off-peak scheduling, and right-sized parallelism.
Use Table Option AutoCreate -- Set tableOption: "autoCreate" on WarehouseSink for automatic schema management and faster development.
Implement Error Handling -- Configure retry policies on Copy activities and add WebActivity-based failure logging with dependencyConditions: ["Failed"].
| Issue | Error Message | Solution |
|---|---|---|
| Permission Denied | "User does not have permission to access Fabric workspace" | Add ADF managed identity as Contributor; for Warehouse, create SQL user; allow 5 min propagation |
| Endpoint Not Found | "Unable to connect to endpoint" | Verify workspaceId/artifactId; check workspace URL; ensure Lakehouse/Warehouse is not paused |
| Schema Mismatch | "Column types do not match" | Use tableOption: "autoCreate" or explicit column mappings in translator |
| Performance Degradation | Slow copy performance | Enable staging, increase parallelCopies (4-8), increase DIUs (8-32), check CU throttling |
references/lakehouse-examples.md - Complete linked service, dataset, copy activity, and lookup JSON examplesreferences/warehouse-examples.md - Complete linked service, copy activity, stored procedure, and script activity JSON examplesreferences/onelake-patterns.md - Pipeline patterns for shortcuts, incremental loads, and cross-platform Invoke PipelineWeekly Installs
65
Repository
GitHub Stars
21
First Seen
Jan 24, 2026
Security Audits
Gen Agent Trust HubPassSocketPassSnykPass
Installed on
claude-code52
opencode51
gemini-cli50
codex48
cursor44
antigravity42
Supabase Postgres 最佳实践指南 - 8大类别性能优化规则与SQL示例
81,400 周安装
Remotion 视频制作技能:自动化编程视频生成,品牌营销内容创作
37 周安装
Databricks Lakebase Postgres 自动扩缩容教程 | 无服务器数据库管理指南
55 周安装
引文验证器:自动化生成BibTeX与验证记录,支持离线工作流的研究工具
72 周安装
认证网页抓取器:WSL2环境下通过CDP抓取需2FA/SSO登录的企业网站内容
72 周安装
React Doctor - React代码质量扫描工具,检查安全、性能、架构问题,提供诊断报告与评分
76 周安装
WXT 开发 Chrome 扩展指南:现代跨浏览器扩展框架与 React/Vue 集成
74 周安装