keling-motion by anyt-io/notebook
npx skills add https://github.com/anyt-io/notebook --skill keling-motion使用 fal.ai 的 Kling Video v2.6 动作控制 API 生成动作控制视频。将参考视频中的动作转移到参考图像中的角色上。
uv (Python 包管理器)FAL_KEY 环境变量,并包含有效的 fal.ai API 密钥(在 https://fal.ai/dashboard/keys 获取)动作控制需要两个输入:
API 会生成一个新视频,其中图像中的角色执行视频中的动作。
| 参数 | CLI 标志 | 值 |
|---|---|---|
| 角色朝向 | --orientation | image (默认,最长 10 秒), (最长 30 秒) |
广告位招租
在这里展示您的产品或服务
触达数万 AI 开发者,精准高效
video| 保留原声 | --keep-sound / --no-keep-sound | 保留参考视频的音频 (默认: true) |
| 输出文件名 | --filename | 自定义输出文件名 |
| 输出目录 | -o, --output | 输出目录 (默认: output/) |
image (默认): 生成的角色朝向与参考图像匹配。最大时长: 10 秒。video : 生成的角色朝向与参考视频匹配。最大时长: 30 秒。在技能文件夹 (skills/keling-motion/) 中运行:
uv run --project runtime runtime/generate_video.py --image character.png --video dance.mp4
uv run --project runtime runtime/generate_video.py "一个人在舞厅里优雅地跳舞" \
--image character.png --video dance.mp4
uv run --project runtime runtime/generate_video.py --image character.png --video dance.mp4 \
--orientation video
uv run --project runtime runtime/generate_video.py --image character.png --video motion.mp4 \
--no-keep-sound
uv run --project runtime runtime/generate_video.py \
--image https://example.com/character.png \
--video https://example.com/dance.mp4
uv run --project runtime runtime/generate_video.py --image character.png --video dance.mp4 \
--filename my_video.mp4 -o path/to/output/
output/。motion_YYYYMMDD_HHMMSS.mp4 (基于时间戳) 或通过 --filename 自定义。image: 输出最长 10 秒。video: 输出最长 30 秒。每周安装数
1
仓库
GitHub 星标数
9
首次出现
1 天前
安全审计
安装于
mcpjam1
github-copilot1
junie1
windsurf1
zencoder1
crush1
Generate motion-controlled videos using the fal.ai Kling Video v2.6 motion control API. Transfer motion from a reference video onto a character in a reference image.
uv (Python package manager)FAL_KEY environment variable set with a valid fal.ai API key (get one at https://fal.ai/dashboard/keys)Motion control takes two inputs:
The API generates a new video where the character from the image performs the actions from the video.
| Parameter | CLI Flag | Values |
|---|---|---|
| Character orientation | --orientation | image (default, max 10s), video (max 30s) |
| Keep original sound | --keep-sound / --no-keep-sound | Keep reference video audio (default: true) |
| Output filename | --filename | Custom output filename |
| Output directory | -o, --output | Output directory (default: output/) |
image (default): Generated character orientation matches the reference image. Max duration: 10 seconds.video : Generated character orientation matches the reference video. Max duration: 30 seconds.Run from the skill folder (skills/keling-motion/):
uv run --project runtime runtime/generate_video.py --image character.png --video dance.mp4
uv run --project runtime runtime/generate_video.py "A person dancing gracefully in a ballroom" \
--image character.png --video dance.mp4
uv run --project runtime runtime/generate_video.py --image character.png --video dance.mp4 \
--orientation video
uv run --project runtime runtime/generate_video.py --image character.png --video motion.mp4 \
--no-keep-sound
uv run --project runtime runtime/generate_video.py \
--image https://example.com/character.png \
--video https://example.com/dance.mp4
uv run --project runtime runtime/generate_video.py --image character.png --video dance.mp4 \
--filename my_video.mp4 -o path/to/output/
output/ inside the skill folder.motion_YYYYMMDD_HHMMSS.mp4 (timestamp-based) or custom via --filename.image: max 10 seconds output.video: max 30 seconds output.Weekly Installs
1
Repository
GitHub Stars
9
First Seen
1 day ago
Security Audits
Gen Agent Trust HubPassSocketPassSnykWarn
Installed on
mcpjam1
github-copilot1
junie1
windsurf1
zencoder1
crush1
AI Elements:基于shadcn/ui的AI原生应用组件库,快速构建对话界面
60,400 周安装