| # FramePack - 图像到视频生成 | |
|  | |
| 将静态图像转换为动态视频的人工智能应用。上传一张人物图像,添加动作描述,即可生成流畅的视频! | |
| ## 使用方法 | |
| 1. 上传一张人物图像 | |
| 2. 输入描述所需动作的提示词(如"The girl dances gracefully") | |
| 3. 调整视频长度和其他可选参数 | |
| 4. 点击"开始生成"按钮 | |
| 5. 等待视频生成(过程是渐进式的,会不断扩展视频长度) | |
| ## 示例提示词 | |
| - "The girl dances gracefully, with clear movements, full of charm." | |
| - "The man dances energetically, leaping mid-air with fluid arm swings and quick footwork." | |
| - "A character doing some simple body movements." | |
| ## 技术特点 | |
| - 基于Hunyuan Video和FramePack架构 | |
| - 支持低显存GPU运行 | |
| - 可生成最长120秒的视频 | |
| - 使用TeaCache技术加速生成过程 | |
| ## 注意事项 | |
| - 视频生成是倒序进行的,结束动作将先于开始动作生成 | |
| - 首次使用时需要下载模型(约30GB),请耐心等待 | |
| - 如果遇到内存不足错误,可以增加"GPU推理保留内存"的值 | |
| --- | |
| 原项目: [FramePack GitHub](https://github.com/lllyasviel/FramePack) |