FunClip 是一款完全开源、本地部署的自动化视频剪辑工具。
FunClip 通过调用阿里巴巴通义实验室开源的 FunASR Paraformer 系列模型进行视频的语音识别。
FunClip 可以使用户自由选择识别结果中的文本片段或说话人,点击裁剪按钮即可获取对应片段的视频。
FunClip 旨在为视频剪辑提供一个更为智能、自动化的解决方案。
FunClip 通过集成先进的 AI 技术,降低了视频剪辑的难度,使得非专业人士也能够轻松制作出专业水准的视频内容。
FunClip 不仅适用于专业视频编辑人员,也适合于普通用户,无论是进行内容创作、教育视频制作,还是企业宣传视频的编辑,FunClip 都能提供强大的支持。
此 FunClip 镜像已经包含了所有常用情况下的模型依赖,可以直接进行使用,具体操作流程如下。
# 步骤一:识别
python funclip/videoclipper.py --stage 1 \\
--file examples/2022云栖大会_片段.mp4 \\
--output_dir ./output
# ./output中生成了识别结果与srt字幕等
# 步骤二:裁剪
python funclip/videoclipper.py --stage 2 \\
--file examples/2022云栖大会_片段.mp4 \\
--output_dir ./output \\
--dest_text 我们把它跟乡村振兴去结合起来,利用我们的设计的能力 \\
--start_ost 0 \\
--end_ost 100 \\
--output_file ./output/res.mp4
1.
在 JupyterLab 的默认 NoteBook 页面
左上角点击重启内核并运行所有单元格
按钮 ,初次运行会需要 3 分钟左右的时间来进行资源缓存,直至出现 http://0.0.0.0:3389 ,代表 FunClip 的 WebUI 服务启动成功。之后即可在控制台的端口服务中通过外部地址映射访问到 FunClip 的 WebUI 服务。
2.
在 JupyterLab 的默认 NoteBook 页面
使用光标光标选中下一行
单元格,直至出现选中特效。点击此页面左上角的运行这 1 个单元格并向前移动
按钮,初次运行会需要 3 分钟左右的时间来进行资源缓存,直至出现 http://0.0.0.0:3389 ,代表 FunClip 的 WebUI 服务启动成功,将0.0.0.0替换为外网ip,外网ip可以在控制台-基础网络(外)中获取。之后即可在控制台的端口服务中通过外部地址映射访问到 FunClip 的 WebUI 服务。
8G
以上显存的 NVIDIA
显卡32G
framework_name: PyTorch
framework_version: 2.5.1
cuda_version: 12.4
python_version: 3.10
bilibili:
wechat: