Readme
bmv2 on Replicate
将 BackgroundMattingV2 封装为一个只输出 alpha 视频的 Replicate public 模型。
行为约束
- 输入:5-10 秒、长边不超过 2048 的视频文件
- 背景:固定为纯白色,不作为输入暴露
- 输出:单个
alpha.mp4 - 默认权重:
torchscript_mobilenetv2_fp16.pth - 预留切换位:
torchscript_mobilenetv2_fp32.pth
实现说明
- 推理后端使用上游官方发布的 TorchScript 权重
sampling模式下固定backbone_scale=0.25- 对不能被 4 整除的输入尺寸,内部补齐到 4 的倍数后再裁回原尺寸
- 小分辨率输入会自动下调
refine_sample_pixels,避免上游脚本在sampling模式下越界
切换到 fp32
默认不暴露给最终用户。需要切换时,在重新构建/推送前设置:
export BMV2_MODEL_VARIANT=mobilenetv2_fp32
可选值:
mobilenetv2_fp16mobilenetv2_fp32
本地验证
cog predict -i video=@/absolute/path/to/input.mp4
推送到 Replicate
先登录 Docker registry:
printf '%s' "$REPLICATE_CLI_TOKEN" | cog login --token-stdin
然后推送:
cog push r8.im/hcolde/bmv2
上游来源
- 模型与权重来源:
PeterL1n/BackgroundMattingV2 - 上游许可证:MIT
Model created