lightweight-ai/w.2_s-v
Public
14
runs
Run lightweight-ai/w.2_s-v with an API
Use one of our client libraries to get started quickly. Clicking on a library will take you to the Playground tab where you can tweak different inputs, see the results, and copy the corresponding code to use in your own project.
Input schema
The fields you can use to run this model with an API. If you don't give a value for a field its default value will be used.
| Field | Type | Default value | Description |
|---|---|---|---|
| cond_video |
string
|
입력 이미지 또는 비디오 파일
|
|
| prompt |
string
|
A person is talking.
|
비디오 생성을 위한 프롬프트
|
| cond_audio_person1 |
string
|
첫 번째 사람의 오디오 파일 (.wav, .mp3 등)
|
|
| cond_audio_person2 |
string
|
두 번째 사람의 오디오 파일 (선택 사항)
|
|
| bbox_person1 |
string
|
0,0,512,512
|
첫 번째 사람의 바운딩 박스 (x1,y1,x2,y2 형식)
|
| bbox_person2 |
string
|
두 번째 사람의 바운딩 박스 (x1,y1,x2,y2 형식, 선택 사항)
|
|
| audio_type |
None
|
para
|
두 오디오를 결합하는 방식
|
| seed |
integer
|
42
|
랜덤 시드. -1로 설정 시 무작위 시드 사용
|
| frame_num |
integer
|
81
|
한 번에 생성할 클립의 프레임 수 (4n+1 형태여야 함)
|
| max_frame_num |
integer
|
1000
|
생성할 비디오의 최대 프레임 길이
|
| mode |
None
|
clip
|
생성 모드. 'clip'은 단일 청크, 'streaming'은 긴 비디오 생성
|
| sample_steps |
integer
|
40
|
샘플링 스텝 수
|
| sample_text_guide_scale |
number
|
5
|
텍스트 가이던스 스케일
|
| sample_audio_guide_scale |
number
|
4
|
오디오 가이던스 스케일
|
| color_correction_strength |
number
|
1
Max: 1 |
색상 보정 강도 (0.0 ~ 1.0)
|
| scene_seg |
boolean
|
False
|
입력 비디오에 대해 장면 분할을 활성화할지 여부
|
{
"type": "object",
"title": "Input",
"required": [
"cond_video",
"cond_audio_person1"
],
"properties": {
"mode": {
"enum": [
"clip",
"streaming"
],
"type": "string",
"title": "mode",
"description": "\uc0dd\uc131 \ubaa8\ub4dc. 'clip'\uc740 \ub2e8\uc77c \uccad\ud06c, 'streaming'\uc740 \uae34 \ube44\ub514\uc624 \uc0dd\uc131",
"default": "clip",
"x-order": 10
},
"seed": {
"type": "integer",
"title": "Seed",
"default": 42,
"x-order": 7,
"description": "\ub79c\ub364 \uc2dc\ub4dc. -1\ub85c \uc124\uc815 \uc2dc \ubb34\uc791\uc704 \uc2dc\ub4dc \uc0ac\uc6a9"
},
"prompt": {
"type": "string",
"title": "Prompt",
"default": "A person is talking.",
"x-order": 1,
"description": "\ube44\ub514\uc624 \uc0dd\uc131\uc744 \uc704\ud55c \ud504\ub86c\ud504\ud2b8"
},
"frame_num": {
"type": "integer",
"title": "Frame Num",
"default": 81,
"x-order": 8,
"description": "\ud55c \ubc88\uc5d0 \uc0dd\uc131\ud560 \ud074\ub9bd\uc758 \ud504\ub808\uc784 \uc218 (4n+1 \ud615\ud0dc\uc5ec\uc57c \ud568)"
},
"scene_seg": {
"type": "boolean",
"title": "Scene Seg",
"default": false,
"x-order": 15,
"description": "\uc785\ub825 \ube44\ub514\uc624\uc5d0 \ub300\ud574 \uc7a5\uba74 \ubd84\ud560\uc744 \ud65c\uc131\ud654\ud560\uc9c0 \uc5ec\ubd80"
},
"audio_type": {
"enum": [
"para",
"add"
],
"type": "string",
"title": "audio_type",
"description": "\ub450 \uc624\ub514\uc624\ub97c \uacb0\ud569\ud558\ub294 \ubc29\uc2dd",
"default": "para",
"x-order": 6
},
"cond_video": {
"type": "string",
"title": "Cond Video",
"format": "uri",
"x-order": 0,
"description": "\uc785\ub825 \uc774\ubbf8\uc9c0 \ub610\ub294 \ube44\ub514\uc624 \ud30c\uc77c"
},
"bbox_person1": {
"type": "string",
"title": "Bbox Person1",
"default": "0,0,512,512",
"x-order": 4,
"description": "\uccab \ubc88\uc9f8 \uc0ac\ub78c\uc758 \ubc14\uc6b4\ub529 \ubc15\uc2a4 (x1,y1,x2,y2 \ud615\uc2dd)"
},
"bbox_person2": {
"type": "string",
"title": "Bbox Person2",
"x-order": 5,
"description": "\ub450 \ubc88\uc9f8 \uc0ac\ub78c\uc758 \ubc14\uc6b4\ub529 \ubc15\uc2a4 (x1,y1,x2,y2 \ud615\uc2dd, \uc120\ud0dd \uc0ac\ud56d)"
},
"sample_steps": {
"type": "integer",
"title": "Sample Steps",
"default": 40,
"x-order": 11,
"description": "\uc0d8\ud50c\ub9c1 \uc2a4\ud15d \uc218"
},
"max_frame_num": {
"type": "integer",
"title": "Max Frame Num",
"default": 1000,
"x-order": 9,
"description": "\uc0dd\uc131\ud560 \ube44\ub514\uc624\uc758 \ucd5c\ub300 \ud504\ub808\uc784 \uae38\uc774"
},
"cond_audio_person1": {
"type": "string",
"title": "Cond Audio Person1",
"format": "uri",
"x-order": 2,
"description": "\uccab \ubc88\uc9f8 \uc0ac\ub78c\uc758 \uc624\ub514\uc624 \ud30c\uc77c (.wav, .mp3 \ub4f1)"
},
"cond_audio_person2": {
"type": "string",
"title": "Cond Audio Person2",
"format": "uri",
"x-order": 3,
"description": "\ub450 \ubc88\uc9f8 \uc0ac\ub78c\uc758 \uc624\ub514\uc624 \ud30c\uc77c (\uc120\ud0dd \uc0ac\ud56d)"
},
"sample_text_guide_scale": {
"type": "number",
"title": "Sample Text Guide Scale",
"default": 5,
"x-order": 12,
"description": "\ud14d\uc2a4\ud2b8 \uac00\uc774\ub358\uc2a4 \uc2a4\ucf00\uc77c"
},
"sample_audio_guide_scale": {
"type": "number",
"title": "Sample Audio Guide Scale",
"default": 4,
"x-order": 13,
"description": "\uc624\ub514\uc624 \uac00\uc774\ub358\uc2a4 \uc2a4\ucf00\uc77c"
},
"color_correction_strength": {
"type": "number",
"title": "Color Correction Strength",
"default": 1,
"maximum": 1,
"minimum": 0,
"x-order": 14,
"description": "\uc0c9\uc0c1 \ubcf4\uc815 \uac15\ub3c4 (0.0 ~ 1.0)"
}
}
}
Output schema
The shape of the response you’ll get when you run this model with an API.
Schema
{
"type": "string",
"title": "Output",
"format": "uri"
}