You're looking at a specific version of this model. Jump to the model overview.

vetkastar /lora-train-xl:58918f7c

Input schema

The fields you can use to run this model with an API. If you don’t give a value for a field its default value will be used.

Field Type Default value Description
pretrained_model_name_or_path
string (enum)
juggernautXL_version6Rundiffusion.safetensors

Options:

juggernautXL_version6Rundiffusion.safetensors

Выберите базовую модель Stable Diffusion
pretrained_model_url
string
URL базовой модели Stable Diffusion
dataset_path
string
Локальный путь к архиву с данными для обучения
dataset_url
string
URL архива с данными для обучения
network_module
string (enum)
networks.lora

Options:

networks.lora, networks.dylora

Имя модуля для LoRA
network_dim
integer
128
Размерность LoRA
network_alpha
integer
128
Коэффициент альфа для LoRA
dataset_repeats
integer
75
Количество шагов на каждое изображение
resolution
string
1024,1024
Максимальное разрешение изображений в формате 'ширина,высота'
lora_output_name
string
Lora
Имя файла обученной LoRA модели
save_safetensors
boolean
True
Сохранять ли модель в формате safetensors
max_train_steps
integer
9999
Максимальное число шагов обучения
save_every_n_epochs
integer
1
Сохранять модель каждые N эпох
learning_rate
number
0.000002
Скорость обучения
unet_lr
number
0.0001
Скорость обучения U-Net
text_encoder_lr
number
0.00005
Скорость обучения Text Encoder
lr_scheduler
string
constant_with_warmup
Тип планировщика скорости обучения
lr_warmup
integer
10
Количество шагов разогрева скорости обучения
lr_scheduler_num_cycles
integer
1
Количество циклов планировщика скорости обучения
lr_warmup_steps
integer
20
Количество шагов разогрева скорости обучения
max_grad_norm
number
1
Максимальная норма градиента
cache_latents
boolean
True
Кэшировать скрытые представления
no_half_vae
boolean
True
Не использовать половинную точность для VAE
noise_offset
number
0
Смещение шума
optimizer_type
string
AdamW8bit
Тип оптимизатора (AdamW8bit, AdamW, Lion)
train_batch_size
integer
8
Размер батча для обучения
max_train_epochs
integer
1
Количество эпох обучения
gradient_accumulation_steps
integer
1
Количество шагов аккумуляции градиента
mixed_precision
string
bf16
Точность вычислений (bf16, fp16)
save_precision
string
bf16
Точность сохранения модели (bf16, fp16)
num_cpu_threads_per_process
integer
4
Количество потоков CPU на ядро
clip_skip
integer
1
Количество слоев CLIP для пропуска
max_token_length
integer
150
Максимальная длина токена
seed
integer
1
Начальное значение для генератора случайных чисел
prior_loss_weight
number
1
Вес функции потерь Prior
caption_dropout_rate
number
0
Вероятность dropout для текстовых описаний
caption_dropout_every_n_epochs
integer
0
Применять dropout каждые N эпох
max_data_loader_n_workers
integer
0
Максимальное количество процессов загрузки данных
persistent_data_loader_workers
boolean
False
Использовать постоянные процессы загрузки данных
bucket_no_upscale
boolean
False
Не увеличивать разрешение при batching
bucket_reso_steps
integer
32
Шаги разрешения при batching
keep_tokens
integer
1
Количество токенов для сохранения
color_aug
boolean
False
Использовать цветовую аугментацию
flip_aug
boolean
False
Использовать аугментацию отражением
gradient_checkpointing
boolean
True
Использовать gradient checkpointing
shuffle_caption
boolean
False
Перемешивать текстовые описания
full_fp16
boolean
False
Использовать полное FP16 для обучения
full_bf16
boolean
False
Использовать полное BF16 для обучения
xformers
boolean
True
Использовать xformers
save_model_as
string
safetensors
Формат сохранения модели (safetensors, ckpt, pt)
save_state
boolean
False
Сохранять состояние модели
scale_weight_norms
number
0
Масштабировать нормы весов

Output schema

The shape of the response you’ll get when you run this model with an API.

Schema
{'format': 'uri', 'title': 'Output', 'type': 'string'}