vetkastar / lora-train

  • Public
  • 254 runs

Run vetkastar/lora-train with an API

Use one of our client libraries to get started quickly. Clicking on a library will take you to the Playground tab where you can tweak different inputs, see the results, and copy the corresponding code to use in your own project.

Input schema

The fields you can use to run this model with an API. If you don't give a value for a field its default value will be used.

Field Type Default value Description
pretrained_model_name_or_path
string (enum)
Reliberate_v2.safetensors

Options:

deliberate_v2.safetensors, Reliberate_v2.safetensors

Выберите базовую модель Stable Diffusion
pretrained_model_url
string
URL базовой модели Stable Diffusion только 1.5 модели
dataset_path
string
Локальный путь к архиву с данными для обучения
dataset_url
string
URL архива с данными для обучения
network_module
string (enum)
networks.lora

Options:

networks.lora, networks.dylora

Имя модуля для LoRA
network_dim
integer
128
Размерность LoRA
network_alpha
integer
128
Коэффициент альфа для LoRA
dataset_repeats
integer
100
Количество шагов на каждое изображение
resolution
string
512,512
Максимальное разрешение изображений в формате 'ширина,высота'
lora_output_name
string
Name
Имя файла обученной LoRA модели
save_safetensors
boolean
True
Сохранять ли модель в формате safetensors
max_train_steps
integer
0
Максимальное число шагов обучения
save_every_n_epochs
integer
1
Сохранять модель каждые N эпох
learning_rate
number
0.00008
Скорость обучения
unet_lr
number
0.0001
Скорость обучения U-Net
text_encoder_lr
number
0.00005
Скорость обучения Text Encoder
lr_scheduler
string
constant_with_warmup
Тип планировщика скорости обучения
lr_warmup
integer
10
Количество шагов разогрева скорости обучения
lr_scheduler_num_cycles
integer
1
Количество циклов для планировщика скорости обучения
lr_warmup_steps
integer
80
Количество шагов разогрева скорости обучения
max_grad_norm
number
1
Максимальная норма градиента для градиентной обрезки
cache_latents
boolean
False
Кэшировать скрытые представления (latents) во время обучения
noise_offset
number
0
Смещение шума для диффузионной модели
optimizer_type
string
AdamW8bit
Тип оптимизатора (AdamW8bit, AdamW, Lion)
train_batch_size
integer
2
Размер батча для обучения
max_train_epochs
integer
1
Количество эпох обучения
gradient_accumulation_steps
integer
1
Количество шагов аккумуляции градиента
mixed_precision
string
bf16
Точность вычислений (bf16, fp16)
save_precision
string
bf16
Точность сохранения модели (bf16, fp16)
clip_skip
integer
1
Количество слоев CLIP для пропуска
max_token_length
integer
150
Максимальная длина токена
seed
integer
1
Начальное значение для генератора случайных чисел
prior_loss_weight
number
1
Вес функции потерь Prior
caption_dropout_rate
number
0
Вероятность dropout для текстовых описаний
caption_dropout_every_n_epochs
integer
0
Применять dropout каждые N эпох
max_data_loader_n_workers
integer
1
Максимальное количество процессов загрузки данных
persistent_data_loader_workers
boolean
False
Использовать постоянные процессы загрузки данных
bucket_no_upscale
boolean
True
Не увеличивать разрешение при batching
bucket_reso_steps
integer
64
Шаги разрешения при batching
keep_tokens
integer
0
Количество токенов для сохранения
color_aug
boolean
False
Использовать цветовую аугментацию
flip_aug
boolean
False
Использовать аугментацию отражением
gradient_checkpointing
boolean
False
Использовать gradient checkpointing
shuffle_caption
boolean
False
Перемешивать текстовые описания
full_fp16
boolean
False
Использовать полное FP16 для обучения
full_bf16
boolean
False
Использовать полное BF16 для обучения
xformers
boolean
True
Использовать xformers
save_model_as
string
safetensors
Формат сохранения модели (safetensors, ckpt, pt)
save_state
boolean
False
Сохранять состояние модели
scale_weight_norms
number
0
Масштабировать нормы весов

Output schema

The shape of the response you’ll get when you run this model with an API.

Schema
{
  "type": "string",
  "title": "Output",
  "format": "uri"
}