建议先关注、点赞、收藏后再阅读。
命令行参数和配置
环境变量
Name | Description |
---|---|
PYTHON | 设置 Python 可执行文件的自定义路径。 |
VENV_DIR | 指定虚拟环境的路径。 默认为 venv。 特殊值 -run 脚本而不创建虚拟环境。 |
COMMANDLINE_ARGS | 主程序的附加命令行参数。 |
IGNORE_CMD_ARGS_ERRORS | 设置为任何值都可以使程序在遇到意外的命令行参数时不会因错误而退出。 |
REQS_FILE | 运行 launch.py 时将安装的具有依赖项的requirements.txt 文件的名称。 默认为requirements_versions.txt。 |
TORCH_COMMAND | 安装命令 PyTorch. |
INDEX_URL | --index-url pip的参数. |
TRANSFORMERS_CACHE | Transformers 库下载并保存与 CLIP 模型相关的文件的路径。 |
CUDA_VISIBLE_DEVICES | 选择要用于具有多个 GPU 的系统上的实例的 GPU。 例如,如果您想使用辅助 GPU,请输入“1”。(添加新行 webui-user.bat not in COMMANDLINE_ARGS): set CUDA_VISIBLE_DEVICES=0Alternatively, just use --device-id flag in COMMANDLINE_ARGS. |
SD_WEBUI_LOG_LEVEL | 记录详细程度。 支持 Python 内置日志记录模块支持的任何有效日志记录级别。 如果未设置,则默认为 INFO。 |
SD_WEBUI_CACHE_FILE | 缓存文件路径。 如果未设置,则默认为根目录中的cache.json。 |
SD_WEBUI_RESTAR | 由启动器脚本(如 webui.bat webui.sh)设置的值,通知 Webui 重新启动功能可用 |
SD_WEBUI_RESTARTING | 表示 webui 当前是否正在重新启动或重新加载的内部值,用于禁用某些操作,例如自动启动浏览器。设置为 1 会禁用自动启动浏览器,设置为 0 即使在重新启动时也会启用自动启动某些扩展程序可能会使用此值用于类似目的。 |
webui-user
指定环境变量的推荐方法是编辑 webui-user.bat (Windows) 和 webui-user.sh (Linux):
set VARNAME=VALUE
Windowsexport VARNAME="VALUE"
Linux
例如,在 Windows 中:
代码语言:javascript复制set COMMANDLINE_ARGS=--allow-code --xformers --skip-torch-cuda-test --no-half-vae --api --ckpt-dir A:\stable-diffusion-checkpoints
在线运行
使用 --share 选项在线运行。 您将获得 xxx.app.gradio 链接。 这是在 colabs 中使用该程序的预期方式。 您可以使用标志 --gradio-auth username:password 为所述 gradio 共享实例设置身份验证,可选择提供多组用户名和密码,以逗号分隔。
在局域网内运行
使用 --listen 使服务器侦听网络连接。 这将允许本地网络上的计算机访问 UI,如果您配置端口转发,也允许互联网上的计算机访问 UI。 示例地址:http://192.168.1.3:7860 其中“192.168.1.3”是本地 IP 地址。
使用 --port xxxx 使服务器侦听特定端口,xxxx 是所需端口。 请记住,所有低于 1024 的端口都需要 root/admin 权限,因此建议使用高于 1024 的端口。默认为端口 7860(如果可用)。
在CPU上运行
仅使用您的 CPU 运行是可能的,但不推荐。 它非常慢并且没有 fp16 实现。
要运行,您必须启用所有这些标志:--use-cpu all --precision full --no-half --skip-torch-cuda-test
尽管由于生成速度非常慢,这是运行 webui 的一种值得怀疑的方式; 使用各种人工智能升级器和字幕工具可能对某些人有用。
附加功能:
所有命令行参数
参数命令 | 值 | 默认值 | 描述 |
---|---|---|---|
CONFIGURATION | |||
-h, --help | None | False | 显示此帮助消息并退出。 |
--exit | 安装后终止 | ||
--data-dir | DATA_DIR | ./ | 存储所有用户数据的基本路径 |
--config | CONFIG | configs/stable-diffusion/v1-inference.yaml | 构造模型的配置路径。 |
--ckpt | CKPT | model.ckpt | 稳定扩散模型检查点的路径; 如果指定,该检查点将被添加到检查点列表中并加载。 |
--ckpt-dir | CKPT_DIR | None | 具有稳定扩散检查点的目录路径。 |
--no-download-sd-model | None | False | 即使没有找到模型,也不要下载SD1.5模型。 |
--do-not-download-clip | None | False | 即使未包含在检查点中,也不要下载 CLIP 模型 |
--vae-dir | VAE_PATH | None | 变分自动编码器模型的路径 |
--vae-path | VAE_PATH | None | 用作 VAE 的检查点; 设置这个参数 |
--gfpgan-dir | GFPGAN_DIR | GFPGAN/ | GFPGAN 目录. |
--gfpgan-model | GFPGAN_MODEL | GFPGAN model file name. | |
--codeformer-models-path | CODEFORMER_MODELS_PATH | models/Codeformer/ | 包含 Codeformer 模型文件的目录路径。 |
--gfpgan-models-path | GFPGAN_MODELS_PATH | models/GFPGAN | 包含 GFPGAN 模型文件的目录路径。 |
--esrgan-models-path | ESRGAN_MODELS_PATH | models/ESRGAN | 包含 ESRGAN 模型文件的目录路径。 |
--bsrgan-models-path | BSRGAN_MODELS_PATH | models/BSRGAN | 包含 BSRGAN 模型文件的目录路径。 |
--realesrgan-models-path | REALESRGAN_MODELS_PATH | models/RealESRGAN | RealESRGAN 模型文件的目录路径。 |
--scunet-models-path | SCUNET_MODELS_PATH | models/ScuNET | ScuNET 模型文件的目录路径。 |
--swinir-models-path | SWINIR_MODELS_PATH | models/SwinIR | 包含 SwinIR 和 SwinIR v2 模型文件的目录路径。 |
--ldsr-models-path | LDSR_MODELS_PATH | models/LDSR | 包含 LDSR 模型文件的目录路径。 |
--lora-dir | LORA_DIR | models/Lora | Lora 网络目录的路径。 |
--clip-models-path | CLIP_MODELS_PATH | None | 包含 CLIP 模型文件的目录路径。 |
--embeddings-dir | EMBEDDINGS_DIR | embeddings/ | 用于文本反转的嵌入目录(默认值:嵌入)。 |
--textual-inversion-templates-dir | TEXTUAL_INVERSION_TEMPLATES_DIR | textual_inversion_templates | 带有文本反转模板的目录。 |
--hypernetwork-dir | HYPERNETWORK_DIR | models/hypernetworks/ | 超网络目录。 |
--localizations-dir | LOCALIZATIONS_DIR | localizations/ | 本地化目录。 |
--styles-file | STYLES_FILE | styles.csv | 用于样式的文件名。 |
--ui-config-file | UI_CONFIG_FILE | ui-config.json | 用于 UI 配置的文件名。 |
--no-progressbar-hiding | None | False | 不要在 gradio UI 中隐藏进度条(我们隐藏它是因为如果浏览器中有硬件加速,它会减慢 ML 速度)。 |
--max-batch-count | MAX_BATCH_COUNT | 16 | UI 的最大批次计数值。 |
--ui-settings-file | UI_SETTINGS_FILE | config.json | 用于 UI 设置的文件名。 |
--allow-code | None | False | 允许从 Web UI 执行自定义脚本。 |
--share | None | False | 对 gradio 使用 share=True 并使 UI 可通过其网站访问。 |
--listen | None | False | 使用 0.0.0.0 作为服务器名称启动 gradio,允许响应网络请求。 |
--port | PORT | 7860 | 使用给定的服务器端口启动 gradio,您需要端口 < 1024 的 root/admin 权限; 如果可用,默认为 7860。 |
--hide-ui-dir-config | None | False | 从 Web UI 隐藏目录配置。 |
--freeze-settings | None | False | 禁用编辑设置 |
--enable-insecure-extension-access | None | False | 无论其他选项如何,都启用扩展选项卡。 |
--gradio-debug | None | False | 使用 --debug 选项启动 gradio。 |
--gradio-auth | GRADIO_AUTH | None | 设置 gradio 身份验证,如用户名:密码; 或用逗号分隔多个,如 u1:p1,u2:p2,u3:p3。 |
--gradio-auth-path | GRADIO_AUTH_PATH | None | 设置gradio认证文件路径ex。 /path/to/auth/file 与 --gradio-auth 相同的身份验证格式。 |
--disable-console-progressbars | None | False | 不要将进度条输出到控制台。 |
--enable-console-prompts | None | False | 使用 txt2img 和 img2img 生成时将提示打印到控制台。 |
--api | None | False | 使用 API 启动 Web UI。 |
--api-auth | API_AUTH | None | 设置 API 的身份验证,例如用户名:密码; 或用逗号分隔多个,如 u1:p1,u2:p2,u3:p3。 |
--api-log | None | False | 启用所有 API 请求的日志记录。 |
--nowebui | None | False | 只启动 API,不启动 UI。 |
--ui-debug-mode | None | False | 不要加载模型来快速启动 UI。 |
--device-id | DEVICE_ID | None | 选择要使用的默认 CUDA 设备(之前可能需要导出 CUDA_VISIBLE_DEVICES=0,1 等)。 |
--administrator | None | False | 管理员权限。 |
--cors-allow-origins | CORS_ALLOW_ORIGINS | None | 允许的 CORS 来源采用逗号分隔列表的形式(无空格)。 |
--cors-allow-origins-regex | CORS_ALLOW_ORIGINS_REGEX | None | 允许采用单个正则表达式形式的 CORS 来源。 |
--tls-keyfile | TLS_KEYFILE | None | 部分启用 TLS,需要 --tls-certfile 才能完全运行。 |
--tls-certfile | TLS_CERTFILE | None | 部分启用 TLS,需要 --tls-keyfile 才能完全发挥作用。 |
--disable-tls-verify | None | False | 通过后,即可使用自签名证书。 |
--server-name | SERVER_NAME | None | 设置服务器的主机名。 |
--no-gradio-queue | None | False | 禁用渐变队列; 导致网页使用http请求而不是websocket; 是早期版本中的默认值。 |
--gradio-allowed-path | None | None | 添加Gradio的allowed_paths路径; 使得可以从中提供文件。 |
--no-hashing | None | False | 禁用检查点的 SHA-256 哈希以帮助加载性能。 |
--skip-version-check | None | False | 不要检查 torch 和 xformers 的版本。 |
--skip-python-version-check | None | False | 不检查 Python 的版本。 |
--skip-torch-cuda-test | None | False | 不检查CUDA是否能够正常工作。 |
--skip-install | None | False | 跳过软件包的安装。 |
--loglevel | None | None | 日志级别; 以下之一:严重、错误、警告、信息、调试 |
--log-startup | None | False | launch.py 参数:打印启动时发生的情况的详细日志 |
--api-server-stop | None | False | 通过 api 启用服务器 stop/restart/kill |
--timeout-keep-alive | int | 30 | 为 uvicorn 设置 timeout_keep_alive |
PERFORMANCE | |||
--xformers | None | False | 为交叉注意力层启用 xformers。 |
--force-enable-xformers | None | False | 为交叉注意层启用 xformers,无论检查代码是否认为您可以运行它; 如果这不起作用,请不要报告错误。 |
--xformers-flash-attention | None | False | 启用带有 Flash Attention 的 xformers 以提高再现性(仅支持 SD2.x 或变体)。 |
--opt-sdp-attention | None | False | 启用缩放点积交叉注意层优化; 需要 PyTorch 2.* |
--opt-sdp-no-mem-attention | False | None | 启用缩放点积交叉注意力层优化,无需内存高效注意力,使图像生成具有确定性; 需要 PyTorch 2.* |
--opt-split-attention | None | False | 强制启用 Doggettx 的交叉注意力层优化。 默认情况下,它在启用 CUDA 的系统上处于打开状态。 |
--opt-split-attention-invokeai | None | False | 强制启用 InvokeAI 的交叉注意力层优化。 默认情况下,当 CUDA 不可用时它会打开。 |
--opt-split-attention-v1 | None | False | 启用旧版本的分割注意力优化,不会消耗所有可用的 VRAM。 |
--opt-sub-quad-attention | None | False | 实现内存高效的次二次交叉注意力层优化。 |
--sub-quad-q-chunk-size | SUB_QUAD_Q_CHUNK_SIZE | 1024 | 用于次二次交叉注意力层优化的查询块大小。 |
--sub-quad-kv-chunk-size | SUB_QUAD_KV_CHUNK_SIZE | None | 用于次二次交叉注意力层优化的 KV 块大小。 |
--sub-quad-chunk-threshold | SUB_QUAD_CHUNK_THRESHOLD | None | 使用分块进行次二次交叉注意力层优化的 VRAM 阈值的百分比。 |
--opt-channelslast | None | False | 启用 4d 张量的替代布局,可能会导致仅在具有 Tensor 核心(16xx 及更高)的 Nvidia 卡上更快的推理。 |
--disable-opt-split-attention | None | False | 强制禁用交叉注意力层优化。 |
--disable-nan-check | None | False | 不检查生成的图像/潜在空间是否有 nan; 对于在 CI 中没有检查点的情况下运行很有用。 |
--use-cpu | {all, sd, interrogate, gfpgan, bsrgan, esrgan, scunet, codeformer} | None | 使用CPU作为指定模块的torch设备。 |
--no-half | None | False | 不要将模型切换为 16 位浮点数。 |
--precision | {full,autocast} | autocast | 以此精度进行评估。 |
--no-half-vae | None | False | 不要将 VAE 模型切换为 16 位浮点数。 |
--upcast-sampling | None | False | 向上采样。 --no-half 没有效果。 通常会产生与 --no-half 类似的结果,并且使用更少的内存,但性能更好。 |
--medvram | None | False | 启用稳定扩散模型优化,以牺牲一些性能来降低 VRAM 使用率。 |
--medvram-sdxl | None | False | 仅针对 SDXL 模型启用 --medvram 优化 |
--lowvram | None | False | 启用稳定扩散模型优化,以牺牲大量速度以获得非常低的 VRAM 使用率。 |
--lowram | None | False | 将稳定扩散检查点权重加载到 VRAM 而不是 RAM。 |
--disable-model-loading-ram-optimization | None | False | 禁用加载模型时减少 RAM 使用的优化 |
FEATURES | |||
--autolaunch | None | False | 启动时在系统默认浏览器中打开 Web UI URL。 |
--theme | None | Unset | 打开具有指定主题(浅色或深色)的 Web UI。 如果未指定,则使用默认浏览器主题。 |
--use-textbox-seed | None | False | 在 UI 中使用种子文本框(无向上/向下,但可以输入长种子)。 |
--disable-safe-unpickle | None | False | 禁用检查 PyTorch 模型是否存在恶意代码。 |
--ngrok | NGROK | None | ngrok authtoken,gradio --share 的替代品。 |
--ngrok-region | NGROK_REGION | us | ngrok 应该启动的区域。 |
--update-check | None | None | 启动时,通知您的 Web UI 版本(提交)是否与当前主分支保持同步。 |
--update-all-extensions | None | None | 启动时,它会提取您已安装的所有扩展的最新更新。 |
--reinstall-xformers | None | False | 强制重新安装 xformers。 对于升级很有用 - 但升级后将其删除,否则您将永久重新安装 xformers。 |
--reinstall-torch | None | False | 强制重新torch。 对于升级很有用 - 但升级后将其删除,否则您将永久重新安装 torch。 |
--tests | TESTS | False | 运行测试以验证 Web UI 功能,请参阅 wiki 主题了解更多详细信息。 |
--no-tests | None | False | 即使指定了 --tests 选项,也不运行测试。 |
--dump-sysinfo | None | False | launch.py 参数:将有限的 sysinfo 文件(没有有关扩展、选项的信息)转储到磁盘并退出 |
--disable-all-extensions | None | False | 禁用所有非内置扩展运行 |
--disable-extra-extensions | None | False | 禁用所有扩展程序运行 |
DEFUNCT OPTIONS | |||
--show-negative-prompt | None | False | 不再有效果。 |
--deepdanbooru | None | False | 不再有效果。 |
--unload-gfpgan | None | False | 不再有效果。 |
--gradio-img2img-tool | GRADIO_IMG2IMG_TOOL | None | 不再有效果。 |
--gradio-inpaint-tool | GRADIO_INPAINT_TOOL | None | 不再有效果。 |
--gradio-queue | None | False | 不再有效果。 |
--add-stop-route | None | False | 不再有效果。 |
--always-batch-cond-uncond | None | False | 不再有效果。进入“设置”>“优化”下的 UI |