Deffusion.X / app.py
ArrcttacsrjksX's picture
Update app.py
205eccb verified
import os
import requests
import subprocess
import gradio as gr
from huggingface_hub import HfApi, upload_file
from datetime import datetime
# Token Hugging Face từ biến môi trường
hf_token = os.getenv("HF_TOKEN")
# URLs cần tải
app_url = "https://huggingface.co/datasets/ArrcttacsrjksX/Deffusion/resolve/main/RunModelAppp/App/sdmaster-d9b5942LatestJan182025"
model_url = "https://huggingface.co/datasets/ArrcttacsrjksX/Deffusion/resolve/main/Model/realisticVisionV60B1_v51HyperVAE.safetensors"
# Đường dẫn lưu file
app_path = "sdRundeffusiononhuggingfacemaster-ac54e00"
model_path = "realisticVisionV60B1_v51HyperVAE.safetensors"
# Hàm tải file từ Hugging Face
def download_file(url, output_path, token):
headers = {"Authorization": f"Bearer {token}"}
response = requests.get(url, headers=headers, stream=True)
response.raise_for_status() # Kiểm tra lỗi
with open(output_path, "wb") as f:
for chunk in response.iter_content(chunk_size=8192):
f.write(chunk)
print(f"Downloaded: {output_path}")
# Tải các file nếu chưa tồn tại
if not os.path.exists(app_path):
download_file(app_url, app_path, hf_token)
subprocess.run(["chmod", "+x", app_path]) # Thay đổi quyền thực thi
if not os.path.exists(model_path):
download_file(model_url, model_path, hf_token)
# Hàm xử lý chạy ứng dụng và lưu kết quả
def run_command_and_save(
prompt, mode, height, width, steps, seed, cfg_scale, strength, sampling_method,
batch_count, schedule, clip_skip, vae_tiling, vae_on_cpu, clip_on_cpu, diffusion_fa,
control_net_cpu, canny, verbose, init_image=None, weight_type=None
):
try:
# Lưu ảnh đầu vào nếu được cung cấp
init_image_path = None
if init_image is not None:
init_image_path = "input_image.png"
init_image.save(init_image_path)
# Tạo lệnh chạy
command = [
f"./{app_path}",
"-M", mode,
"-m", model_path,
"-p", prompt,
"-H", str(height),
"-W", str(width),
"--steps", str(steps),
"-s", str(seed),
"--cfg-scale", str(cfg_scale),
"--strength", str(strength),
"--sampling-method", sampling_method,
"--batch-count", str(batch_count),
"--schedule", schedule,
"--clip-skip", str(clip_skip),
]
# Thêm tùy chọn Weight Type nếu được chỉ định
if weight_type:
command.extend(["--type", weight_type])
# Thêm các tùy chọn khác
if vae_tiling:
command.append("--vae-tiling")
if vae_on_cpu:
command.append("--vae-on-cpu")
if clip_on_cpu:
command.append("--clip-on-cpu")
if diffusion_fa:
command.append("--diffusion-fa")
if control_net_cpu:
command.append("--control-net-cpu")
if canny:
command.append("--canny")
if verbose:
command.append("-v")
# Thêm ảnh đầu vào nếu có
if mode == "img2img" and init_image_path:
command.extend(["-i", init_image_path])
# Chạy lệnh và hiển thị log theo thời gian thực
process = subprocess.Popen(
command, stdout=subprocess.PIPE, stderr=subprocess.PIPE, text=True
)
logs = []
for line in process.stdout:
logs.append(line.strip()) # Lưu log vào danh sách
print(line, end="") # In log ra màn hình
process.wait() # Đợi tiến trình hoàn thành
# Kiểm tra kết quả và trả về
if process.returncode == 0:
# Đường dẫn ảnh đầu ra mặc định
output_path = "./output.png"
if os.path.exists(output_path):
# Tạo tên thư mục và tên file dựa trên ngày giờ hiện tại
now = datetime.now()
folder_name = f"SetImages+{now.strftime('%d+%m+%Y')}"
file_name = f"Image+{now.strftime('%S+%M+%H')}+_{prompt[:50].replace(' ', '_')}.png"
local_folder = os.path.join(".", folder_name)
os.makedirs(local_folder, exist_ok=True)
local_file_path = os.path.join(local_folder, file_name)
# Di chuyển file đến thư mục mới
os.rename(output_path, local_file_path)
# Upload file lên Hugging Face Hub
api = HfApi()
repo_id = "ArrcttacsrjksX/Deffusion"
remote_path = f"{folder_name}/{file_name}"
upload_file(
path_or_fileobj=local_file_path,
path_in_repo=remote_path,
repo_id=repo_id,
token=hf_token,
repo_type="dataset",
)
print(f"Uploaded to Hugging Face: {remote_path}")
return local_file_path, "\n".join(logs)
else:
return None, "\n".join(logs)
else:
error_log = process.stderr.read() # Đọc lỗi
logs.append(error_log)
return None, "\n".join(logs)
except Exception as e:
return None, str(e)
# Giao diện Gradio
def toggle_image_input(mode):
"""Hiển thị hoặc ẩn ô Drop Image dựa trên mode."""
return gr.update(visible=(mode == "img2img"))
with gr.Blocks(theme=gr.themes.Soft()) as demo:
gr.Markdown(
"""
# 🌟 **Stable Diffusion Interface**
Generate stunning images from text or modify existing images with AI-powered tools.
"""
)
# Thiết lập giao diện
with gr.Row():
with gr.Column():
prompt = gr.Textbox(
label="🎨 Prompt", placeholder="Enter your creative idea here...", lines=2
)
mode = gr.Radio(
choices=["txt2img", "img2img"], value="txt2img", label="Mode", interactive=True
)
init_image = gr.Image(
label="Drop Image (for img2img mode)", type="pil", visible=False
)
mode.change(toggle_image_input, inputs=mode, outputs=init_image)
with gr.Column():
height = gr.Slider(
128, 1024, value=512, step=64, label="Image Height (px)", interactive=True
)
width = gr.Slider(
128, 1024, value=512, step=64, label="Image Width (px)", interactive=True
)
steps = gr.Slider(
1, 100, value=20, step=1, label="Sampling Steps", interactive=True
)
seed = gr.Slider(
-1, 10000, value=-1, step=1, label="Random Seed (-1 for random)", interactive=True
)
cfg_scale = gr.Slider(
1, 20, value=7, step=0.1, label="CFG Scale", interactive=True
)
strength = gr.Slider(
0, 1, value=0.75, step=0.01, label="Strength (img2img only)", interactive=True
)
with gr.Row():
sampling_method = gr.Dropdown(
choices=["euler", "euler_a", "heun", "dpm2", "dpm++2s_a", "dpm++2m", "dpm++2mv2", "ipndm", "ipndm_v", "lcm"],
value="euler_a", label="Sampling Method", interactive=True
)
batch_count = gr.Slider(
1, 10, value=1, step=1, label="Batch Count", interactive=True
)
schedule = gr.Dropdown(
choices=["discrete", "karras", "exponential", "ays", "gits"],
value="discrete", label="Denoiser Sigma Schedule", interactive=True
)
with gr.Row():
clip_skip = gr.Slider(
-1, 10, value=-1, step=1, label="CLIP Skip Layers", interactive=True
)
vae_tiling = gr.Checkbox(label="VAE Tiling", value=False)
vae_on_cpu = gr.Checkbox(label="VAE on CPU", value=False)
clip_on_cpu = gr.Checkbox(label="CLIP on CPU", value=False)
diffusion_fa = gr.Checkbox(label="Diffusion Flash Attention", value=False)
control_net_cpu = gr.Checkbox(label="ControlNet on CPU", value=False)
canny = gr.Checkbox(label="Canny Preprocessor", value=False)
verbose = gr.Checkbox(label="Verbose Logging", value=False)
with gr.Row():
weight_type = gr.Dropdown(
choices=["f32", "f16", "q4_0", "q4_1", "q5_0", "q5_1", "q8_0", "q2_K", "q3_K", "q4_K"],
value=None, # Mặc định không chọn
label="Weight Type (Optional)",
interactive=True
)
# Nút chạy và kết quả
with gr.Row():
run_button = gr.Button("🚀 Run", variant="primary")
with gr.Row():
output_image = gr.File(label="Download Image", interactive=False)
log_output = gr.Textbox(label="Logs", interactive=False, lines=10)
# Kết nối nút Run với hàm xử lý
run_button.click(
run_command_and_save,
inputs=[
prompt, mode, height, width, steps, seed, cfg_scale, strength, sampling_method,
batch_count, schedule, clip_skip, vae_tiling, vae_on_cpu, clip_on_cpu, diffusion_fa,
control_net_cpu, canny, verbose, init_image, weight_type # Thêm weight_type
],
outputs=[output_image, log_output],
)
demo.launch()