Dax451's picture
Update app.py
cc13c9c verified
raw
history blame
12.7 kB
import os
import gradio as gr
import requests
from PIL import Image
from io import BytesIO
from openai import OpenAI
from dotenv import load_dotenv
import time
import base64
import random
# Carica le variabili d'ambiente (se presenti)
load_dotenv()
class FluxNineteenGenerator:
"""Generatore di immagini utilizzando l'API FLUX di Nineteen.ai"""
def __init__(self):
"""Inizializza il generatore"""
print("Inizializzazione del generatore di immagini FLUX Nineteen.ai...")
# Ottieni l'API key da variabile d'ambiente
self.api_key = os.getenv("NINETEEN_API_KEY")
if not self.api_key:
raise ValueError(
"È necessario configurare la variabile d'ambiente NINETEEN_API_KEY.\n"
"Su Hugging Face Spaces: Aggiungi la variabile nelle impostazioni dello Space.\n"
"In locale: Configura la variabile nel tuo ambiente di sviluppo."
)
# Configurazione dell'API
self.api_endpoint = "https://api.nineteen.ai/v1/text-to-image"
self.headers = {
"Authorization": f"Bearer {self.api_key}",
"Content-Type": "application/json"
}
# Modello predefinito
self.default_model = "black-forest-labs/FLUX.1-schnell"
print(f"Generatore inizializzato con modello predefinito: {self.default_model}")
# Lista dei modelli disponibili
self.models = {
"schnell": "black-forest-labs/FLUX.1-schnell",
"proteus": "dataautogpt3/ProteusV0.4-Lightning",
"dreamshaper": "Lykon/dreamshaper-xl-lightning"
}
def generate_image(self, prompt, model=None, steps=28, cfg_scale=7.0, height=1024, width=1024, negative_prompt=None):
"""
Genera un'immagine utilizzando l'API FLUX.
Args:
prompt (str): Descrizione dell'immagine da generare
model (str, optional): Nome del modello da utilizzare. Default: None (usa il modello predefinito)
steps (int, optional): Numero di passi di inferenza. Default: 28
cfg_scale (float, optional): Guidance scale. Default: 7.0
height (int, optional): Altezza dell'immagine. Default: 1024
width (int, optional): Larghezza dell'immagine. Default: 1024
negative_prompt (str, optional): Prompt negativo. Default: None
Returns:
tuple: (PIL.Image, str) L'immagine generata e un messaggio di stato
"""
try:
# Usa il modello predefinito se non specificato
if not model:
model = self.default_model
# Se viene fornito un nome breve, usa il nome completo dal dizionario
if model in self.models:
model = self.models[model]
# Prepara i parametri per la richiesta
payload = {
"prompt": prompt,
"model": model,
"num_inference_steps": steps,
"guidance_scale": cfg_scale,
"height": height,
"width": width
}
if negative_prompt:
payload["negative_prompt"] = negative_prompt
print(f"Generazione immagine con prompt: '{prompt}'")
print(f"Parametri: modello={model}, steps={steps}, cfg_scale={cfg_scale}, dimensioni={height}x{width}")
start_time = time.time()
# Invia la richiesta all'API
response = requests.post(
self.api_endpoint,
headers=self.headers,
json=payload
)
# Gestisci gli errori HTTP
if response.status_code != 200:
error_message = f"Errore API: {response.status_code} - {response.text}"
print(error_message)
return None, error_message
# Decodifica l'immagine
end_time = time.time()
try:
image_b64 = response.json()["image_b64"]
image_data = base64.b64decode(image_b64)
image = Image.open(BytesIO(image_data))
print(f"Immagine generata in {end_time - start_time:.2f} secondi")
return image, f"Immagine generata in {end_time - start_time:.2f} secondi"
except Exception as e:
error_message = f"Errore nella decodifica dell'immagine: {str(e)}"
print(error_message)
return None, error_message
except Exception as e:
error_message = f"Errore durante la generazione: {str(e)}"
print(error_message)
return None, error_message
class GeminiPromptGenerator:
"""Generatore di prompt creativi utilizzando Gemini AI"""
def __init__(self):
"""Inizializza il generatore di prompt"""
self.client = OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key=os.getenv("OPENROUTER_API_KEY")
)
self.model = {
"model": "google/gemma-3-27b-it:free",
"temperature": 1.4, # Aumentata per più creatività
"top_p": 0.99, # Aumentato per più variabilità
"max_tokens": 8192, # Equivalente a max_output_tokens
"extra_headers": {
"HTTP-Referer": "https://your-site.com", # Richiesto da OpenRouter
"X-Title": "AI Image Generator" # Richiesto da OpenRouter
}
}
# Lista di stili artistici per variare i prompt
self.art_styles = [
"hyperrealistic", "cinematic", "digital art", "oil painting",
"concept art", "fantasy art", "sci-fi", "surrealism",
"studio photography", "anime", "cyberpunk", "steampunk"
]
# Lista di atmosfere per variare i prompt
self.moods = [
"ethereal", "mysterious", "dramatic", "peaceful",
"energetic", "melancholic", "whimsical", "epic",
"intimate", "nostalgic", "futuristic", "dreamy"
]
def generate_creative_prompt(self):
"""Genera un prompt creativo per la generazione di immagini"""
# Seleziona casualmente uno stile e un'atmosfera
style = random.choice(self.art_styles)
mood = random.choice(self.moods)
system_prompt = f"""You are an expert prompt engineer for artistic image generation.
Create a unique and creative prompt to generate an extraordinary image.
Current time: {time.strftime('%Y-%m-%d %H:%M:%S')}
The prompt must:
- Be in English
- Create a completely new and original scene, different from any previous ones
- Focus on the suggested style: {style}
- Incorporate the suggested mood: {mood}
- Include specific details about:
* Main subject and its unique characteristics
* Rich environmental details and setting
* Dynamic lighting and atmospheric effects
* Specific color palette and visual elements
* Camera angle or perspective
- Use vivid and evocative language
- Be about 2-3 lines long
- Include elements that work well with the FLUX.1-schnell model
- End with style keywords: {style}, {mood}, photorealistic, cinematic, 8K, ultra-detailed
Generate ONLY the prompt, without any explanations or introductions.
IMPORTANT: Create something completely different from previous prompts.
DO NOT include words like 'prompt' or 'description' in the response."""
try:
response = self.client.chat.completions.create(
messages=[{"role": "user", "content": system_prompt}],
**self.model
)
if response.choices[0].message.content:
return response.choices[0].message.content.strip()
else:
return "Sorry, I couldn't generate a creative prompt. Please try again."
except Exception as e:
return f"Error generating prompt: {str(e)}"
def create_ui():
"""Crea l'interfaccia utente Gradio"""
# Inizializza i generatori
flux_gen = FluxNineteenGenerator()
gemini_gen = GeminiPromptGenerator()
def generate_random_prompt():
"""Genera un prompt casuale usando Gemini"""
try:
return gemini_gen.generate_creative_prompt()
except Exception as e:
return f"Error: {str(e)}"
def generate_image(prompt, model, steps, cfg_scale, height, width, negative_prompt):
"""Funzione per generare immagini dall'interfaccia"""
try:
return flux_gen.generate_image(
prompt=prompt,
model=model,
steps=steps,
cfg_scale=cfg_scale,
height=height,
width=width,
negative_prompt=negative_prompt
)
except Exception as e:
return None, str(e)
with gr.Blocks(title="FLUX Image Generator") as demo:
gr.Markdown("# 🎨 FLUX Image Generator")
gr.Markdown("Image generator with FLUX.1-schnell and Gemini AI")
with gr.Row():
with gr.Column(scale=1):
prompt_input = gr.Textbox(
label="Prompt",
placeholder="Enter your image description or click 'Generate Creative Prompt'...",
lines=3
)
with gr.Row():
generate_prompt_btn = gr.Button("🤖 Generate Creative Prompt", variant="secondary")
clear_prompt_btn = gr.Button("🗑️ Clear", variant="secondary")
with gr.Accordion("Advanced Settings", open=False):
model_input = gr.Dropdown(
choices=list(FluxNineteenGenerator().models.keys()),
value="schnell",
label="Model"
)
steps_input = gr.Slider(
minimum=1,
maximum=100,
value=28,
step=1,
label="Steps"
)
cfg_input = gr.Slider(
minimum=1.0,
maximum=20.0,
value=7.0,
step=0.5,
label="CFG Scale"
)
with gr.Row():
height_input = gr.Slider(
minimum=512,
maximum=1536,
value=1024,
step=64,
label="Height (px)"
)
width_input = gr.Slider(
minimum=512,
maximum=1536,
value=1024,
step=64,
label="Width (px)"
)
negative_prompt_input = gr.Textbox(
label="Negative Prompt",
placeholder="Elements to avoid in the image...",
lines=2
)
generate_image_btn = gr.Button("🎨 Generate Image", variant="primary")
with gr.Column(scale=1):
output_image = gr.Image(label="Generated Image")
output_status = gr.Textbox(label="Status", interactive=False)
# Eventi
generate_prompt_btn.click(
fn=generate_random_prompt,
outputs=prompt_input
)
clear_prompt_btn.click(
fn=lambda: "",
outputs=prompt_input
)
generate_image_btn.click(
fn=generate_image,
inputs=[
prompt_input,
model_input,
steps_input,
cfg_input,
height_input,
width_input,
negative_prompt_input
],
outputs=[output_image, output_status]
)
return demo
if __name__ == "__main__":
demo = create_ui()
demo.launch()