Spaces:
Sleeping
Sleeping
set -e | |
# Activar el entorno Conda | |
source /opt/conda/etc/profile.d/conda.sh | |
conda activate sllm | |
# Establecer el puerto de la aplicaci贸n | |
export APP_PORT=${PORT:-8080} | |
echo "Iniciando servicios en el puerto $APP_PORT" | |
# Iniciar Ray con mayor tiempo de espera para asegurar la detecci贸n de workers | |
ray start --head --port=6379 --num-cpus=4 --num-gpus=0 --resources='{"control_node": 1}' & | |
sleep 10 | |
# Iniciar Serverless LLM Store | |
python -m serverless_llm_store start & | |
sleep 10 | |
# Iniciar SLLM Serve | |
sllm-serve start --port 8080 & | |
sleep 10 | |
# Esperar a que el puerto 8073 (u otro servicio cr铆tico) est茅 activo | |
#while ! nc -z localhost 8073; do | |
# echo "Esperando que el puerto 8073 se inicie..." | |
# sleep 2 | |
#done | |
# Desplegar el modelo (se recomienda verificar que el modelo "lilmeaty/my_xdd" est茅 disponible) | |
sllm-cli deploy --model lilmeaty/my_xdd || echo "Error en el despliegue del modelo. Verifique los logs y la disponibilidad del modelo." | |
# Mantener el contenedor activo | |
wait | |