Hdjdjdh / entrypoint.sh
Hjgugugjhuhjggg's picture
Update entrypoint.sh
062c4a1 verified
#!/bin/bash
set -e
# Activar el entorno Conda
source /opt/conda/etc/profile.d/conda.sh
conda activate sllm
# Establecer el puerto de la aplicaci贸n
export APP_PORT=${PORT:-8080}
echo "Iniciando servicios en el puerto $APP_PORT"
# Iniciar Ray con mayor tiempo de espera para asegurar la detecci贸n de workers
ray start --head --port=6379 --num-cpus=4 --num-gpus=0 --resources='{"control_node": 1}' &
sleep 10
# Iniciar Serverless LLM Store
python -m serverless_llm_store start &
sleep 10
# Iniciar SLLM Serve
sllm-serve start --port 8080 &
sleep 10
# Esperar a que el puerto 8073 (u otro servicio cr铆tico) est茅 activo
#while ! nc -z localhost 8073; do
# echo "Esperando que el puerto 8073 se inicie..."
# sleep 2
#done
# Desplegar el modelo (se recomienda verificar que el modelo "lilmeaty/my_xdd" est茅 disponible)
sllm-cli deploy --model lilmeaty/my_xdd || echo "Error en el despliegue del modelo. Verifique los logs y la disponibilidad del modelo."
# Mantener el contenedor activo
wait