File size: 290 Bytes
f4e8969 7e53ce3 718fab4 f4e8969 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
#!/bin/bash
#pip install -U "huggingface_hub[cli]"
# Démarrez le service Ollama en arrière-plan
ollama serve &
# Attendez que le service soit prêt
sleep 10
# Exécutez la commande pull
ollama pull llama3:8b-instruct-q8_0
# Gardez le conteneur en cours d'exécution
tail -f /dev/null |