File size: 290 Bytes
f4e8969
 
7e53ce3
718fab4
f4e8969
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
#!/bin/bash

#pip install -U "huggingface_hub[cli]"

# Démarrez le service Ollama en arrière-plan
ollama serve &

# Attendez que le service soit prêt
sleep 10

# Exécutez la commande pull
ollama pull llama3:8b-instruct-q8_0

# Gardez le conteneur en cours d'exécution
tail -f /dev/null