Spaces:
Paused
Paused
# Configurez le token Hugging Face et le répertoire cache | |
export HF_TOKEN=$HF_TOKEN | |
export HUGGING_FACE_HUB_TOKEN=$HF_TOKEN | |
export HF_HOME=/.cache/huggingface | |
# Démarrez le service Ollama en arrière-plan | |
ollama serve & | |
sleep 10 | |
# Connectez-vous à Hugging Face | |
huggingface-cli login --token $HF_TOKEN | |
# Attendez que le service soit prêt | |
sleep 10 | |
# Exécutez les commandes pull avec les modèles privés | |
ollama pull hf.co/Yaya86/Meta-Llama-3.1-8B-Instruct-bnb-4bit-v4.5:F16 | |
#sleep 10 | |
#ollama pull hf.co/Yaya86/Mistral-Nemo-Base-2407-bnb-4bit-v4:F16 | |
sleep 10 | |
#ollama pull hf.co/Yaya86/Phi-3-medium-4k-instruct-v4.5:F16 | |
#sleep 10 | |
#ollama pull hf.co/Yaya86/gemma-2-9b-bnb-4bit-v4.5:F16 | |
#sleep 10 | |
#ollama pull hf.co/Yaya86/Llama-3.1-Minitron-4B-Width-Base-v4.5:F16 | |
#sleep 10 | |
#ollama pull hf.co/Yaya86/Mistral-NeMo-Minitron-8B-Base-v4.5:F16 | |
#sleep 10 | |
# Gardez le conteneur en cours d'exécution | |
tail -f /dev/null |