Spaces:
Paused
Paused
File size: 930 Bytes
baf0faa 4c3ffaa 6ffb004 f8467db 4c3ffaa 6ffb004 f8467db 0b9f6c4 e91c003 baf0faa 0b9f6c4 baf0faa 6ffb004 a75d7db bf5e07e a75d7db e1f831f bf5e07e 2b37551 baf0faa |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 |
#!/bin/bash
# Configurez le token Hugging Face et le répertoire cache
export HF_TOKEN=$HF_TOKEN
export HUGGING_FACE_HUB_TOKEN=$HF_TOKEN
export HF_HOME=/.cache/huggingface
# Démarrez le service Ollama en arrière-plan
ollama serve &
sleep 10
# Connectez-vous à Hugging Face
huggingface-cli login --token $HF_TOKEN
# Attendez que le service soit prêt
sleep 10
# Exécutez les commandes pull avec les modèles privés
ollama pull hf.co/Yaya86/Meta-Llama-3.1-8B-Instruct-bnb-4bit-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Mistral-Nemo-Base-2407-bnb-4bit-v4:F16
sleep 10
#ollama pull hf.co/Yaya86/Phi-3-medium-4k-instruct-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/gemma-2-9b-bnb-4bit-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Llama-3.1-Minitron-4B-Width-Base-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Mistral-NeMo-Minitron-8B-Base-v4.5:F16
#sleep 10
# Gardez le conteneur en cours d'exécution
tail -f /dev/null |