#!/bin/bash # Configurez le token Hugging Face et le répertoire cache export HF_TOKEN=$HF_TOKEN export HUGGING_FACE_HUB_TOKEN=$HF_TOKEN export HF_HOME=/.cache/huggingface # Démarrez le service Ollama en arrière-plan ollama serve & sleep 10 # Connectez-vous à Hugging Face huggingface-cli login --token $HF_TOKEN # Attendez que le service soit prêt sleep 10 # Exécutez les commandes pull avec les modèles privés ollama pull hf.co/Yaya86/Meta-Llama-3.1-8B-Instruct-bnb-4bit-v4.5:F16 #sleep 10 #ollama pull hf.co/Yaya86/Mistral-Nemo-Base-2407-bnb-4bit-v4:F16 sleep 10 #ollama pull hf.co/Yaya86/Phi-3-medium-4k-instruct-v4.5:F16 #sleep 10 #ollama pull hf.co/Yaya86/gemma-2-9b-bnb-4bit-v4.5:F16 #sleep 10 #ollama pull hf.co/Yaya86/Llama-3.1-Minitron-4B-Width-Base-v4.5:F16 #sleep 10 #ollama pull hf.co/Yaya86/Mistral-NeMo-Minitron-8B-Base-v4.5:F16 #sleep 10 # Gardez le conteneur en cours d'exécution tail -f /dev/null