File size: 930 Bytes
baf0faa
 
4c3ffaa
6ffb004
f8467db
4c3ffaa
6ffb004
f8467db
0b9f6c4
e91c003
baf0faa
 
 
0b9f6c4
 
 
baf0faa
 
 
6ffb004
a75d7db
bf5e07e
a75d7db
e1f831f
bf5e07e
 
 
 
 
 
 
 
2b37551
baf0faa
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
#!/bin/bash

# Configurez le token Hugging Face et le répertoire cache
export HF_TOKEN=$HF_TOKEN
export HUGGING_FACE_HUB_TOKEN=$HF_TOKEN
export HF_HOME=/.cache/huggingface




# Démarrez le service Ollama en arrière-plan
ollama serve &

sleep 10
# Connectez-vous à Hugging Face
huggingface-cli login --token $HF_TOKEN
# Attendez que le service soit prêt
sleep 10

# Exécutez les commandes pull avec les modèles privés
ollama pull hf.co/Yaya86/Meta-Llama-3.1-8B-Instruct-bnb-4bit-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Mistral-Nemo-Base-2407-bnb-4bit-v4:F16
sleep 10
#ollama pull hf.co/Yaya86/Phi-3-medium-4k-instruct-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/gemma-2-9b-bnb-4bit-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Llama-3.1-Minitron-4B-Width-Base-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Mistral-NeMo-Minitron-8B-Base-v4.5:F16
#sleep 10

# Gardez le conteneur en cours d'exécution
tail -f /dev/null