ollama_json / start.sh
Yaya86's picture
Update start.sh
a75d7db verified
raw
history blame contribute delete
930 Bytes
#!/bin/bash
# Configurez le token Hugging Face et le répertoire cache
export HF_TOKEN=$HF_TOKEN
export HUGGING_FACE_HUB_TOKEN=$HF_TOKEN
export HF_HOME=/.cache/huggingface
# Démarrez le service Ollama en arrière-plan
ollama serve &
sleep 10
# Connectez-vous à Hugging Face
huggingface-cli login --token $HF_TOKEN
# Attendez que le service soit prêt
sleep 10
# Exécutez les commandes pull avec les modèles privés
ollama pull hf.co/Yaya86/Meta-Llama-3.1-8B-Instruct-bnb-4bit-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Mistral-Nemo-Base-2407-bnb-4bit-v4:F16
sleep 10
#ollama pull hf.co/Yaya86/Phi-3-medium-4k-instruct-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/gemma-2-9b-bnb-4bit-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Llama-3.1-Minitron-4B-Width-Base-v4.5:F16
#sleep 10
#ollama pull hf.co/Yaya86/Mistral-NeMo-Minitron-8B-Base-v4.5:F16
#sleep 10
# Gardez le conteneur en cours d'exécution
tail -f /dev/null