#!/bin/bash # Hugging Face GPU 배포 스크립트 echo "🚀 Hugging Face GPU 환경 배포 시작" # GPU 환경 확인 echo "🔍 GPU 환경 확인 중..." python check_gpu_environment.py if [ $? -ne 0 ]; then echo "❌ GPU 환경 확인 실패" exit 1 fi # Hugging Face 설정 echo "🔧 Hugging Face 환경 설정 중..." python huggingface_gpu_setup.py # 기존 컨테이너 정리 echo "🧹 기존 컨테이너 정리 중..." docker-compose -f docker-compose.gpu.yml down --volumes --remove-orphans # GPU 메모리 정리 echo "💾 GPU 메모리 정리 중..." nvidia-smi --gpu-reset # 이미지 빌드 echo "🔨 Docker 이미지 빌드 중..." docker-compose -f docker-compose.gpu.yml build --no-cache # 컨테이너 시작 echo "🚀 컨테이너 시작 중..." docker-compose -f docker-compose.gpu.yml up -d # 서비스 상태 확인 echo "📊 서비스 상태 확인 중..." sleep 15 # 헬스체크 echo "🏥 헬스체크 중..." for i in {1..30}; do if curl -f http://localhost:8001/health &> /dev/null; then echo "✅ Lily LLM API 서비스 정상" break fi if [ $i -eq 30 ]; then echo "❌ 서비스 시작 실패" docker-compose -f docker-compose.gpu.yml logs exit 1 fi echo "⏳ 서비스 시작 대기 중... ($i/30)" sleep 2 done # GPU 사용량 확인 echo "🎮 GPU 사용량 확인:" nvidia-smi # Hugging Face 모델 테스트 echo "🧪 Hugging Face 모델 테스트 중..." python test_gpu_deployment.py # 성능 최적화 적용 echo "⚡ 성능 최적화 적용 중..." python performance_optimization.py # 서비스 정보 출력 echo "" echo "🎉 Hugging Face GPU 환경 배포 완료!" echo "" echo "📋 서비스 정보:" echo " - Lily LLM API: http://localhost:8001" echo " - Hearth Chat: http://localhost:8000" echo " - LaTeX-OCR Service: 별도 컨테이너로 실행 중" echo "" echo "🔧 유용한 명령어:" echo " - 로그 확인: docker-compose -f docker-compose.gpu.yml logs -f" echo " - 서비스 중지: docker-compose -f docker-compose.gpu.yml down" echo " - 서비스 재시작: docker-compose -f docker-compose.gpu.yml restart" echo "" echo "🧪 테스트 명령어:" echo " - API 테스트: curl http://localhost:8001/health" echo " - GPU 테스트: python test_gpu_deployment.py" echo " - Hugging Face 테스트: python huggingface_gpu_setup.py" echo "" echo "💡 Hugging Face 모델 사용:" echo " - 모델 로드: python huggingface_gpu_setup.py" echo " - 토큰 설정: huggingface-cli login"