Spaces:
Sleeping
Sleeping
commit
Browse files
app.py
CHANGED
|
@@ -8,20 +8,10 @@ Hugging Face Spaces (ZeroGPU) 対応版
|
|
| 8 |
- openai/gpt-oss-20b
|
| 9 |
"""
|
| 10 |
|
| 11 |
-
import gradio as gr
|
| 12 |
-
import torch
|
| 13 |
-
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
|
| 14 |
import os
|
| 15 |
from typing import List, Tuple
|
| 16 |
|
| 17 |
-
#
|
| 18 |
-
HF_TOKEN = os.getenv("HF_TOKEN")
|
| 19 |
-
|
| 20 |
-
# トークンのチェック
|
| 21 |
-
if not HF_TOKEN:
|
| 22 |
-
print("警告: HF_TOKENが設定されていません。プライベートモデルへのアクセスが制限される場合があります。")
|
| 23 |
-
|
| 24 |
-
# Check if running on ZeroGPU
|
| 25 |
try:
|
| 26 |
import spaces
|
| 27 |
IS_ZEROGPU = True
|
|
@@ -30,6 +20,18 @@ except ImportError:
|
|
| 30 |
IS_ZEROGPU = False
|
| 31 |
print("通常のGPU/CPU環境で実行しています。")
|
| 32 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 33 |
class ChatBot:
|
| 34 |
def __init__(self):
|
| 35 |
self.model = None
|
|
|
|
| 8 |
- openai/gpt-oss-20b
|
| 9 |
"""
|
| 10 |
|
|
|
|
|
|
|
|
|
|
| 11 |
import os
|
| 12 |
from typing import List, Tuple
|
| 13 |
|
| 14 |
+
# Check if running on ZeroGPU FIRST (before any CUDA initialization)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 15 |
try:
|
| 16 |
import spaces
|
| 17 |
IS_ZEROGPU = True
|
|
|
|
| 20 |
IS_ZEROGPU = False
|
| 21 |
print("通常のGPU/CPU環境で実行しています。")
|
| 22 |
|
| 23 |
+
# Import after spaces check
|
| 24 |
+
import gradio as gr
|
| 25 |
+
import torch
|
| 26 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
|
| 27 |
+
|
| 28 |
+
# Hugging Face token from environment variable
|
| 29 |
+
HF_TOKEN = os.getenv("HF_TOKEN")
|
| 30 |
+
|
| 31 |
+
# トークンのチェック
|
| 32 |
+
if not HF_TOKEN:
|
| 33 |
+
print("警告: HF_TOKENが設定されていません。プライベートモデルへのアクセスが制限される場合があります。")
|
| 34 |
+
|
| 35 |
class ChatBot:
|
| 36 |
def __init__(self):
|
| 37 |
self.model = None
|