fix: eqbench-ja-run/serve_test.sh (JA-D1 + JA-D2 + JA-M1 patches)
Browse files- eqbench-ja-run/serve_test.sh +11 -5
eqbench-ja-run/serve_test.sh
CHANGED
|
@@ -7,7 +7,11 @@
|
|
| 7 |
# アダプタを動的にロードする形式を使用する。
|
| 8 |
#
|
| 9 |
# ポート: 8000
|
| 10 |
-
# VRAM
|
|
|
|
|
|
|
|
|
|
|
|
|
| 11 |
# =============================================================================
|
| 12 |
|
| 13 |
set -euo pipefail
|
|
@@ -17,16 +21,18 @@ LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}"
|
|
| 17 |
LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
|
| 18 |
PORT="${TEST_PORT:-8000}"
|
| 19 |
HOST="${VLLM_HOST:-0.0.0.0}"
|
| 20 |
-
GPU_UTIL="${TEST_GPU_UTIL:-0.10}" #
|
| 21 |
-
|
|
|
|
| 22 |
DTYPE="${VLLM_DTYPE:-auto}"
|
| 23 |
HF_TOKEN="${HF_TOKEN:-}"
|
| 24 |
|
| 25 |
echo "=== TeenEmo 受験者サーバー起動 ==="
|
| 26 |
echo " ベースモデル : ${BASE_MODEL}"
|
| 27 |
-
echo " LoRAアダプタ
|
| 28 |
echo " ポート : ${PORT}"
|
| 29 |
-
echo " GPU 使用率 : ${GPU_UTIL} (judge用にVRAMを確保)"
|
|
|
|
| 30 |
echo ""
|
| 31 |
|
| 32 |
exec vllm serve "${BASE_MODEL}" \
|
|
|
|
| 7 |
# アダプタを動的にロードする形式を使用する。
|
| 8 |
#
|
| 9 |
# ポート: 8000
|
| 10 |
+
# VRAM: ~3GB (1.2B bf16, GPU_UTIL=0.10 で残りを Judge 用に確保)
|
| 11 |
+
#
|
| 12 |
+
# [Fix-JA-M1] MAX_MODEL_LEN: 4096 → 32768
|
| 13 |
+
# EQ-Bench3 は max_tokens=12000 を要求するため 4096 では Fatal
|
| 14 |
+
# ただし Judge と同居するため GPU_UTIL は低く抑える
|
| 15 |
# =============================================================================
|
| 16 |
|
| 17 |
set -euo pipefail
|
|
|
|
| 21 |
LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
|
| 22 |
PORT="${TEST_PORT:-8000}"
|
| 23 |
HOST="${VLLM_HOST:-0.0.0.0}"
|
| 24 |
+
GPU_UTIL="${TEST_GPU_UTIL:-0.10}" # Judge 用に VRAM を残す
|
| 25 |
+
# [Fix-JA-M1] EQ-Bench3 の max_tokens=12000 + プロンプト長を考慮
|
| 26 |
+
MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-32768}"
|
| 27 |
DTYPE="${VLLM_DTYPE:-auto}"
|
| 28 |
HF_TOKEN="${HF_TOKEN:-}"
|
| 29 |
|
| 30 |
echo "=== TeenEmo 受験者サーバー起動 ==="
|
| 31 |
echo " ベースモデル : ${BASE_MODEL}"
|
| 32 |
+
echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})"
|
| 33 |
echo " ポート : ${PORT}"
|
| 34 |
+
echo " GPU 使用率 : ${GPU_UTIL} (judge 用に VRAM を確保)"
|
| 35 |
+
echo " 最大コンテキスト: ${MAX_MODEL_LEN} (EQ-Bench3: max_tokens=12000 対応)"
|
| 36 |
echo ""
|
| 37 |
|
| 38 |
exec vllm serve "${BASE_MODEL}" \
|