GGUF
Japanese
English
Inference Endpoints
conversational
pokutuna commited on
Commit
466a19b
1 Parent(s): b69f3fe

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +26 -13
README.md CHANGED
@@ -3,38 +3,43 @@ license: gemma
3
  language:
4
  - ja
5
  - en
 
 
 
 
6
  ---
7
 
8
  ## Datasets
9
 
10
- TBD
 
 
 
11
 
12
  ## 実行方法(コンペ採点者の方向け)
13
 
14
  ### 事前準備
15
 
16
  ```
17
- # lshw のインストール
18
- # (ollama インストール時に GPU を検出するのに必要)
19
  $ apt update && apt install -y lshw
20
 
21
- # ollama (https://ollama.com/) のインストール & 起動
22
  $ curl -fsSL https://ollama.com/install.sh | sh
23
  $ ollama serve
24
 
25
- # -- 以降別ターミナルプロセスから --
26
 
27
  # モデルのダウンロード
28
- $ MODEL_NAME="hf.co/pokutuna/llm2024-gemma2:gemma2-9b-sft005-Q6_K.gguf"
29
- $ ollama pull $MODEL_NAME
30
- # success と出力されるのを確認
31
  #
32
  # Note.
 
33
  # 演習環境で動作を確認済みですがネットワーク状況等により、
34
- # 時々 timeout (context deadline exceeded) が発生することがあります。
35
  # 何度か実行すれば走り切ります。
36
 
37
- # 実行コードの pull
38
  $ git clone https://github.com/pokutuna/llm2024-competition-runner.git
39
 
40
  # 依存ライブラリのインストール
@@ -43,7 +48,15 @@ $ pip install -r llm2024-competition-runner/requirements.txt
43
 
44
  ### 出力の生成
45
 
46
- `$ python ./llm2024-competition-runner/generate.py --tasks=./tasks.jsonl --outfile=./output.jsonl`
 
 
 
 
 
47
 
48
- - `--tasks=<入力タスク>` 各行に input フィールドを持つ JSONL ファイル (`elyza-tasks-100-TV_0.jsonl` と同じ構造を想定)
49
- - `--outfile=<出力先>` 入力タスクに `output` キーを追加したもの
 
 
 
 
3
  language:
4
  - ja
5
  - en
6
+ datasets:
7
+ - llm-jp/magpie-sft-v1.0
8
+ base_model:
9
+ - google/gemma-2-9b
10
  ---
11
 
12
  ## Datasets
13
 
14
+ ### Training Dataset
15
+
16
+ - [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (apache-2.0)
17
+ - 加工 & サンプリングして使用
18
 
19
  ## 実行方法(コンペ採点者の方向け)
20
 
21
  ### 事前準備
22
 
23
  ```
24
+ # lshw のインストール (ollama インストール時に GPU を検出するのに必要)
 
25
  $ apt update && apt install -y lshw
26
 
27
+ # ollama のインストール & 起動
28
  $ curl -fsSL https://ollama.com/install.sh | sh
29
  $ ollama serve
30
 
31
+ # -- 以降は別ターミナルプロセスから実行(ollama サーバーに対して実行) --
32
 
33
  # モデルのダウンロード
34
+ $ ollama pull hf.co/pokutuna/llm2024-gemma2:gemma2-9b-sft009-Q6_K.gguf
 
 
35
  #
36
  # Note.
37
+ # ダウンロード後、success と出力されるのを確認して下さい。
38
  # 演習環境で動作を確認済みですがネットワーク状況等により、
39
+ # timeout (context deadline exceeded) が発生することがあります。
40
  # 何度か実行すれば走り切ります。
41
 
42
+ # 回答生成コードの pull
43
  $ git clone https://github.com/pokutuna/llm2024-competition-runner.git
44
 
45
  # 依存ライブラリのインストール
 
48
 
49
  ### 出力の生成
50
 
51
+ ```sh
52
+ $ python ./llm2024-competition-runner/generate.py \
53
+ --model="hf.co/pokutuna/llm2024-gemma2:gemma2-9b-sft009-Q6_K.gguf" \
54
+ --tasks=./tasks.jsonl \
55
+ --outfile=./output.jsonl
56
+ ```
57
 
58
+ - `--tasks=<path>`
59
+ - タスクデータ、各行に `input` フィールドを持つ JSONL ファイルへのパス
60
+ (`elyza-tasks-100-TV_0.jsonl` と同じ構造を想定)
61
+ - `--outfile=<path>`
62
+ - 結果の出力先、タスクデータの各行に対し `output` キーを出力結果として追加したもの