stardust-eques commited on
Commit
efa3ebe
1 Parent(s): 9cc3f8d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +47 -1
README.md CHANGED
@@ -1,8 +1,54 @@
1
  ---
2
  library_name: transformers
3
- tags: []
 
 
 
 
 
 
 
4
  ---
5
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6
  # Model Card for Model ID
7
 
8
  <!-- Provide a quick summary of what the model is/does. -->
 
1
  ---
2
  library_name: transformers
3
+ tags:
4
+ - medical
5
+ - merge
6
+ license: llama3
7
+ language:
8
+ - ja
9
+ metrics:
10
+ - accuracy
11
  ---
12
 
13
+ # Llama3ベースの日本語医療LLM
14
+
15
+ このモデルはLlama3の継続学習により作成された4種類のLLMから成るマージモデルです。
16
+ 日本語LLMをベースとし、英語の医療LLMをマージすることで医療知識や医療Q&Aへの回答力を獲得することを目的としています。
17
+
18
+ - base :[tokyotech-llm/Llama-3-Swallow-8B-Instruct-v0.1](https://huggingface.co/tokyotech-llm/Llama-3-Swallow-8B-Instruct-v0.1)
19
+ - [aaditya/Llama3-OpenBioLLM-8B](https://huggingface.co/aaditya/Llama3-OpenBioLLM-8B)
20
+ - [Henrychur/MMed-Llama-3-8B](https://huggingface.co/Henrychur/MMed-Llama-3-8B)
21
+ - [elyza/Llama-3-ELYZA-JP-8B](https://huggingface.co/elyza/Llama-3-ELYZA-JP-8B)
22
+
23
+
24
+ 医療目的には利用しないでください。
25
+ 本モデルの出力に関してその正確性等を保証しません。
26
+
27
+
28
+ # 評価
29
+
30
+ IgakuQA(日本医師国家試験データセット)の正答率を用いて評価しました。
31
+ GPTモデルのパフォーマンスは[Kasai et al., 2023](https://arxiv.org/pdf/2303.18027)の結果に基づき算出しました。
32
+
33
+
34
+ | モデル |  正答率 (全2485問) |
35
+ | ---- | ---- |
36
+ | [EQUES/MedLLama3-JP-v2](https://huggingface.co/EQUES/MedLLama3-JP-v2) | 46.6% |
37
+ | [tokyotech-llm/Llama-3-Swallow-8B-Instruct-v0.1](https://huggingface.co/tokyotech-llm/Llama-3-Swallow-8B-Instruct-v0.1) | 42.2% |
38
+ | [elyza/Llama-3-ELYZA-JP-8B](https://huggingface.co/elyza/Llama-3-ELYZA-JP-8B) | 43.9% |
39
+ | ---- | ---- |
40
+ | GPT-4 | 78.2% |
41
+ | ChatGPT | 54.9% |
42
+ | GPT-3 | 42.1% |
43
+
44
+
45
+ また、セクションごとの正答率をプロットした図が以下です。マージモデルがマージ元のモデルの良い所取りをしている傾向が窺えます。
46
+
47
+
48
+ ![](image/figure.png)
49
+
50
+
51
+
52
  # Model Card for Model ID
53
 
54
  <!-- Provide a quick summary of what the model is/does. -->