artms007 commited on
Commit
05abdba
1 Parent(s): edbbbf3

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -4
README.md CHANGED
@@ -41,15 +41,15 @@ size_categories:
41
  ## Dataset Summary
42
  This is a Japanese translated version of HumanEval, an evaluation harness for the HumanEval problem solving dataset described in the paper "Evaluating Large Language Models Trained on Code".
43
 
44
- LLMのコード生成能力の標準ベンチマーク HumanEval の日本語翻訳版です。
45
  機械翻訳(DeepL, GPT-4)の翻訳結果を全て人手によって再修正し、 訳文を日本人のプログラマが読んで理解し、コードが書ける内容かチェックしました。
46
  ただし、英語版 HumanEval の間違いは、修正せずに残して、 HumanEval 同様に不完全なドキュメントからの生成能力を見るようになっています。
47
- 日本語LLMのベンチマークとしてお使いください。
48
 
49
  ## Languages
50
  The programming problems are written in Python and contain English and Japanese natural text in comments and docstrings.
51
 
52
- Pythonで書かれたプログラミング問題のデータセットには、英語と日本語のコメントやドキュメントストリングがそれぞれ別々に含まれています。
53
 
54
 
55
  ## Dataset Structure
@@ -93,7 +93,7 @@ The dataset only consists of a test split with 164 samples.
93
 
94
  ## How to Use
95
 
96
- 参照コードでpass@1を算出する例:
97
 
98
  ```python
99
  import os
 
41
  ## Dataset Summary
42
  This is a Japanese translated version of HumanEval, an evaluation harness for the HumanEval problem solving dataset described in the paper "Evaluating Large Language Models Trained on Code".
43
 
44
+ LLM のコード生成能力の標準ベンチマーク HumanEval の日本語翻訳版です。
45
  機械翻訳(DeepL, GPT-4)の翻訳結果を全て人手によって再修正し、 訳文を日本人のプログラマが読んで理解し、コードが書ける内容かチェックしました。
46
  ただし、英語版 HumanEval の間違いは、修正せずに残して、 HumanEval 同様に不完全なドキュメントからの生成能力を見るようになっています。
47
+ 日本語LLM のベンチマークとしてお使いください。
48
 
49
  ## Languages
50
  The programming problems are written in Python and contain English and Japanese natural text in comments and docstrings.
51
 
52
+ Python で書かれたプログラミング問題のデータセットには、英語と日本語のコメントやドキュメントストリングがそれぞれ別々に含まれています。
53
 
54
 
55
  ## Dataset Structure
 
93
 
94
  ## How to Use
95
 
96
+ 参照コードで pass@1 を算出する例:
97
 
98
  ```python
99
  import os