kimsan0622
commited on
Commit
•
600cabf
1
Parent(s):
16d155d
add manual_download_instructions
Browse files
aihub_spoken_language_translation.py
CHANGED
@@ -14,13 +14,14 @@
|
|
14 |
|
15 |
import os
|
16 |
import json
|
|
|
17 |
import zipfile
|
18 |
|
19 |
import datasets
|
20 |
|
21 |
_VERSION = datasets.Version("1.0.0", "")
|
22 |
|
23 |
-
_URL = "https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=realm&dataSetSn=
|
24 |
|
25 |
_CITATION = """\
|
26 |
There is no citation information
|
@@ -28,47 +29,36 @@ There is no citation information
|
|
28 |
|
29 |
_DESCRIPTION = """\
|
30 |
# 일상생활 및 구어체 한-영 번역 병렬 말뭉치 데이터
|
31 |
-
|
32 |
## 소개
|
33 |
- 신경망 기반 기계 번역기 학습 데이터로 활용하기 위한 한영, 영한 말뭉치
|
34 |
- 일상생활 및 구어체 번역기의 성능 향상을 위한 학습용 데이터
|
35 |
## 구축목적
|
36 |
- 상황별 신조어, 약어, 은어, 관용적 의미와 어투까지 효과적으로 전달할 수 있는 인공 신경망 기계 번역기 학습용 말뭉치 데이터 구축
|
37 |
-
|
38 |
## Usage
|
39 |
```python
|
40 |
from datasets import load_dataset
|
41 |
-
|
42 |
raw_datasets = load_dataset(
|
43 |
-
"
|
44 |
"base",
|
45 |
cache_dir="huggingface_datasets",
|
46 |
data_dir="data",
|
47 |
ignore_verifications=True,
|
48 |
)
|
49 |
-
|
50 |
dataset_train = raw_datasets["train"]
|
51 |
-
|
52 |
for item in dataset_train:
|
53 |
print(item)
|
54 |
exit()
|
55 |
```
|
56 |
-
|
57 |
## 데이터 관련 문의처
|
58 |
| 담당자명 | 전화번호 | 이메일 |
|
59 |
| ------------- | ------------- | ------------- |
|
60 |
| 최규동 | 1833-5926 | ken.choi@twigfarm.net |
|
61 |
-
|
62 |
-
|
63 |
## Copyright
|
64 |
-
|
65 |
### 데이터 소개
|
66 |
AI 허브에서 제공되는 인공지능 학습용 데이터(이하 ‘AI데이터’라고 함)는 과학기술정보통신부와 한국지능정보사회진흥원의 「지능정보산업 인프라 조성」 사업의 일환으로 구축되었으며, 본 사업의 유‧무형적 결과물인 데이터, AI 응용모델 및 데이터 저작도구의 소스, 각종 매뉴얼 등(이하 ‘AI데이터 등’)에 대한 일체의 권리는 AI데이터 등의 구축 수행기관 및 참여기관(이하 ‘수행기관 등’)과 한국지능정보사회진흥원에 있습니다.
|
67 |
본 AI데이터 등은 인공지능 기술 및 제품·서비스 발전을 위하여 구축하였으며, 지능형 제품・서비스, 챗봇 등 다양한 분야에서 영리적・비영리적 연구・개발 목적으로 활용할 수 있습니다.
|
68 |
-
|
69 |
### 데이터 이용정책
|
70 |
- 본 AI데이터 등을 이용하기 위해서 다음 사항에 동의하며 준수해야 함을 고지합니다.
|
71 |
-
|
72 |
1. 본 AI데이터 등을 이용할 때에는 반드시 한국지능정보사회진흥원의 사업결과임을 밝혀야 하며, 본 AI데이터 등을 이용한 2차적 저작물에도 동일하게 밝혀야 합니다.
|
73 |
2. 국외에 소재하는 법인, 단체 또는 개인이 AI데이터 등을 이용하기 위해서는 수행기관 등 및 한국지능정보사회진흥원과 별도로 합의가 필요합니다.
|
74 |
3. 본 AI데이터 등의 국외 반출을 위해서는 수행기관 등 및 한국지능정보사회진흥원과 별도로 합의가 필요합니다.
|
@@ -78,12 +68,10 @@ AI 허브에서 제공되는 인공지능 학습용 데이터(이하 ‘AI데이
|
|
78 |
7. 이용자는 AI 허브 제공 데이터셋 내에 개인정보 등이 포함된 것이 발견된 경우, 즉시 AI 허브에 해당 사실을 신고하고 다운로드 받은 데이터셋을 삭제하여야 합니다.
|
79 |
8. AI 허브로부터 제공받은 비식별 정보(재현정보 포함)를 인공지능 서비스 개발 등의 목적으로 안전하게 이용하여야 하며, 이를 이용해서 개인을 재식별하기 위한 어떠한 행위도 하여서는 안됩니다.
|
80 |
9. 향후 한국지능정보사회진흥원에서 활용사례・성과 등에 관한 실태조사를 수행 할 경우 이에 성실하게 임하여야 합니다.
|
81 |
-
|
82 |
### 데이터 다운로드 신청방법
|
83 |
1. AI 허브를 통해 제공 중인 AI데이터 등을 다운로드 받기 위해서는 별도의 신청자 본인 확인과 정보 제공, 목적을 밝히는 절차가 필요합니다.
|
84 |
2. AI데이터를 제외한 데이터 설명, 저작 도구 등은 별도의 신청 절차나 로그인 없이 이용이 가능합니다.
|
85 |
3. 한국지능정보사회진흥원이 권리자가 아닌 AI데이터 등은 해당 기관의 이용정책과 다운로드 절차를 따라야 하며 이는 AI 허브와 관련이 없음을 알려 드립니다.
|
86 |
-
|
87 |
"""
|
88 |
|
89 |
TRAINING_ENKO_FPATH_REL = "025.일상생활 및 구어체 한-영 번역 병렬 말뭉치 데이터/01.데이터/1.Training/라벨링데이터/TL1.zip"
|
@@ -104,10 +92,14 @@ def generator(fpath_list):
|
|
104 |
subdomain = item["subdomain"]
|
105 |
ko_script = item["ko"]
|
106 |
en_script = item["en"]
|
|
|
|
|
107 |
yield {
|
108 |
"sn": sn,
|
109 |
"domain": domain,
|
110 |
"subdomain": subdomain,
|
|
|
|
|
111 |
"translation":{
|
112 |
"ko": ko_script,
|
113 |
"en": en_script,
|
@@ -127,6 +119,12 @@ class SpokenLanguageTranslation(datasets.GeneratorBasedBuilder):
|
|
127 |
)
|
128 |
]
|
129 |
|
|
|
|
|
|
|
|
|
|
|
|
|
130 |
def _info(self):
|
131 |
return datasets.DatasetInfo(
|
132 |
description=_DESCRIPTION,
|
@@ -135,6 +133,8 @@ class SpokenLanguageTranslation(datasets.GeneratorBasedBuilder):
|
|
135 |
"sn": datasets.Value("string"),
|
136 |
"domain": datasets.Value("string"),
|
137 |
"subdomain": datasets.Value("string"),
|
|
|
|
|
138 |
"translation": datasets.Translation(languages=['ko', 'en'])
|
139 |
}
|
140 |
),
|
@@ -162,6 +162,4 @@ class SpokenLanguageTranslation(datasets.GeneratorBasedBuilder):
|
|
162 |
def _generate_examples(self, fpath_list):
|
163 |
"""Yields examples."""
|
164 |
for idx, item in enumerate(generator(fpath_list)):
|
165 |
-
yield idx, item
|
166 |
-
|
167 |
-
|
|
|
14 |
|
15 |
import os
|
16 |
import json
|
17 |
+
import textwrap
|
18 |
import zipfile
|
19 |
|
20 |
import datasets
|
21 |
|
22 |
_VERSION = datasets.Version("1.0.0", "")
|
23 |
|
24 |
+
_URL = "https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=realm&dataSetSn=71265"
|
25 |
|
26 |
_CITATION = """\
|
27 |
There is no citation information
|
|
|
29 |
|
30 |
_DESCRIPTION = """\
|
31 |
# 일상생활 및 구어체 한-영 번역 병렬 말뭉치 데이터
|
|
|
32 |
## 소개
|
33 |
- 신경망 기반 기계 번역기 학습 데이터로 활용하기 위한 한영, 영한 말뭉치
|
34 |
- 일상생활 및 구어체 번역기의 성능 향상을 위한 학습용 데이터
|
35 |
## 구축목적
|
36 |
- 상황별 신조어, 약어, 은어, 관용적 의미와 어투까지 효과적으로 전달할 수 있는 인공 신경망 기계 번역기 학습용 말뭉치 데이터 구축
|
|
|
37 |
## Usage
|
38 |
```python
|
39 |
from datasets import load_dataset
|
|
|
40 |
raw_datasets = load_dataset(
|
41 |
+
"aihub_spoken_language_translation.py",
|
42 |
"base",
|
43 |
cache_dir="huggingface_datasets",
|
44 |
data_dir="data",
|
45 |
ignore_verifications=True,
|
46 |
)
|
|
|
47 |
dataset_train = raw_datasets["train"]
|
|
|
48 |
for item in dataset_train:
|
49 |
print(item)
|
50 |
exit()
|
51 |
```
|
|
|
52 |
## 데이터 관련 문의처
|
53 |
| 담당자명 | 전화번호 | 이메일 |
|
54 |
| ------------- | ------------- | ------------- |
|
55 |
| 최규동 | 1833-5926 | ken.choi@twigfarm.net |
|
|
|
|
|
56 |
## Copyright
|
|
|
57 |
### 데이터 소개
|
58 |
AI 허브에서 제공되는 인공지능 학습용 데이터(이하 ‘AI데이터’라고 함)는 과학기술정보통신부와 한국지능정보사회진흥원의 「지능정보산업 인프라 조성」 사업의 일환으로 구축되었으며, 본 사업의 유‧무형적 결과물인 데이터, AI 응용모델 및 데이터 저작도구의 소스, 각종 매뉴얼 등(이하 ‘AI데이터 등’)에 대한 일체의 권리는 AI데이터 등의 구축 수행기관 및 참여기관(이하 ‘수행기관 등’)과 한국지능정보사회진흥원에 있습니다.
|
59 |
본 AI데이터 등은 인공지능 기술 및 제품·서비스 발전을 위하여 구축하였으며, 지능형 제품・서비스, 챗봇 등 다양한 분야에서 영리적・비영리적 연구・개발 목적으로 활용할 수 있습니다.
|
|
|
60 |
### 데이터 이용정책
|
61 |
- 본 AI데이터 등을 이용하기 위해서 다음 사항에 동의하며 준수해야 함을 고지합니다.
|
|
|
62 |
1. 본 AI데이터 등을 이용할 때에는 반드시 한국지능정보사회진흥원의 사업결과임을 밝혀야 하며, 본 AI데이터 등을 이용한 2차적 저작물에도 동일하게 밝혀야 합니다.
|
63 |
2. 국외에 소재하는 법인, 단체 또는 개인이 AI데이터 등을 이용하기 위해서는 수행기관 등 및 한국지능정보사회진흥원과 별도로 합의가 필요합니다.
|
64 |
3. 본 AI데이터 등의 국외 반출을 위해서는 수행기관 등 및 한국지능정보사회진흥원과 별도로 합의가 필요합니다.
|
|
|
68 |
7. 이용자는 AI 허브 제공 데이터셋 내에 개인정보 등이 포함된 것이 발견된 경우, 즉시 AI 허브에 해당 사실을 신고하고 다운로드 받은 데이터셋을 삭제하여야 합니다.
|
69 |
8. AI 허브로부터 제공받은 비식별 정보(재현정보 포함)를 인공지능 서비스 개발 등의 목적으로 안전하게 이용하여야 하며, 이를 이용해서 개인을 재식별하기 위한 어떠한 행위도 하여서는 안됩니다.
|
70 |
9. 향후 한국지능정보사회진흥원에서 활용사례・성과 등에 관한 실태조사를 수행 할 경우 이에 성실하게 임하여야 합니다.
|
|
|
71 |
### 데이터 다운로드 신청방법
|
72 |
1. AI 허브를 통해 제공 중인 AI데이터 등을 다운로드 받기 위해서는 별도의 신청자 본인 확인과 정보 제공, 목적을 밝히는 절차가 필요합니다.
|
73 |
2. AI데이터를 제외한 데이터 설명, 저작 도구 등은 별도의 신청 절차나 로그인 없이 이용이 가능합니다.
|
74 |
3. 한국지능정보사회진흥원이 권리자가 아닌 AI데이터 등은 해당 기관의 이용정책과 다운로드 절차를 따라야 하며 이는 AI 허브와 관련이 없음을 알려 드립니다.
|
|
|
75 |
"""
|
76 |
|
77 |
TRAINING_ENKO_FPATH_REL = "025.일상생활 및 구어체 한-영 번역 병렬 말뭉치 데이터/01.데이터/1.Training/라벨링데이터/TL1.zip"
|
|
|
92 |
subdomain = item["subdomain"]
|
93 |
ko_script = item["ko"]
|
94 |
en_script = item["en"]
|
95 |
+
source_language = item["source_language"]
|
96 |
+
target_language = item["target_language"]
|
97 |
yield {
|
98 |
"sn": sn,
|
99 |
"domain": domain,
|
100 |
"subdomain": subdomain,
|
101 |
+
"source_language": source_language,
|
102 |
+
"target_language": target_language,
|
103 |
"translation":{
|
104 |
"ko": ko_script,
|
105 |
"en": en_script,
|
|
|
119 |
)
|
120 |
]
|
121 |
|
122 |
+
manual_download_instructions = textwrap.dedent(f"""
|
123 |
+
You need to manually download the data file on AIHub (${_URL}).
|
124 |
+
The folder containing the saved file can be used to load the dataset
|
125 |
+
via 'datasets.load_dataset("aihub_scitech_translation.py", data_dir="<path/to/folder>")'
|
126 |
+
""")
|
127 |
+
|
128 |
def _info(self):
|
129 |
return datasets.DatasetInfo(
|
130 |
description=_DESCRIPTION,
|
|
|
133 |
"sn": datasets.Value("string"),
|
134 |
"domain": datasets.Value("string"),
|
135 |
"subdomain": datasets.Value("string"),
|
136 |
+
"source_language": datasets.Value("string"),
|
137 |
+
"target_language": datasets.Value("string"),
|
138 |
"translation": datasets.Translation(languages=['ko', 'en'])
|
139 |
}
|
140 |
),
|
|
|
162 |
def _generate_examples(self, fpath_list):
|
163 |
"""Yields examples."""
|
164 |
for idx, item in enumerate(generator(fpath_list)):
|
165 |
+
yield idx, item
|
|
|
|