kimsan0622 commited on
Commit
600cabf
1 Parent(s): 16d155d

add manual_download_instructions

Browse files
Files changed (1) hide show
  1. aihub_spoken_language_translation.py +16 -18
aihub_spoken_language_translation.py CHANGED
@@ -14,13 +14,14 @@
14
 
15
  import os
16
  import json
 
17
  import zipfile
18
 
19
  import datasets
20
 
21
  _VERSION = datasets.Version("1.0.0", "")
22
 
23
- _URL = "https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=realm&dataSetSn=582"
24
 
25
  _CITATION = """\
26
  There is no citation information
@@ -28,47 +29,36 @@ There is no citation information
28
 
29
  _DESCRIPTION = """\
30
  # 일상생활 및 구어체 한-영 번역 병렬 말뭉치 데이터
31
-
32
  ## 소개
33
  - 신경망 기반 기계 번역기 학습 데이터로 활용하기 위한 한영, 영한 말뭉치
34
  - 일상생활 및 구어체 번역기의 성능 향상을 위한 학습용 데이터
35
  ## 구축목적
36
  - 상황별 신조어, 약어, 은어, 관용적 의미와 어투까지 효과적으로 전달할 수 있는 인공 신경망 기계 번역기 학습용 말뭉치 데이터 구축
37
-
38
  ## Usage
39
  ```python
40
  from datasets import load_dataset
41
-
42
  raw_datasets = load_dataset(
43
- "spoken_language_translation.py",
44
  "base",
45
  cache_dir="huggingface_datasets",
46
  data_dir="data",
47
  ignore_verifications=True,
48
  )
49
-
50
  dataset_train = raw_datasets["train"]
51
-
52
  for item in dataset_train:
53
  print(item)
54
  exit()
55
  ```
56
-
57
  ## 데이터 관련 문의처
58
  | 담당자명 | 전화번호 | 이메일 |
59
  | ------------- | ------------- | ------------- |
60
  | 최규동 | 1833-5926 | ken.choi@twigfarm.net |
61
-
62
-
63
  ## Copyright
64
-
65
  ### 데이터 소개
66
  AI 허브에서 제공되는 인공지능 학습용 데이터(이하 ‘AI데이터’라고 함)는 과학기술정보통신부와 한국지능정보사회진흥원의 「지능정보산업 인프라 조성」 사업의 일환으로 구축되었으며, 본 사업의 유‧무형적 결과물인 데이터, AI 응용모델 및 데이터 저작도구의 소스, 각종 매뉴얼 등(이하 ‘AI데이터 등’)에 대한 일체의 권리는 AI데이터 등의 구축 수행기관 및 참여기관(이하 ‘수행기관 등’)과 한국지능정보사회진흥원에 있습니다.
67
  본 AI데이터 등은 인공지능 기술 및 제품·서비스 발전을 위하여 구축하였으며, 지능형 제품・서비스, 챗봇 등 다양한 분야에서 영리적・비영리적 연구・개발 목적으로 활용할 수 있습니다.
68
-
69
  ### 데이터 이용정책
70
  - 본 AI데이터 등을 이용하기 위해서 다음 사항에 동의하며 준수해야 함을 고지합니다.
71
-
72
  1. 본 AI데이터 등을 이용할 때에는 반드시 한국지능정보사회진흥원의 사업결과임을 밝혀야 하며, 본 AI데이터 등을 이용한 2차적 저작물에도 동일하게 밝혀야 합니다.
73
  2. 국외에 소재하는 법인, 단체 또는 개인이 AI데이터 등을 이용하기 위해서는 수행기관 등 및 한국지능정보사회진흥원과 별도로 합의가 필요합니다.
74
  3. 본 AI데이터 등의 국외 반출을 위해서는 수행기관 등 및 한국지능정보사회진흥원과 별도로 합의가 필요합니다.
@@ -78,12 +68,10 @@ AI 허브에서 제공되는 인공지능 학습용 데이터(이하 ‘AI데이
78
  7. 이용자는 AI 허브 제공 데이터셋 내에 개인정보 등이 포함된 것이 발견된 경우, 즉시 AI 허브에 해당 사실을 신고하고 다운로드 받은 데이터셋을 삭제하여야 합니다.
79
  8. AI 허브로부터 제공받은 비식별 정보(재현정보 포함)를 인공지능 서비스 개발 등의 목적으로 안전하게 이용하여야 하며, 이를 이용해서 개인을 재식별하기 위한 어떠한 행위도 하여서는 안됩니다.
80
  9. 향후 한국지능정보사회진흥원에서 활용사례・성과 등에 관한 실태조사를 수행 할 경우 이에 성실하게 임하여야 합니다.
81
-
82
  ### 데이터 다운로드 신청방법
83
  1. AI 허브를 통해 제공 중인 AI데이터 등을 다운로드 받기 위해서는 별도의 신청자 본인 확인과 정보 제공, 목적을 밝히는 절차가 필요합니다.
84
  2. AI데이터를 제외한 데이터 설명, 저작 도구 등은 별도의 신청 절차나 로그인 없이 이용이 가능합니다.
85
  3. 한국지능정보사회진흥원이 권리자가 아닌 AI데이터 등은 해당 기관의 이용정책과 다운로드 절차를 따라야 하며 이는 AI 허브와 관련이 없음을 알려 드립니다.
86
-
87
  """
88
 
89
  TRAINING_ENKO_FPATH_REL = "025.일상생활 및 구어체 한-영 번역 병렬 말뭉치 데이터/01.데이터/1.Training/라벨링데이터/TL1.zip"
@@ -104,10 +92,14 @@ def generator(fpath_list):
104
  subdomain = item["subdomain"]
105
  ko_script = item["ko"]
106
  en_script = item["en"]
 
 
107
  yield {
108
  "sn": sn,
109
  "domain": domain,
110
  "subdomain": subdomain,
 
 
111
  "translation":{
112
  "ko": ko_script,
113
  "en": en_script,
@@ -127,6 +119,12 @@ class SpokenLanguageTranslation(datasets.GeneratorBasedBuilder):
127
  )
128
  ]
129
 
 
 
 
 
 
 
130
  def _info(self):
131
  return datasets.DatasetInfo(
132
  description=_DESCRIPTION,
@@ -135,6 +133,8 @@ class SpokenLanguageTranslation(datasets.GeneratorBasedBuilder):
135
  "sn": datasets.Value("string"),
136
  "domain": datasets.Value("string"),
137
  "subdomain": datasets.Value("string"),
 
 
138
  "translation": datasets.Translation(languages=['ko', 'en'])
139
  }
140
  ),
@@ -162,6 +162,4 @@ class SpokenLanguageTranslation(datasets.GeneratorBasedBuilder):
162
  def _generate_examples(self, fpath_list):
163
  """Yields examples."""
164
  for idx, item in enumerate(generator(fpath_list)):
165
- yield idx, item
166
-
167
-
 
14
 
15
  import os
16
  import json
17
+ import textwrap
18
  import zipfile
19
 
20
  import datasets
21
 
22
  _VERSION = datasets.Version("1.0.0", "")
23
 
24
+ _URL = "https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=realm&dataSetSn=71265"
25
 
26
  _CITATION = """\
27
  There is no citation information
 
29
 
30
  _DESCRIPTION = """\
31
  # 일상생활 및 구어체 한-영 번역 병렬 말뭉치 데이터
 
32
  ## 소개
33
  - 신경망 기반 기계 번역기 학습 데이터로 활용하기 위한 한영, 영한 말뭉치
34
  - 일상생활 및 구어체 번역기의 성능 향상을 위한 학습용 데이터
35
  ## 구축목적
36
  - 상황별 신조어, 약어, 은어, 관용적 의미와 어투까지 효과적으로 전달할 수 있는 인공 신경망 기계 번역기 학습용 말뭉치 데이터 구축
 
37
  ## Usage
38
  ```python
39
  from datasets import load_dataset
 
40
  raw_datasets = load_dataset(
41
+ "aihub_spoken_language_translation.py",
42
  "base",
43
  cache_dir="huggingface_datasets",
44
  data_dir="data",
45
  ignore_verifications=True,
46
  )
 
47
  dataset_train = raw_datasets["train"]
 
48
  for item in dataset_train:
49
  print(item)
50
  exit()
51
  ```
 
52
  ## 데이터 관련 문의처
53
  | 담당자명 | 전화번호 | 이메일 |
54
  | ------------- | ------------- | ------------- |
55
  | 최규동 | 1833-5926 | ken.choi@twigfarm.net |
 
 
56
  ## Copyright
 
57
  ### 데이터 소개
58
  AI 허브에서 제공되는 인공지능 학습용 데이터(이하 ‘AI데이터’라고 함)는 과학기술정보통신부와 한국지능정보사회진흥원의 「지능정보산업 인프라 조성」 사업의 일환으로 구축되었으며, 본 사업의 유‧무형적 결과물인 데이터, AI 응용모델 및 데이터 저작도구의 소스, 각종 매뉴얼 등(이하 ‘AI데이터 등’)에 대한 일체의 권리는 AI데이터 등의 구축 수행기관 및 참여기관(이하 ‘수행기관 등’)과 한국지능정보사회진흥원에 있습니다.
59
  본 AI데이터 등은 인공지능 기술 및 제품·서비스 발전을 위하여 구축하였으며, 지능형 제품・서비스, 챗봇 등 다양한 분야에서 영리적・비영리적 연구・개발 목적으로 활용할 수 있습니다.
 
60
  ### 데이터 이용정책
61
  - 본 AI데이터 등을 이용하기 위해서 다음 사항에 동의하며 준수해야 함을 고지합니다.
 
62
  1. 본 AI데이터 등을 이용할 때에는 반드시 한국지능정보사회진흥원의 사업결과임을 밝혀야 하며, 본 AI데이터 등을 이용한 2차적 저작물에도 동일하게 밝혀야 합니다.
63
  2. 국외에 소재하는 법인, 단체 또는 개인이 AI데이터 등을 이용하기 위해서는 수행기관 등 및 한국지능정보사회진흥원과 별도로 합의가 필요합니다.
64
  3. 본 AI데이터 등의 국외 반출을 위해서는 수행기관 등 및 한국지능정보사회진흥원과 별도로 합의가 필요합니다.
 
68
  7. 이용자는 AI 허브 제공 데이터셋 내에 개인정보 등이 포함된 것이 발견된 경우, 즉시 AI 허브에 해당 사실을 신고하고 다운로드 받은 데이터셋을 삭제하여야 합니다.
69
  8. AI 허브로부터 제공받은 비식별 정보(재현정보 포함)를 인공지능 서비스 개발 등의 목적으로 안전하게 이용하여야 하며, 이를 이용해서 개인을 재식별하기 위한 어떠한 행위도 하여서는 안됩니다.
70
  9. 향후 한국지능정보사회진흥원에서 활용사례・성과 등에 관한 실태조사를 수행 할 경우 이에 성실하게 임하여야 합니다.
 
71
  ### 데이터 다운로드 신청방법
72
  1. AI 허브를 통해 제공 중인 AI데이터 등을 다운로드 받기 위해서는 별도의 신청자 본인 확인과 정보 제공, 목적을 밝히는 절차가 필요합니다.
73
  2. AI데이터를 제외한 데이터 설명, 저작 도구 등은 별도의 신청 절차나 로그인 없이 이용이 가능합니다.
74
  3. 한국지능정보사회진흥원이 권리자가 아닌 AI데이터 등은 해당 기관의 이용정책과 다운로드 절차를 따라야 하며 이는 AI 허브와 관련이 없음을 알려 드립니다.
 
75
  """
76
 
77
  TRAINING_ENKO_FPATH_REL = "025.일상생활 및 구어체 한-영 번역 병렬 말뭉치 데이터/01.데이터/1.Training/라벨링데이터/TL1.zip"
 
92
  subdomain = item["subdomain"]
93
  ko_script = item["ko"]
94
  en_script = item["en"]
95
+ source_language = item["source_language"]
96
+ target_language = item["target_language"]
97
  yield {
98
  "sn": sn,
99
  "domain": domain,
100
  "subdomain": subdomain,
101
+ "source_language": source_language,
102
+ "target_language": target_language,
103
  "translation":{
104
  "ko": ko_script,
105
  "en": en_script,
 
119
  )
120
  ]
121
 
122
+ manual_download_instructions = textwrap.dedent(f"""
123
+ You need to manually download the data file on AIHub (${_URL}).
124
+ The folder containing the saved file can be used to load the dataset
125
+ via 'datasets.load_dataset("aihub_scitech_translation.py", data_dir="<path/to/folder>")'
126
+ """)
127
+
128
  def _info(self):
129
  return datasets.DatasetInfo(
130
  description=_DESCRIPTION,
 
133
  "sn": datasets.Value("string"),
134
  "domain": datasets.Value("string"),
135
  "subdomain": datasets.Value("string"),
136
+ "source_language": datasets.Value("string"),
137
+ "target_language": datasets.Value("string"),
138
  "translation": datasets.Translation(languages=['ko', 'en'])
139
  }
140
  ),
 
162
  def _generate_examples(self, fpath_list):
163
  """Yields examples."""
164
  for idx, item in enumerate(generator(fpath_list)):
165
+ yield idx, item