werty1248 commited on
Commit
13089fb
1 Parent(s): a1d9584

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +84 -0
README.md ADDED
@@ -0,0 +1,84 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ task_categories:
3
+ - translation
4
+ language:
5
+ - en
6
+ - ko
7
+ ---
8
+
9
+ ## Preprocessing En-Ko subset of [Parallel Sentences Datasets](https://huggingface.co/collections/sentence-transformers/parallel-sentences-datasets-6644d644123d31ba5b1c8785)
10
+
11
+ * 해외에서 제작된 많은 대규모 번역 쌍 데이터들이 영어 텍스트와 한국어 텍스트를 문장 단위로 분리한 후 기계적으로 매핑시키고 있습니다.
12
+ * 이로 인해 전혀 엉뚱한 문장이 번역 쌍으로 매칭되어 있는 문제가 발생합니다.
13
+ * 임베딩 유사도 기반 전처리를 통해 이 문제를 해결할 수 있을 것 같아서 이 데이터 셋을 제작했습니다.
14
+ * 일부 데이터는 상업적 사용이 어려운 라이선스가 적용된 경우가 있습니다.
15
+
16
+ ### 데이터 목록
17
+ * [parallel-sentences-global-voices](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-global-voices)
18
+ * [parallel-sentences-muse](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-muse)
19
+ * [parallel-sentences-jw300](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-jw300)
20
+ * [parallel-sentences-tatoeba](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-tatoeba)
21
+ * [parallel-sentences-wikititles](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-wikititles)
22
+
23
+ ### 유사도 측정
24
+ * [BAAI/BGE-m3](https://huggingface.co/BAAI/bge-m3)로 임베딩
25
+ * 영어 문장과 한국어 문장의 유사도 계산
26
+
27
+ ### 활용 예시
28
+ * 유사도가 0.65~0.7 이상인 데이터만 활용하는 것이 좋습니다.
29
+ * 일부 사례에서는 추가적인 전처리를 통해 정확한 번역 쌍을 되찾거나, 문서 단위로 번역 데이터를 구축하는 것이 가능할 것 같습니다(Global-Voice처럼).
30
+
31
+ ### 데이터 상세 및 전처리 내역
32
+ * **parallel-sentences-europarl**
33
+ * 수집하지 않음(한국어 데이터 없음)
34
+ * **parallel-sentences-global-voices**
35
+ * 특징
36
+ * Global voice에서 수집된 글로벌 뉴스 기사(문장 단위 매칭) 데이터
37
+ * 문장 단위 매칭이 적절하지 않은 경우가 있음(밀려서 매칭되는 현상)
38
+ * 기사 내용이 완전히 일치하지 않는 경우 소수 존재
39
+ * 상세: J. Tiedemann, 2012, Parallel Data, Tools and Interfaces in OPUS. In Proceedings of the 8th International Conference on Language Resources and Evaluation (LREC 2012)
40
+ * 전처리
41
+ * 기사 단위로 병합
42
+ * 영어 데이터에만 있는 "· Global Voice" 제거
43
+ * **parallel-sentences-muse**
44
+ * 특징
45
+ * 단어 번역 데이터
46
+ * 전처리
47
+ * 유사도 측정이 무의미하므로, 전부 1.0 입력
48
+ * **parallel-sentences-jw300**
49
+ * 특징
50
+ * 문장 단위 매칭 데이터
51
+ * 문장 단위 매칭이 적절하지 않은 경우가 있음(밀려서 매칭되는 현상)
52
+ * 한국어 띄어쓰기 이상함
53
+ * 기사 단위 분리 어려움
54
+ * 전처리
55
+ * "\\u200b" 제거
56
+ * [quickspacer](https://github.com/cosmoquester/quickspacer)를 이용해 띄어쓰기 교정
57
+ * **parallel-sentences-news-commentary**
58
+ * 수집하지 않음(한국어 데이터 없음)
59
+ * **parallel-sentences-opensubtitles**
60
+ * 수집하지 않음(번역 쌍 매칭이 안됨)
61
+ * **parallel-sentences-talks**
62
+ * 제공하지 않음
63
+ * [TED Talks Usage Policy](https://www.ted.com/about/our-organization/our-policies-terms/ted-talks-usage-policy)에 따라, similarity를 추가하거나, 큐레이션하는 것은 원본 데이터를 변형시키는 행위라고 생각되어 공유하지 않습니다.
64
+ * 혹시 제가 라이선스와 관련해서 잘못 알고 있다면 알려주세요.
65
+ * 특징
66
+ * TED 강연에 대한 영어 자막 + 한국어 자막
67
+ * 상당히 좋은 전문 분야+구어체 데이터 셋입니다. 번역 쌍 매칭 정확도도 평균적으로 높긴 한데, 그래도 임베딩 유사도 기반 전처리를 하고 사용하시는 것을 추천드립니다.
68
+ * [sentence-transformers/parallel-sentences-talks](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-talks)
69
+ * **parallel-sentences-tatoeba**
70
+ * 특징
71
+ * 주로 구어체로 이루어진, 사람이 번역한 문장 번역 쌍
72
+ * 동일한 문장에 대한 2가지 이상의 번역이 존재하는 경우도 있음(모두 옳은 번역)
73
+ * 별도의 전처리 하지 않음
74
+ * **parallel-sentences-wikimatrix**
75
+ * 수집하지 않음(저퀄리티)
76
+ * **parallel-sentences-wikititles**
77
+ * 특징
78
+ * 단어 번역 데이터(위키피디아 제목)
79
+ * 전처리
80
+ * "(동음이의)", "(disambiguation)" 제거
81
+ * 유사도 측정이 무의미하므로, 전부 1.0 입력
82
+ * **parallel-sentences-ccmatrix**
83
+ * 수집하지 않음(대용량)
84
+ * 평균 퀄리티는 낮지만, 데이터의 양(19.4M 번역 쌍)이 많아 좋은 번역 쌍도 많이 존재합니다. 추후 전처리 시도해보겠습니다.