File size: 4,930 Bytes
13089fb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
---
task_categories:
- translation
language:
- en
- ko
---

## Preprocessing En-Ko subset of [Parallel Sentences Datasets](https://huggingface.co/collections/sentence-transformers/parallel-sentences-datasets-6644d644123d31ba5b1c8785)

* 해외에서 제작된 많은 대규모 번역 쌍 데이터들이 영어 텍스트와 한국어 텍스트를 문장 단위로 분리한 후 기계적으로 매핑시키고 있습니다.
* 이로 인해 전혀 엉뚱한 문장이 번역 쌍으로 매칭되어 있는 문제가 발생합니다.
* 임베딩 유사도 기반 전처리를 통해 이 문제를 해결할 수 있을 것 같아서 이 데이터 셋을 제작했습니다.
* 일부 데이터는 상업적 사용이 어려운 라이선스가 적용된 경우가 있습니다.

### 데이터 목록
* [parallel-sentences-global-voices](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-global-voices)
* [parallel-sentences-muse](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-muse)
* [parallel-sentences-jw300](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-jw300)
* [parallel-sentences-tatoeba](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-tatoeba)
* [parallel-sentences-wikititles](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-wikititles)

### 유사도 측정
* [BAAI/BGE-m3](https://huggingface.co/BAAI/bge-m3)로 임베딩
* 영어 문장과 한국어 문장의 유사도 계산

### 활용 예시
* 유사도가 0.65~0.7 이상인 데이터만 활용하는 것이 좋습니다.
* 일부 사례에서는 추가적인 전처리를 통해 정확한 번역 쌍을 되찾거나, 문서 단위로 번역 데이터를 구축하는 것이 가능할 것 같습니다(Global-Voice처럼).

### 데이터 상세 및 전처리 내역
* **parallel-sentences-europarl**
  * 수집하지 않음(한국어 데이터 없음)
* **parallel-sentences-global-voices**
  * 특징
    * Global voice에서 수집된 글로벌 뉴스 기사(문장 단위 매칭) 데이터
    * 문장 단위 매칭이 적절하지 않은 경우가 있음(밀려서 매칭되는 현상)
    * 기사 내용이 완전히 일치하지 않는 경우 소수 존재
    * 상세: J. Tiedemann, 2012, Parallel Data, Tools and Interfaces in OPUS. In Proceedings of the 8th International Conference on Language Resources and Evaluation (LREC 2012)
  * 전처리
    * 기사 단위로 병합
    * 영어 데이터에만 있는 "· Global Voice" 제거
* **parallel-sentences-muse**
  * 특징
    * 단어 번역 데이터
  * 전처리
    * 유사도 측정이 무의미하므로, 전부 1.0 입력
* **parallel-sentences-jw300**
  * 특징
    * 문장 단위 매칭 데이터
    * 문장 단위 매칭이 적절하지 않은 경우가 있음(밀려서 매칭되는 현상)
    * 한국어 띄어쓰기 이상함
    * 기사 단위 분리 어려움
  * 전처리
    * "\\u200b" 제거
    * [quickspacer](https://github.com/cosmoquester/quickspacer)를 이용해 띄어쓰기 교정
* **parallel-sentences-news-commentary**
  * 수집하지 않음(한국어 데이터 없음)
* **parallel-sentences-opensubtitles**
  * 수집하지 않음(번역 쌍 매칭이 안됨)
* **parallel-sentences-talks**
  * 제공하지 않음
    * [TED Talks Usage Policy](https://www.ted.com/about/our-organization/our-policies-terms/ted-talks-usage-policy)에 따라, similarity를 추가하거나, 큐레이션하는 것은 원본 데이터를 변형시키는 행위라고 생각되어 공유하지 않습니다. 
    * 혹시 제가 라이선스와 관련해서 잘못 알고 있다면 알려주세요.
  * 특징
    * TED 강연에 대한 영어 자막 + 한국어 자막
    * 상당히 좋은 전문 분야+구어체 데이터 셋입니다. 번역 쌍 매칭 정확도도 평균적으로 높긴 한데, 그래도 임베딩 유사도 기반 전처리를 하고 사용하시는 것을 추천드립니다.
    * [sentence-transformers/parallel-sentences-talks](https://huggingface.co/datasets/sentence-transformers/parallel-sentences-talks)
* **parallel-sentences-tatoeba**
  * 특징
    * 주로 구어체로 이루어진, 사람이 번역한 문장 번역 쌍
    * 동일한 문장에 대한 2가지 이상의 번역이 존재하는 경우도 있음(모두 옳은 번역)
  * 별도의 전처리 하지 않음
* **parallel-sentences-wikimatrix**
  * 수집하지 않음(저퀄리티)
* **parallel-sentences-wikititles**
  * 특징
    * 단어 번역 데이터(위키피디아 제목)
  * 전처리
    * "(동음이의)", "(disambiguation)" 제거
    * 유사도 측정이 무의미하므로, 전부 1.0 입력
* **parallel-sentences-ccmatrix**
  * 수집하지 않음(대용량)
  * 평균 퀄리티는 낮지만, 데이터의 양(19.4M 번역 쌍)이 많아 좋은 번역 쌍도 많이 존재합니다. 추후 전처리 시도해보겠습니다.