---
base_model: intfloat/multilingual-e5-small
datasets: []
language: []
library_name: sentence-transformers
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:1446
- loss:MultipleNegativesRankingLoss
widget:
- source_sentence: 圧縮機の回転部分の総称であって、動翼を介して気体に仕事を付加する機能をもつ。動翼を植えてないも のを圧縮機ロータという場合がある。
sentences:
- 圧縮機ロータ〔コンプレッサロータ〕はどのように定義されていますか?
- 溶存水素の定義を教えてください。
- 中圧圧縮機〔中圧コンプレッサ〕の定義は何ですか?
- source_sentence: 気体を圧縮、加熱し連続的に膨張させて、その保有する熱エネルギーを機械的エネルギーとして取り出 す熱機関。原則として圧縮機、加熱器、タービン、制御装置のほか必要に応じて熱交換器その他の補機
からなっている。
sentences:
- What is the definition of gas turbine?
- What is the definition of low fuel pressure tripping device?
- 微分動作〔D動作〕の機能は何ですか?
- source_sentence: 光の透過または散乱を利用して水のにごりの度合を示す計器。
sentences:
- 第3リン酸ソーダの機能は何ですか?
- 濁度計をどのように定義しますか?
- How is 〔DEB〕 direct energy balance coordinated control〔APC〕 automatic power control、automatic plant control
defined?
- source_sentence: ボイラ用水として使用している水の不純物の除去および軟化、pHの調整等の処理をいう。
sentences:
- 給水処理の機能は何ですか?
- 除湿器の機能は何ですか?
- 薬液貯蔵タンクの意味を説明してください。
- source_sentence: 再生時アニオン樹脂とカチオン樹脂は別々に再生される。再生後両樹脂の混合に用いる送風機をいう。
sentences:
- 中和装置の定義は何ですか?
- 混床塔ブロワをどのように定義しますか?
- How is raw water defined?
---
# SentenceTransformer based on intfloat/multilingual-e5-small
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small)
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 tokens
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("Nada-10/f-jp-multilingual-e5-small")
# Run inference
sentences = [
'再生時アニオン樹脂とカチオン樹脂は別々に再生される。再生後両樹脂の混合に用いる送風機をいう。',
'混床塔ブロワをどのように定義しますか?',
'中和装置の定義は何ですか?',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 1,446 training samples
* Columns: positive
and anchor
* Approximate statistics based on the first 1000 samples:
| | positive | anchor |
|:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string |
| details |
石油、石炭、天然ガス、高炉ガスなどのもつ熱エネルギーを利用して発電するプラント。
| 火力発電所の定義を説明してください。
|
| 蒸気タービンにより発電するプラント。
| What does the term steam power plant refer to?
|
| ガスタービンにより発電するプラント。
| ガスタービン発電所の機能は何ですか?
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Evaluation Dataset
#### Unnamed Dataset
* Size: 362 evaluation samples
* Columns: positive
and anchor
* Approximate statistics based on the first 1000 samples:
| | positive | anchor |
|:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string |
| details | 半導体といわれる4価の原子であるゲルマニウムとかシリコンを主原料とした真空管に代わる部品。
| What is the function of transistor?
|
| シリコンを主原料とした整流子で、そのゲートに信号を加えて導通を制御する。又消イオン時間(ターンオフ時間)も格段に小さい。
| SCRの説明は何ですか?
|
| 絶縁板に配線回路を印刷し、回路部品を取り付けたもので電子機器に使われコンパクトで互換性がある。
| What is the explanation of print circuit board?
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `num_train_epochs`: 1
- `warmup_ratio`: 0.1
- `fp16`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters