---
language:
- en
license: apache-2.0
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:132020
- loss:MultipleNegativesRankingLoss
base_model: pyrac/rse_engagement_des_collaborateurs
widget:
- source_sentence: And it is ecolabel too!!
sentences:
- Leur transparence sur les actions éthiques est impressionnante.
- On ne voulait pas cette chambre et l'avoir imposée a vraiment gâché notre expérience.
- L'établissement met en place des protocoles de sécurité au travail qui garantissent
un environnement sain pour tous
- source_sentence: Les employés semblent travailler dans des conditions de stress
élevé et sans soutien.
sentences:
- 'Le personnel étranger étranger vraiment du mal à comprendre ce qu''on lui demande.
Ne comprend même pas le terme petit dejeuner... un peu limité quand même... '
- Leur engagement envers la responsabilité sociale est admirable.
- Trop petit pour un si grand hôtel.
- source_sentence: Par ailleurs impossible de se lever tard, la femme de chambre étant
sous payée, ne travaille que le matin.
sentences:
- On a été vraiment contrariés d’être placés dans cette chambre, c’était une expérience
très frustrante.
- L'hôtel fait un excellent travail en matière de gestion durable.
- Aucun label ou certification n'est affiché pour rassurer sur leurs pratiques durables.
- source_sentence: Cet hôtel n'affiche pas de label environnemental comme Clef verte
ou GreenGlobe
sentences:
- La sécurité est renforcée, ce qui est très rassurant.
- L'engagement environnemental de ce camping est remarquable.
- Bonne approche développement durable.
- source_sentence: Petit plus pour le caractère refuge LPO de l’hotel.
sentences:
- Je n'ai observé aucune initiative éthique notable dans cet hôtel.
- Parking pratique avec un bon rapport qualité-prix.
- L'établissement met en place des protocoles de sécurité au travail qui garantissent
un environnement sain pour tous
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy
model-index:
- name: MPNet base trained on AllNLI triplets
results:
- task:
type: triplet
name: Triplet
dataset:
name: all nli dev
type: all-nli-dev
metrics:
- type: cosine_accuracy
value: 1.0
name: Cosine Accuracy
- task:
type: triplet
name: Triplet
dataset:
name: all nli test
type: all-nli-test
metrics:
- type: cosine_accuracy
value: 1.0
name: Cosine Accuracy
---
# MPNet base trained on AllNLI triplets
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [pyrac/rse_engagement_des_collaborateurs](https://huggingface.co/pyrac/rse_engagement_des_collaborateurs). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [pyrac/rse_engagement_des_collaborateurs](https://huggingface.co/pyrac/rse_engagement_des_collaborateurs)
- **Maximum Sequence Length:** 128 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
- **Language:** en
- **License:** apache-2.0
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("pyrac/rse_gestion_durable")
# Run inference
sentences = [
'Petit plus pour le caractère refuge LPO de l’hotel.',
"L'établissement met en place des protocoles de sécurité au travail qui garantissent un environnement sain pour tous",
'Parking pratique avec un bon rapport qualité-prix.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Evaluation
### Metrics
#### Triplet
* Datasets: `all-nli-dev` and `all-nli-test`
* Evaluated with [TripletEvaluator
](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
| Metric | all-nli-dev | all-nli-test |
|:--------------------|:------------|:-------------|
| **cosine_accuracy** | **1.0** | **1.0** |
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 132,020 training samples
* Columns: anchor
, positive
, and negative
* Approximate statistics based on the first 1000 samples:
| | anchor | positive | negative |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string | string |
| details |
Engagement RSE palpable, mais trop de règles vertes imposées.
| Les informations sur leurs pratiques responsables sont quasi inexistantes.
| Cette chambre était extrêmement décevante, elle ne correspondait absolument pas à nos besoins.
|
| Je suis déçu qu'aucun label environnemental comme Clef verte ne soit visible dans cet hôtel
| La mise en avant de leurs pratiques éthiques est impressionnante.
| Accès mal indiqué et compliqué.
|
| Le bien-être des employés est clairement une priorité ici avec des pratiques conformes aux dispositions légales
| Ils ne sont pas aussi transparents qu'ils le prétendent.
| La chambre était trop vieille et usée, ça a gâché notre séjour.
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Evaluation Dataset
#### Unnamed Dataset
* Size: 16,502 evaluation samples
* Columns: anchor
, positive
, and negative
* Approximate statistics based on the first 1000 samples:
| | anchor | positive | negative |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string | string |
| details | J'ai trouvé que cet hôtel avec le label Clef verte est un bel exemple d'engagement environnemental
| personnels non-formés et mal payés, sous-traitance à gogo
| Pas assez d'espace pour les manœuvres, surtout en heures de pointe.
|
| Je ne vois pas de résultats concrets de leur engagement écologique.
| L'hôtel manque de transparence sur ses engagements en RSE.
| On nous a placé dans une chambre qui ne correspondait vraiment pas à ce que l’on avait réservé.
|
| Les conditions de sécurité au travail sont irréprochables et l'environnement est sain pour les employés et les clients
| RSE exemplaire, mais règles environnementales oppressives.
| Vraiment déçu d’avoir eu cette chambre, ce n’était pas du tout ce qu’on s’attendait.
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 64
- `num_train_epochs`: 1
- `warmup_ratio`: 0.1
- `bf16`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters