metadata
language: fr
license: apache-2.0
library_name: transformers
tags:
- summarization
metrics:
- rouge
widget:
- text: >-
Pierre: J’ai oublié ma trousse. Tu peux me prêter un stylo.
Lucie: Tiens.
Pierre: Merci. Tu peux me donner une feuille de papier aussi ?
Lucie: Euh… oui. Tiens.
Pierre: Merci. Ça t’ennuie pas si je regarde avec toi ? J’ai oublié mon
livre…
Lucie: Non, pas de problème.
Pierre: Pff. Je ne comprends rien. Tu pourras m’expliquer après le cours ?
Lucie: Oui, si tu veux… On ira au café.
Pierre: Oui… euh non, j’ai oublié mon porte-monnaie
Lucie: Bon allez ! ce n’est pas grave, je t’invite.
Pierre: Tu es trop gentille.
Lucie: Oui, c’est bien possible.
base_model: google/flan-t5-large
model-index:
- name: Fine-tuned FLAN-T5 large model for French dialogue summarization
results: []
Fine-tuned FLAN-T5 large model for French Dialogue Summarization
This model is a fine-tuned version of google/flan-t5-large for French dialogue summarization.
Usage
Inference with 🤗 Pipeline
import torch
from transformers import pipeline
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
pipe = pipeline(
"summarization",
model="bofenghuang/flan-t5-large-dialogsum-fr",
device=device,
)
dialogue_text = """Pierre: J’ai oublié ma trousse. Tu peux me prêter un stylo.
Lucie: Tiens.
Pierre: Merci. Tu peux me donner une feuille de papier aussi ?
Lucie: Euh… oui. Tiens.
Pierre: Merci. Ça t’ennuie pas si je regarde avec toi ? J’ai oublié mon livre…
Lucie: Non, pas de problème.
Pierre: Pff. Je ne comprends rien. Tu pourras m’expliquer après le cours ?
Lucie: Oui, si tu veux… On ira au café.
Pierre: Oui… euh non, j’ai oublié mon porte-monnaie.
Lucie: Bon allez ! ce n’est pas grave, je t’invite.
Pierre: Tu es trop gentille.
Lucie: Oui, c’est bien possible."""
summarized_text = pipe(dialogue_text, max_length=1024)[0]["summary_text"] # greedy
# summarized_text = pipe(dialogue_text, max_length=1024, num_beams=5)[0]["summary_text"] # beam search