librarian-bot's picture
Librarian Bot: Add base_model information to model
775ebd7
|
raw
history blame
2.38 kB
metadata
language: fr
license: apache-2.0
library_name: transformers
tags:
  - summarization
metrics:
  - rouge
widget:
  - text: >-
      Pierre: J’ai oublié ma trousse. Tu peux me prêter un stylo.

      Lucie: Tiens.

      Pierre: Merci. Tu peux me donner une feuille de papier aussi ?

      Lucie: Euh… oui. Tiens.

      Pierre: Merci. Ça t’ennuie pas si je regarde avec toi ? J’ai oublié mon
      livre…

      Lucie: Non, pas de problème.

      Pierre: Pff. Je ne comprends rien. Tu pourras m’expliquer après le cours ?

      Lucie: Oui, si tu veux… On ira au café.

      Pierre: Oui… euh non, j’ai oublié mon porte-monnaie 

      Lucie: Bon allez ! ce n’est pas grave, je t’invite.

      Pierre: Tu es trop gentille.

      Lucie: Oui, c’est bien possible.
base_model: google/flan-t5-large
model-index:
  - name: Fine-tuned FLAN-T5 large model for French dialogue summarization
    results: []

Fine-tuned FLAN-T5 large model for French Dialogue Summarization

This model is a fine-tuned version of google/flan-t5-large for French dialogue summarization.

Usage

Inference with 🤗 Pipeline

import torch
from transformers import pipeline

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

pipe = pipeline(
    "summarization",
    model="bofenghuang/flan-t5-large-dialogsum-fr",
    device=device,
)

dialogue_text = """Pierre: J’ai oublié ma trousse. Tu peux me prêter un stylo.
Lucie: Tiens.
Pierre: Merci. Tu peux me donner une feuille de papier aussi ?
Lucie: Euh… oui. Tiens.
Pierre: Merci. Ça t’ennuie pas si je regarde avec toi ? J’ai oublié mon livre…
Lucie: Non, pas de problème.
Pierre: Pff. Je ne comprends rien. Tu pourras m’expliquer après le cours ?
Lucie: Oui, si tu veux… On ira au café.
Pierre: Oui… euh non, j’ai oublié mon porte-monnaie.
Lucie: Bon allez ! ce n’est pas grave, je t’invite.
Pierre: Tu es trop gentille.
Lucie: Oui, c’est bien possible."""

summarized_text = pipe(dialogue_text, max_length=1024)[0]["summary_text"]  # greedy
# summarized_text = pipe(dialogue_text, max_length=1024, num_beams=5)[0]["summary_text"]  # beam search