import os
import time
from operator import itemgetter
from collections import Counter
from langchain_community.document_loaders import PyPDFLoader, TextLoader
from chainlit.types import AskFileResponse
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.schema.runnable import Runnable, RunnablePassthrough, RunnableLambda
from langchain.schema.runnable.config import RunnableConfig
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain.chains import ConversationalRetrievalChain, create_extraction_chain
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler
from langchain_community.llms import HuggingFaceEndpoint
from langchain.chains import LLMChain
from langchain_core.prompts import PromptTemplate
from langchain.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain.schema import StrOutputParser
from langchain.chains.conversational_retrieval.prompts import CONDENSE_QUESTION_PROMPT
from langchain.chains.question_answering import load_qa_chain
from langchain.chains.qa_with_sources import load_qa_with_sources_chain
from langchain_pinecone import PineconeVectorStore
from pinecone import Pinecone
from langchain.memory import ChatMessageHistory, ConversationBufferMemory
import pandas as pd
import numpy as np
import chainlit as cl
from chainlit.input_widget import Select, TextInput
from chainlit import user_session
from offres_emploi import Api
from offres_emploi.utils import dt_to_str_iso
import datetime
import plotly.express as px
import bcrypt
import json
import requests
import http.client
from bs4 import BeautifulSoup
from literalai import LiteralClient
literal_client = LiteralClient(api_key=os.getenv("LITERAL_API_KEY"))
literal_client.instrument_openai()
@cl.password_auth_callback
def auth_callback(username: str, password: str):
auth = json.loads(os.environ['CHAINLIT_AUTH_LOGIN'])
ident = next(d['ident'] for d in auth if d['ident'] == username)
pwd = next(d['pwd'] for d in auth if d['ident'] == username)
resultLogAdmin = bcrypt.checkpw(username.encode('utf-8'), bcrypt.hashpw(ident.encode('utf-8'), bcrypt.gensalt()))
resultPwdAdmin = bcrypt.checkpw(password.encode('utf-8'), bcrypt.hashpw(pwd.encode('utf-8'), bcrypt.gensalt()))
resultRole = next(d['role'] for d in auth if d['ident'] == username)
if resultLogAdmin and resultPwdAdmin and resultRole == "admindatapcc":
return cl.User(
identifier=ident + " : đ§âđŒ Admin Datapcc", metadata={"role": "admin", "provider": "credentials"}
)
elif resultLogAdmin and resultPwdAdmin and resultRole == "userdatapcc":
return cl.User(
identifier=ident + " : đ§âđ User Datapcc", metadata={"role": "user", "provider": "credentials"}
)
def process_file(file: AskFileResponse):
if file.type == "text/plain":
Loader = TextLoader
elif file.type == "application/pdf":
Loader = PyPDFLoader
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=100)
loader = Loader(file.path)
documents = loader.load()
docs = text_splitter.split_documents(documents)
return docs
def removeTags(all):
for data in all(['style', 'script']):
data.decompose()
return ' '.join(all.stripped_strings)
def modele(document):
match document:
case "Note de composante sectorielle":
note = """2. Analyse du systĂšme travail
2.1 Secteurs en lien avec la discipline
2.1.1 Indiquer la nature des secteurs, la répartition des entreprises. Décrire les enjeux pour ce secteur (axes de développement, de transformations). Indiquer les OPérateurs de COmpétences de la branche professionnelle correspondante en France.
2.2 Analyses des offres dâemploi
2.2.1 Indiquer les statistiques de lâemploi sur une pĂ©riode. Identifier les 5 principales appellations mĂ©tiers seulement en fonction du contexte, en crĂ©er une liste contextualisĂ©e, avec les pourcentages du nombre d'offres pour chaque emploi par rapport au nombre total d'offres.
2.2.2 missions, activités et compétences demandées (écrites avec un verbe d'action). Décrire le/les profils types des recrutés par les employeurs du systÚme de travail. Lister, au format liste, les évolutions professionnelles ou les exemples de spécialisation, lister, au format liste, les débouchés, lister, au format liste, les avantages du métier, lister, au format liste, les inconvénients du métier, lister, au format liste, les conseils pour réussir dans ce métier.
2.2.3 Indiquer si les emplois sont en tension
"""
case "Fiche Potentiel Profil de Sortie":
note = """1. Nom de la fiche
2. Niveau du diplÎme et son Intitulé (nom long plus sigle). Le niveau de qualification
3. Le résumé du profil et du potentiel de sortie. Il est composé de plusieurs parties :
L'identitĂ©/ les spĂ©cificitĂ©s de la composante. Cette introduction de 5 Ă 10 lignes est utile pour caractĂ©riser le diplĂŽme. Il s'agit dâavoir une description sur les thĂ©matiques de recherche de la composante. Elles sont indiquĂ©es afin dâĂ©tablir le lien entre la recherche et des enjeux possibles dans le systĂšme travail. Elle facilite la comprĂ©hension des domaines de compĂ©tences dans lequel sâinscrit le futur diplĂŽmĂ©. La culture disciplinaire est Ă indiquer car elle contribue Ă caractĂ©riser le diplĂŽme.
L'identitĂ© professionnelle du diplĂŽmĂ©. Les informations professionnelles sont organisĂ©es par mailles (du plus large au plus prĂ©cis) secteur, famille de mĂ©tiers, activitĂ©s, compĂ©tences, compĂ©tences transversales. Il est nĂ©cessaire dâĂȘtre attentif au niveau de qualification de sortie. Nous avons des emplois accessibles dĂšs lâobtention du diplĂŽme, d'autres ne le seront quâavec un une qualification supĂ©rieure et/ou avec de lâexpĂ©rience. Il souhaitable de faire une description globale du profil en apportant des informations sur le niveau dâautonomie et de responsabilitĂ© et les caractĂ©ristiques dâexercice des emplois (spĂ©cialisĂ© ou gĂ©nĂ©raliste, polyvalent ou expert etc).Cette seconde partie de texte de 10 Ă 15 lignes introduit les domaines et enjeux sectoriels et/ou terrain de mise en Ćuvre (3 lignes), les principales appellations dâemploi (1 Ă 2 lignes), les activitĂ©s professionnelles (employabilitĂ© ) et le processus mĂ©tier (3 Ă 4 lignes), les principaux interlocuteurs (1 Ă 2 lignes), les diffĂ©rents contextes de mise en Ćuvre (dĂ©placements, langues Ă©trangĂšres). Cette description peut ĂȘtre suivi la liste dâemplois (avec une prĂ©sentation courte 5 lignes) accessibles en indiquant le cas Ă©chĂ©ant les spĂ©cificitĂ©s
4. La réglementation le cas échéant
5. Secteurs d'activité ou types d'emplois accessibles par le détenteur de ce diplÎme
6. Le type de structure et dâorganisations professionnelles
7. Listes des suites de parcours académiques ou passerelles de formation
8. Codes Rome
9. Référence de la fiche RNCP
"""
return note
def definition(document):
if document == "activite":
meanings = """
DĂ©finition d'une activitĂ© : une activitĂ© est un ensemble cohĂ©rent d'actions combinĂ©es : pour la rĂ©aliser, plusieurs compĂ©tences et opĂ©rations sont nĂ©cessaires, soit successivement, soit conjointement. Elles s'inscrivent Ă des moments clĂ©s du processus de rĂ©alisation et ne peuvent en aucun cas ĂȘtre occultĂ©es, car elles conditionnent le rĂ©sultat. Plusieurs activitĂ©s en vue d'une finalitĂ© avec une valeur ajoutĂ©e Ă un produit ou un service sont nĂ©cessaires pour mettre en Ćuvre un processus mĂ©tier. De ce fait, il est essentiel de dĂ©terminer pour chaque activitĂ© sa propre finalitĂ© et de s'assurer que l'ensemble des activitĂ©s participent bien d'un mĂȘme processus.
"""
elif document == "competence":
meanings = """
DĂ©finition d'une compĂ©tence : la compĂ©tence est une combinaison de savoirs en action, mobilisĂ©s en vue de rĂ©aliser une activitĂ© professionnelle. Elle s'apprĂ©cie, en tant qu'acquis de l'apprentissage selon des modalitĂ©s adaptĂ©es permettant d'en certifier la possession et au regard de l'atteinte d'un rĂ©sultat pour un niveau d'exigence prĂ©dĂ©terminĂ©. Les compĂ©tences peuvent ĂȘtre regroupĂ©es par domaines selon la nature et leur liaison subordonnĂ©e aux activitĂ©s. Elles s'Ă©crivent Ă l'aide de verbe d'action Ă l'infinitif comme le stipule la taxonomie de Bloom pour marquer une progression dans l'exercice de la compĂ©tence.
"""
elif document == "promptLibraryNCS":
meanings = """
Exemple de requĂȘtes sur la note sectorielle : traitement statistique et gĂ©nĂ©ration des codes des objets de datavisualisation\nQuestion1 : donne le dataframe des appellations mĂ©tiers et de leur pourcentage.\nQuestion2 : donne le plotly.js du dataframe avec les labels des appellations mĂ©tiers et les labels des pourcentages.\nQuestion3 : convertis en plotly.js au format javascript\nQuestion4 : donne les salaires moyens.\nQuestion5 : donne le rĂ©sultat des salaires moyens par appellations mĂ©tiers dans un tableau.\nQuestion6 : donne le plotly du tableau des salaires moyens par appellation mĂ©tier.\nQuestion7 : convertis en plotly.js au format javascript avec les labels des salaires moyens et les labels des appellations mĂ©tiers\nQuestion8 : donne le pourcentage des contrats en CDI.\nQuestion9 : donne le rĂ©sultat dans un tableau\nQuestion10 : donne le plotly du tableau\nQuestion11 : convertis le plotly en plotly.js au format javascript, avec affichage de tous les labels.\nQuestion12 : donne les 10 compĂ©tences professionnelles principales avec leur pourcentage.\nQuestion13 : donne le rĂ©sultat dans un tableau.\nQuestion14 : donne le plotly du tableau\nQuestion15 : convertis le plotly en plotly.js au format javascript, avec affichage de tous les labels.\nQuestion16 : quelles sont les appellations mĂ©tiers accessibles selon une expĂ©rience dĂ©butant, en donnant un pourcentage?\nQuestion17 : donne le rĂ©sultat dans un tableau.\nQuestion18 : donne le plotly du tableau.\nQuestion19 : convertis le plotly en plotly.js au format javascript, avec affichage de tous les labels.\nQuestion20 : quelles sont les appellations mĂ©tiers accessibles selon un niveau de qualification jusqu'Ă Bac+2 ou assimilĂ©s, en donnant un pourcentage?\nQuestion21 : donne le rĂ©sultat dans un tableau.\nQuestion22 : donne le plotly du tableau\nQuestion23 : convertis le plotly en plotly.js au format javascript, avec affichage de tous les labels.\nQuestion24 : donne le pourcentage des appellations mĂ©tiers en fonction des types d'entreprise.\nQuestion25 : construis le tableau en faisant une estimation.\nQuestion26 : donne le plotly du tableau estimĂ© avec les pourcentage Ă©valuĂ©s par toi-mĂȘme\nQuestion27 : convertis le plotly en plotly.js au format javascript, avec affichage de tous les labels, issus de votre estimation.
"""
elif document == "promptLibraryFCS":
meanings = """
Exemple de requĂȘtes sur la fiche synoptique : construction d'un programme de formation complet\nQuestion1 : crĂ©e un programme de formation, en 4000 mots, sur 3 ans dĂ©coupĂ©s en 6 semestres, comportant 3 blocs de compĂ©tences pĂ©dagogiques, dont les intitulĂ©s commencent par un verbe d'action, par semestre correspondant Ă 3 unitĂ©s d'enseignement par semestre et 3 cours par unitĂ© d'enseignement, en corrĂ©lation avec les activitĂ©s professionnelles et les compĂ©tences professionnelles de la fiche synoptique, marquant une progression dans les apprentissages.\nQuestion2 : donne le synopsis du cours1 de l'UE1\nQuestion3 : plus?\nQuestion4 : et les supports pĂ©dagogiques?
"""
return meanings
def listToString(list):
return str(list)
def arrayToString(array):
arrayList = []
for i in range(0,len(array)):
if listToString(array[i]).find("libelle")!=-1:
arrayList.append(array[i]['libelle'])
else:
arrayList.append("; ")
string = ', '.join(arrayList)
return string + '; '
def searchByRome(rome,index):
libelle = ''
if rome.find(',') != -1:
romeArray = rome.split(',')
for i in range(0,len(romeArray)):
codeRome = romeArray[i].strip()
if i <= 5 and len(codeRome) == 5:
all_docs = index.query(
top_k=1,
vector= [0] * 768, # embedding dimension
namespace='',
filter={"categorie": {"$eq": "rome"}, "rome":{"$eq": codeRome}},
include_metadata=True
)
libelle = libelle + " " + all_docs['matches'][0]['metadata']['libelle_rome']
else:
all_docs = index.query(
top_k=1,
vector= [0] * 768, # embedding dimension
namespace='',
filter={"categorie": {"$eq": "rome"}, "rome":{"$eq": rome}},
include_metadata=True
)
libelle = libelle + " " + all_docs['matches'][0]['metadata']['libelle_rome']
return libelle
@cl.author_rename
def rename(orig_author: str):
rename_dict = {"ConversationalRetrievalChain": "đŹ Assistant conversationnel", "Retriever": "Agent conversationnel", "StuffDocumentsChain": "ChaĂźne de documents", "LLMChain": "Agent", "HuggingFaceEndpoint": "Mistral AI đ€"}
return rename_dict.get(orig_author, orig_author)
@cl.action_callback("download")
async def on_action(action):
content = []
content.append(action.value)
arrayContent = np.array(content)
df = pd.DataFrame(arrayContent)
with open('./' + action.description + '.txt', 'wb') as csv_file:
df.to_csv(path_or_buf=csv_file, index=False,header=False, encoding='utf-8')
elements = [
cl.File(
name= action.description + ".txt",
path="./" + action.description + ".txt",
display="inline",
),
]
await cl.Message(
author="Datapcc : đđđ", content="[Lien] đ", elements=elements
).send()
await action.remove()
@cl.action_callback("saveToMemory")
async def on_action(action):
buffer = cl.user_session.get("saveMemory")
cl.user_session.set("saveMemory", buffer + action.value)
await cl.Message(
author="Datapcc : đđđ", content="đïž Document sauvegardĂ© dans le buffer Memory!"
).send()
await action.remove()
@cl.cache
def to_cache(file):
#time.sleep(5) # Simulate a time-consuming process
return "https://cipen.univ-gustave-eiffel.fr/fileadmin/CIPEN/datas/assets/docs/" + file + ".csv"
@cl.set_chat_profiles
async def chat_profile():
return [
cl.ChatProfile(name="Note composante sectorielle - NCS",markdown_description="Note composante sectorielle",icon="./public/favicon.png",),
]
@cl.on_chat_start
async def start():
await cl.Avatar(
name="You",
path="./public/logo-ofipe.jpg",
).send()
chat_profile = cl.user_session.get("chat_profile")
chatProfile = chat_profile.split(' - ')
if chatProfile[1] == 'NCS':
app_user = cl.user_session.get("user")
welcomeUser = app_user.identifier
welcomeUserArray = welcomeUser.split('@')
welcomeUserStr = welcomeUserArray[0].replace('.',' ')
await cl.Message(f"> Bonjour {welcomeUserStr}").send()
valuesRome = []
valuesRome = ["", "M1302 - DU entrepreneuriat", "F1102,B1301 - LP Chargé.e d'Affaires en Agencement (CAA)", "M1502,M1503 - LP Gestion Opérationnelles des Ressources Humaines", "K1902 - LP Management et Droits des Affaires ImmobiliÚres"]
cl.user_session.set("arraySettingsRome", valuesRome)
settings = await cl.ChatSettings(
[
Select(
id="rome",
label="Codes Rome",
values=valuesRome,
initial_index=0,
),
TextInput(id="romeInput", label="ou saisir une liste de codes ROME jusqu'à 5 codes", placeholder="ou saisir une liste de codes ROME jusqu'à 5 codes", tooltip="saisir une liste de codes Rome séparés par des virgules, jusqu'à 5 codes ROME"),
Select(
id="type",
label="Type de fiche",
values=["", "Note de composante sectorielle - NCS", "Fiche synoptique - FCS", "Fiche Potentiel Profil de Sortie - FPPS", "Fiche activité - FCA", "Fiche compétence - FCC", "Module de formation - cours - MDF", "Matrice de cohérences - MDC", "Référentiel d'évaluation - REV"],
initial_index=0,
),
]
).send()
value = settings["rome"]
if len(value) < 2:
warning = [
cl.Image(name="Warning", size="small", display="inline", path="./public/warning.png")
]
await cl.Message(author="Datapcc : đđđ",content="1ïžâŁ Cliquez sur le bouton dont l'image suit, dans le prompt, pour commencer Ă Ă©laborer un premier texte de la chaĂźne documentaire APCC!").send()
await cl.Message(author="Datapcc : đđđ",content="", elements=warning).send()
await cl.Message(author="Datapcc : đđđ",content="2ïžâŁ Puis sĂ©lectionnez ou saisissez un ou plusieurs codes ROME et un type de fiche dans les menus dĂ©roulants proposĂ©s. Et vous ĂȘtes prĂȘt!\n\nđ Plateforme de feedback et de fil d'activitĂ© : https://cloud.getliteral.ai/").send()
contextChat = cl.user_session.get("contextChatBot")
if not contextChat:
contextChat = "Il n'y a pas de contexte."
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
model = HuggingFaceEndpoint(
repo_id=repo_id,
max_new_tokens=8000,
temperature=1.0,
streaming=True
)
cl.user_session.set("memory", ConversationBufferMemory(return_messages=True))
memory = cl.user_session.get("memory")
prompt = ChatPromptTemplate.from_messages(
[
(
"system",
f"Contexte : Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement. Contexte : {contextChat}. RĂ©ponds Ă la question suivante de la maniĂšre la plus pertinente, la plus exhaustive et la plus dĂ©taillĂ©e possible, avec au minimum 3000 tokens jusqu'Ă 4000 tokens, seulement et strictement dans le contexte et les informations fournies. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies.",
),
MessagesPlaceholder(variable_name="history"),
("human", "{question}, dans le contexte fourni."),
]
)
runnable = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt
| model
)
cl.user_session.set("runnable", runnable)
@literal_client.step(type="run")
async def construction_REV(romeListArray,settings):
if cl.user_session.get("FCS" + romeListArray[0]) and cl.user_session.get("allskills"):
getChain = await recuperation_contexte("FCS" + romeListArray[0])
getChainSkills = await recuperation_contexte("allskills")
memory = ConversationBufferMemory(return_messages=True)
client_llm = await IA()
allcompetences = getChainSkills
template = """[INST] Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant.
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez à la question ci-dessous à partir du contexte ci-dessous :
{context}
{question} [/INST]
"""
question_p = f"En fonction du contexte qui suit. Contexte : fiche synoptique : {cl.user_session.get('FCS' + romeListArray[0])}. Liste des compétences professionnelles : {allcompetences}. Crée un référentiel d'évaluation en fonction des compétences précédentes, sous la forme d'un tableau recensant les modalités d'évaluation, les compétences professionnelles et les critÚres d'évaluation, tu en déduiras un autre tableau en fonction des compétences professionnelles précédentes et des compétences transversales correspondantes, exploitable dans le logiciel Excel, en respectant tous les intitulés, en langue française seulement et exclusivement, en 4000 mots. Réponds et restitue le référentiel d'évaluation au format tableau."
context_p = f"Réponds à la question suivante en utilisant seulement le contexte ci-contre. Réponds à la maniÚre d'un ingénieur pédagogique pour créer un référentiel. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Si les informations fournies dans le contexte ne sont pas suffisantes, fais une projection sur les modalités d'évaluation, les critÚres d'évaluation, pour construire le référentiel d'évaluation."
prompt = PromptTemplate(template=template, input_variables=["question","context"])
chain = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt | client_llm
)
msg = cl.Message(author="Datapcc : đđđ",content="")
async for chunk in chain.astream({"question":question_p,"context":context_p},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await msg.stream_token(chunk)
completionREV = msg.content
await cl.sleep(3)
await cl.Message(
author="Datapcc : đđđ",content="RĂ©fĂ©rentiel d'Ă©valuation :\n\n" + completionREV
).send()
cl.user_session.set("REV" + romeListArray[0], completionREV)
cl.user_session.set("contextChatBot", completionREV)
await cl.sleep(2)
actions = [
cl.Action(name="download", value=completionREV, description="download_referentiel_evaluation")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger le rĂ©fĂ©rentiel", actions=actions).send()
await cl.sleep(2)
saves = [
cl.Action(name="saveToMemory", value=completionREV, description="Mettre en mémoire le référentiel")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire le rĂ©fĂ©rentiel", actions=saves).send()
await cl.sleep(2)
if not cl.user_session.get("saveMemory"):
cl.user_session.set("saveMemory", "")
memories = [
cl.Action(name="download", value=cl.user_session.get('saveMemory'), description="download_referentiel")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la mise en mĂ©moire de vos fiches", actions=memories).send()
else:
await cl.Message(
author="Datapcc : đđđ",content="â Vous n'avez pas encore crĂ©Ă© de Fiche synoptique!"
).send()
memory.chat_memory.add_user_message(question_p)
memory.chat_memory.add_ai_message(msg.content)
return "Construction du Référentiel d'Evaluation"
@literal_client.step(type="run")
async def construction_MDC(romeListArray,settings):
if cl.user_session.get("FCS" + romeListArray[0]) and cl.user_session.get("allskills") and cl.user_session.get("MDF" + romeListArray[0]):
await recuperation_contexte("FCS" + romeListArray[0])
getChainSkills = await recuperation_contexte("allskills")
getChainMDF = await recuperation_contexte("MDF" + romeListArray[0])
memory = ConversationBufferMemory(return_messages=True)
client_llm = await IA()
allcompetences = getChainSkills
allmodules = getChainMDF
template = """[INST] Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant.
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez à la question ci-dessous à partir du contexte ci-dessous :
{context}
{question} [/INST]
"""
question_p = f"En fonction du contexte qui suit. Contexte : liste des compétences professionnelles : {allcompetences}. Liste des modules de formation et des cours : {allmodules}. Déduis une matrice de cohérences en corrélation des modules de formation, des cours précédents et des compétences professionnelles précédentes ci-avant, sous la forme d'un tableau à double entrée, exploitable dans le logiciel Excel, en respectant tous les intitulés, et rempli par des coches entre les modules, les cours et les compétences professionnelles correspondantes, en langue française seulement et exclusivement, en 4000 mots. Réponds et restitue la matrice de cohérences au format tableau avec des lignes correspondant aux modules de formation et aux cours et des colonnes avec des titres de colonne correspondant aux compétences professionnelles, et pour finir des cellules avec les coches X montrant la corrélation entre les modules, les cours et les compétences professionnelles."
context_p = f"RĂ©ponds Ă la question suivante en utilisant seulement le contexte ci-contre. RĂ©ponds Ă la maniĂšre d'un ingĂ©nieur pĂ©dagogique pour crĂ©er un rĂ©fĂ©rentiel. Si vous ne pouvez pas rĂ©pondre Ă la question sur la base des informations, dites que vous ne trouvez pas de rĂ©ponse ou que vous ne parvenez pas Ă trouver de rĂ©ponse. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies. Ne gĂ©nĂ©rez pas de rĂ©ponses non pertinentes. Si les informations du contexte sont insuffisantes, procĂ©dez quand mĂȘme Ă une estimation et donc Ă une projection sur les liens entre les modules de formation et les compĂ©tences, pour construire la matrice de cohĂ©rences."
prompt = PromptTemplate(template=template, input_variables=["question","context"])
chain = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt | client_llm
)
msg = cl.Message(author="Datapcc : đđđ",content="")
async for chunk in chain.astream({"question":question_p,"context":context_p},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await msg.stream_token(chunk)
completionMDC = msg.content
await cl.sleep(3)
await cl.Message(
author="Datapcc : đđđ",content="Matrice de cohĂ©rences :\n\n" + completionMDC
).send()
cl.user_session.set("MDC" + romeListArray[0], completionMDC)
cl.user_session.set("contextChatBot", completionMDC)
await cl.sleep(2)
actions = [
cl.Action(name="download", value=completionMDC, description="download_matrice_coherence")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la matrice", actions=actions).send()
await cl.sleep(2)
saves = [
cl.Action(name="saveToMemory", value=completionMDC, description="Mettre en mémoire la matrice")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire la matrice", actions=saves).send()
await cl.sleep(2)
if not cl.user_session.get("saveMemory"):
cl.user_session.set("saveMemory", "")
memories = [
cl.Action(name="download", value=cl.user_session.get('saveMemory'), description="download_referentiel")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la mise en mĂ©moire de vos fiches", actions=memories).send()
else:
await cl.Message(
author="Datapcc : đđđ",content="â Vous n'avez pas encore crĂ©Ă© de Fiche synoptique!"
).send()
memory.chat_memory.add_user_message(question_p)
memory.chat_memory.add_ai_message(msg.content)
return "Construction de la Matrice de Cohérences"
@literal_client.step(type="run")
async def construction_MDF(romeListArray,settings):
if cl.user_session.get("FCS" + romeListArray[0]) and cl.user_session.get("allskills"):
getChainNCS = await recuperation_contexte("NCS" + romeListArray[0])
getChain = await recuperation_contexte("FCS" + romeListArray[0])
getChainSkills = await recuperation_contexte("allskills")
getChainActivities = await recuperation_contexte("allactivities")
memory = ConversationBufferMemory(return_messages=True)
client_llm = await IA()
allactivites = getChainActivities
allcompetences = getChainSkills
template = """[INST] Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant.
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez à la question ci-dessous à partir du contexte ci-dessous :
{context}
{question} [/INST]
"""
question_p = f"En fonction du contexte qui suit. Contexte : note de composante sectorielle : {getChainNCS} Ă partir de laquelle tu fais une dĂ©duction des niveaux d'Ă©tudes, de l'expĂ©rience professionnelle, des besoins de formation caractĂ©risĂ©s ainsi que des objectifs Ă atteindre pendant ces formations. Liste des activitĂ©s professionnelles : {allactivites}. Liste des compĂ©tences professionnelles : {allcompetences}. Public cible : de la note de composante sectorielle, donne les niveaux d'Ă©tudes requis en fonction des niveaux de qualification donnĂ©s dans la note de composante sectorielle. DĂ©duis un ensemble de 10 modules de formations, en corrĂ©lation avec les compĂ©tences professionnelles prĂ©cĂ©dentes, dont les intitulĂ©s seront trĂšs dĂ©taillĂ©s et trĂšs complĂšts, entrecoupĂ©s eux-mĂȘmes de 5 cours, en langue française seulement et exclusivement, en 4000 mots. RĂ©ponds et restitue la rĂ©ponse au format tableau de 10 lignes correspondant aux 10 compĂ©tences professionnelles et de 3 colonnes dont les intitulĂ©s du header sont les compĂ©tences professionnelles, les modules de formation et les cours associĂ©s."
context_p = f"Réponds à la question suivante en utilisant seulement le contexte détaillé ci-aprÚs. Réponds à la maniÚre d'un ingénieur pédagogique pour créer un référentiel. Si les informations du contexte sont insuffisantes, crée approximativement les modules de formation et les cours tout en réalisant une estimation sur les intitulés, et tout en faisant une prédiction et donc une projection sur les objectifs pédagogiques, les besoins en compétences et en formation, les niveaux requis, les lacunes à combler, les méthodes pédagogiques et les objectifs d'apprentissage, pour construire les modules de formation."
prompt = PromptTemplate(template=template, input_variables=["question","context"])
chain = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt | client_llm
)
msg = cl.Message(author="Datapcc : đđđ",content="")
async for chunk in chain.astream({"question":question_p,"context":context_p},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await msg.stream_token(chunk)
completionMDF = msg.content
await cl.sleep(3)
await cl.Message(
author="Datapcc : đđđ",content="Modules de formations :\n\n" + completionMDF
).send()
cl.user_session.set("MDF" + romeListArray[0], completionMDF)
cl.user_session.set("contextChatBot", getChainSkills + "\n" + completionMDF)
await cl.sleep(2)
actions = [
cl.Action(name="download", value=completionMDF, description="download_module_formation")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger les modules", actions=actions).send()
await cl.sleep(2)
saves = [
cl.Action(name="saveToMemory", value=completionMDF, description="Mettre en mémoire les modules")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire les modules", actions=saves).send()
await cl.sleep(2)
if not cl.user_session.get("saveMemory"):
cl.user_session.set("saveMemory", "")
memories = [
cl.Action(name="download", value=cl.user_session.get('saveMemory'), description="download_referentiel")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la mise en mĂ©moire de vos fiches", actions=memories).send()
else:
await cl.Message(
author="Datapcc : đđđ",content="â Vous n'avez pas encore crĂ©Ă© de Fiche synoptique!"
).send()
memory.chat_memory.add_user_message(question_p)
memory.chat_memory.add_ai_message(msg.content)
return "Construction des Modules de formation - Cours"
@literal_client.step(type="run")
async def construction_FCC(romeListArray,settings):
if cl.user_session.get("FCS" + romeListArray[0]) and (settings['competence'].find('--- Choisir une compétence ---')==-1 or settings['competenceInput']):
getChain = await recuperation_contexte("FCS" + romeListArray[0])
memory = ConversationBufferMemory(return_messages=True)
client_llm = await IA()
ficheSynoptique = getChain
if settings['competenceInput']:
competenceSingle = settings['competenceInput']
else:
competenceSingle = settings['competence']
template = """[INST] Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant.
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez à la question ci-dessous à partir du contexte ci-dessous :
{context}
{question} [/INST]
"""
question_p =f"En fonction de la compĂ©tence : {competenceSingle}, issue du document prĂ©cĂ©dent correspondant Ă la fiche synoptique, crĂ©e une fiche compĂ©tence trĂšs dĂ©taillĂ©e et trĂšs complĂšte de la compĂ©tence professionnelle prĂ©cĂ©dente, en se fixant sur les mots de l'intitulĂ© de cette mĂȘme compĂ©tence professionnelle, en 3000 mots et 5 paragraphes comportant les paragraphes suivants : 1. description de la compĂ©tence et le processus de la mise en oeuvre dans laquelle seront identifiĂ©es les situations susceptibles de dĂ©clencher la mise en oeuvre des tĂąches et la mobilisation des savoirs, 2. contexte exposant les conditions et les contraintes d'exĂ©cution ainsi que les environnements techniques, 3. critĂšres exposant les critĂšres de rĂ©ussite de l'action et correspondant Ă une pertinence une efficience une efficacitĂ© une cohĂ©rence, 4. liste des savoirs et savoir-faire et savoirs comportementaux."
context_p = f"Contexte : RĂ©ponds Ă la question suivante en utilisant seulement le contexte ci-contre. RĂ©ponds Ă la maniĂšre d'un ingĂ©nieur pĂ©dagogique pour crĂ©er un rĂ©fĂ©rentiel. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies. Contexte: DĂ©finition d'une compĂ©tence : la compĂ©tence est une combinaison de savoirs en action, mobilisĂ©s en vue de rĂ©aliser une activitĂ© professionnelle. Elle s'apprĂ©cie, en tant qu'acquis de l'apprentissage selon des modalitĂ©s adaptĂ©es permettant d'en certifier la possession et au regard de l'atteinte d'un rĂ©sultat pour un niveau d'exigence prĂ©dĂ©terminĂ©. Les compĂ©tences peuvent ĂȘtre regroupĂ©es par domaines selon la nature et leur liaison subordonnĂ©e aux activitĂ©s. Elles s'Ă©crivent Ă l'aide de verbe d'action Ă l'infinitif comme le stipule la taxonomie de Bloom pour marquer une progression dans l'exercice de la compĂ©tence. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies. Fiche synoptique : {ficheSynoptique}."
prompt = PromptTemplate(template=template, input_variables=["question","context"])
chain = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt | client_llm
)
msg = cl.Message(author="Datapcc : đđđ",content="")
async for chunk in chain.astream({"question":question_p,"context":context_p},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await msg.stream_token(chunk)
completionFCC = msg.content
await cl.sleep(3)
await cl.Message(
author="Datapcc : đđđ",content="Fiche compĂ©tence : " + competenceSingle + "\n\n" + completionFCC
).send()
cl.user_session.set("FCC" + romeListArray[0], completionFCC)
cl.user_session.set("contextChatBot", ficheSynoptique + "\n" + completionFCC)
await cl.sleep(2)
actions = [
cl.Action(name="download", value=completionFCC, description="download_fiche_competence")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la fiche", actions=actions).send()
await cl.sleep(2)
saves = [
cl.Action(name="saveToMemory", value=completionFCC, description="Mettre en mémoire la fiche")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire la fiche", actions=saves).send()
await cl.sleep(2)
if not cl.user_session.get("saveMemory"):
cl.user_session.set("saveMemory", "")
memories = [
cl.Action(name="download", value=cl.user_session.get('saveMemory'), description="download_referentiel")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la mise en mĂ©moire de vos fiches", actions=memories).send()
else:
await cl.Message(
author="Datapcc : đđđ",content="â Vous n'avez pas encore crĂ©Ă© de Fiche synoptique!"
).send()
memory.chat_memory.add_user_message(question_p)
memory.chat_memory.add_ai_message(msg.content)
return "Construction de la Fiche Compétence : " + competenceSingle
@literal_client.step(type="run")
async def construction_FCA(romeListArray,settings):
if cl.user_session.get("FCS" + romeListArray[0]) and (settings['activite'].find('--- Choisir une activité ---')==-1 or settings['activiteInput']):
getChain = await recuperation_contexte("FCS" + romeListArray[0])
memory = ConversationBufferMemory(return_messages=True)
client_llm = await IA()
ficheSynoptique = getChain
if settings['activiteInput']:
activiteSingle = settings['activiteInput']
else:
activiteSingle = settings['activite']
template = """[INST] Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant.
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez à la question ci-dessous à partir du contexte ci-dessous :
{context}
{question} [/INST]
"""
question_p = f"En fonction de l'activitĂ© : {activiteSingle}, issue du document prĂ©cĂ©dent correspondant Ă la fiche synoptique, crĂ©e une fiche activitĂ© trĂšs dĂ©taillĂ©e et trĂšs complĂšte de l'activitĂ© professionnelle prĂ©cĂ©dente, en se fixant sur les mots de l'intitulĂ© de cette mĂȘme activitĂ© professionnelle, en 3000 mots et 5 paragraphes comportant les paragraphes suivants : 1. description de l'activitĂ© pour indiquer la finalitĂ© de l'activitĂ© en terme de service ou de produit, 2. description pour indiquer les Ă©tapes du processus mĂ©tier en dĂ©crivant la combinatoire entre les principales compĂ©tences de l'activitĂ© et en indiquant les actions et les opĂ©rations avec les ressources et les moyens nĂ©cessaires pour finalement dĂ©crire les relations hiĂ©rarchiques et fonctionnelles des interlocuteurs, 3. contextualisation pour indiquer les conditions d'exercice de l'activitĂ© : lieu mobilitĂ© risques astreintes, 4. liste des compĂ©tences professionnelles de l'activitĂ©, 5. compĂ©tences transversales de l'activitĂ©."
context_p = f"Contexte : RĂ©ponds Ă la question suivante en utilisant seulement le contexte ci-contre. RĂ©ponds Ă la maniĂšre d'un ingĂ©nieur pĂ©dagogique pour crĂ©er un rĂ©fĂ©rentiel. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies. Contexte: DĂ©finition d'une activitĂ© : une activitĂ© est un ensemble cohĂ©rent d'actions combinĂ©es : pour la rĂ©aliser, plusieurs compĂ©tences et opĂ©rations sont nĂ©cessaires, soit successivement, soit conjointement. Elles s'inscrivent Ă des moments clĂ©s du processus de rĂ©alisation et ne peuvent en aucun cas ĂȘtre occultĂ©es, car elles conditionnent le rĂ©sultat. Plusieurs activitĂ©s en vue d'une finalitĂ© avec une valeur ajoutĂ©e Ă un produit ou un service sont nĂ©cessaires pour mettre en Ćuvre un processus mĂ©tier. De ce fait, il est essentiel de dĂ©terminer pour chaque activitĂ© sa propre finalitĂ© et de s'assurer que l'ensemble des activitĂ©s participent bien d'un mĂȘme processus. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies. Fiche synoptique : {ficheSynoptique}."
prompt = PromptTemplate(template=template, input_variables=["question","context"])
chain = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt | client_llm
)
msg = cl.Message(author="Datapcc : đđđ",content="")
async for chunk in chain.astream({"question":question_p,"context":context_p},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await msg.stream_token(chunk)
completionFCA = msg.content
await cl.sleep(3)
await cl.Message(
author="Datapcc : đđđ",content="Fiche activitĂ© : " + activiteSingle + "\n\n" + completionFCA
).send()
cl.user_session.set("FCA" + romeListArray[0], completionFCA)
cl.user_session.set("contextChatBot", ficheSynoptique + "\n" + completionFCA)
await cl.sleep(2)
actions = [
cl.Action(name="download", value=completionFCA, description="download_fiche_activite")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la fiche", actions=actions).send()
await cl.sleep(2)
saves = [
cl.Action(name="saveToMemory", value=completionFCA, description="Mettre en mémoire la fiche")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire la fiche", actions=saves).send()
await cl.sleep(2)
if not cl.user_session.get("saveMemory"):
cl.user_session.set("saveMemory", "")
memories = [
cl.Action(name="download", value=cl.user_session.get('saveMemory'), description="download_referentiel")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la mise en mĂ©moire de vos fiches", actions=memories).send()
else:
await cl.Message(
author="Datapcc : đđđ",content="â Vous n'avez pas encore crĂ©Ă© de Fiche synoptique!"
).send()
memory.chat_memory.add_user_message(question_p)
memory.chat_memory.add_ai_message(msg.content)
return "Construction de la Fiche Activité" + activiteSingle
@literal_client.step(type="run")
async def construction_FPPS(romeListArray,settings):
if cl.user_session.get("NCS" + romeListArray[0]) and cl.user_session.get("FCS" + romeListArray[0]):
goFPPS1 = await cl.AskUserMessage(content="A partir de quelle formation, voulez-vous construire la Fiche Potentiel et Profil de Sortie?", timeout=120).send()
if goFPPS1:
goFPPS2 = await cl.AskUserMessage(content="A partir de quel(s) code(s) ROME, voulez-vous construire la Fiche Potentiel et Profil de Sortie?", timeout=120).send()
if goFPPS2:
docsearch = await vectorOFDatabase_connexion()
retrieve = docsearch.similarity_search(goFPPS1['output'], k=5, filter={'categorie': {'$eq': 'OF'}})
infoFormation = ''
for i in range(0,len(retrieve)):
infoFormation += '\n' + retrieve[i].page_content
noteSectorielle = await recuperation_contexte("NCS" + romeListArray[0])
ficheSynoptique = await recuperation_contexte("FCS" + romeListArray[0])
intituleFormation = goFPPS1['output']
codesRome = goFPPS2['output']
memory = ConversationBufferMemory(return_messages=True)
client_llm = await IA()
template = """[INST] Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant.
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez à la question ci-dessous à partir du contexte ci-dessous :
{context}
{question} [/INST]
"""
question_p =f"En fonction du contexte intégrant les descriptifs de formation, la note de composante sectorielle et la fiche synoptique, crée une fiche Potentiel Profil de Sortie sous forme d'une fiche descriptive trÚs détaillée et trÚs complÚte, construite d'aprÚs le modÚle et la structure de document suivante. Structure de document : {str(modele('Fiche Potentiel Profil de Sortie'))}"
context_p = f"Contexte : Réponds à la question suivante en utilisant le contexte ci-contre. Réponds à la maniÚre d'un ingénieur pédagogique pour créer un référentiel. Essayez donc de comprendre en profondeur le contexte et répondez en vous basant sur les informations fournies. Contexte: Descriptifs de formation : {infoFormation}. Note de composante sectorielle : {noteSectorielle}. Fiche Synoptique : {ficheSynoptique}. Intitulé de la formation : {intituleFormation}. Codes ROME : {codesRome}."
client_anthropic = await IA()
question =f"En fonction du contexte intégrant les descriptifs de formation, la note de composante sectorielle et la fiche synoptique, crée une fiche Potentiel Profil de Sortie sous forme d'une fiche descriptive trÚs détaillée et trÚs complÚte, construite d'aprÚs le modÚle et la structure de document suivante. Structure de document : {str(modele('Fiche Potentiel Profil de Sortie'))}"
prompt = PromptTemplate(template=template, input_variables=["question","context"])
chain = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt | client_llm
)
msg = cl.Message(author="Datapcc : đđđ",content="")
async for chunk in chain.astream({"question":question_p,"context":context_p},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await msg.stream_token(chunk)
completionFPPS = msg.content
await cl.sleep(0.5)
await cl.Message(
author="Datapcc : đđđ",content="Fiche Potentiel Profil de sortie : " + romeListArray[1] + "\n\n" + completionFPPS
).send()
cl.user_session.set("FPPS" + romeListArray[0], completionFPPS)
cl.user_session.set("contextChatBot", "Note sectorielle" + noteSectorielle + "\nFiche syoptique" + ficheSynoptique + "\nFiche Potentiel Profil de sortie" + completionFPPS)
await cl.sleep(1)
actions = [
cl.Action(name="download", value=completionFPPS, description="download_fiche_synoptique")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la fiche", actions=actions).send()
await cl.sleep(1)
saves = [
cl.Action(name="saveToMemory", value=completionFPPS, description="Mettre en mémoire la fiche")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire la fiche", actions=saves).send()
await cl.sleep(1)
memories = [
cl.Action(name="download", value=cl.user_session.get('saveMemory'), description="download_referentiel")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la mise en mĂ©moire de vos fiches", actions=memories).send()
else:
await cl.Message(
author="Datapcc : đđđ",content="â Vous n'avez pas encore crĂ©Ă© de Note sectorielle ou de Fiche Synoptique!"
).send()
memory.chat_memory.add_user_message(question_p)
memory.chat_memory.add_ai_message(msg.content)
return "Construction de la Fiche Potentiel Profil de Sortie"
@literal_client.step(type="run")
async def construction_FCS(romeListArray,settings):
if cl.user_session.get("NCS" + romeListArray[0]):
goFCS = await cl.AskActionMessage(
content="Voulez-vous téléverser votre propre document de Note sectorielle?",
actions=[
cl.Action(name="continue", value="continue", label="â
Oui, je veux charger ma note sectorielle pour modifier le contexte"),
cl.Action(name="cancel", value="cancel", label="â Non, je veux continuer avec la version du contexte en cours"),
],
).send()
if goFCS and goFCS.get("value") == "continue":
files = None
while files == None:
files = await cl.AskFileMessage(
content="TĂ©lĂ©charger votre document de note sectorielle (â ïž Attention, le contexte initial sera modifiĂ©!)", accept=["text/plain", "application/pdf"],max_size_mb=2
).send()
text_file = files[0]
text_file_string = process_file(text_file)
text_file_string = text_file_string[0].page_content
cl.user_session.set("NCS" + romeListArray[0], str(text_file_string))
getChain = "NCS" + romeListArray[0] + " : " + str(text_file_string)
else:
getChain = await recuperation_contexte("NCS" + romeListArray[0])
memory = ConversationBufferMemory(return_messages=True)
client_llm = await IA()
template = """[INST] Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant.
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez à la question ci-dessous à partir du contexte ci-dessous :
{context}
{question} [/INST]
"""
question_p ="""
1) Extrais de la note de composante sectorielle du contexte, seulement et strictement la liste des 5 appellations mĂ©tiers principales et Ă©cris-la au format liste formĂ©e de 5 lignes de ces mĂȘmes mĂ©tiers, sans phrase d'introduction de type \"Voici...\" et sans y apporter plus de prĂ©cision quant Ă la gĂ©nĂ©ration de la note de composante sectorielle; la liste devant se termniner par la derniĂšre appellation mĂ©tier.
2) En fonction des 5 appellations mĂ©tiers du secteur listĂ©es dans le document prĂ©cĂ©dent correspondant Ă la note de composante sectorielle, crĂ©e une fiche synoptique sous forme d'une fiche descriptive trĂšs dĂ©taillĂ©e et trĂšs complĂšte, en 5000 mots, comprenant une liste numĂ©rotĂ©es de 5 activitĂ©s professionnelles diffĂ©rentes bien dĂ©crites, entrecoupĂ©es elles-mĂȘmes par une sous-liste numĂ©rotĂ©es, imbriquĂ©e dans chaque liste activitĂ© professionnelle, de 3 compĂ©tences professionnelles distinctes et bien dĂ©crites commençant par un verbe d'action conformĂ©ment Ă la taxonomie de Bloom, marquant une progression dans l'acquisition des compĂ©tences.
3) Extrais de la fiche synoptique crĂ©Ă©e, seulement et strictement la liste des 25 premiĂšres activitĂ©s professionnelles principales et Ă©cris-la sur une seule ligne construite de ces mĂȘmes 10 activitĂ©s sĂ©parĂ©es par des points virgules, sans phrase d'introduction de type \"Voici...\" et sans y apporter plus de prĂ©cision quant Ă la gĂ©nĂ©ration de la fiche synoptique; la ligne devant commencer par \"activitĂ©s : --- Choisir une activitĂ© --- ; \" et devant se termniner par la derniĂšre activitĂ© professionnelle.
4) Extrais de la fiche synoptique crĂ©Ă©e, seulement et strictement la liste des 25 premiĂšres compĂ©tences professionnelles principales et Ă©cris-la sur une seule ligne construite de ces mĂȘmes 10 compĂ©tences sĂ©parĂ©es par des points virgules, sans phrase d'introduction de type \"Voici...\" et sans y apporter plus de prĂ©cision quant Ă la gĂ©nĂ©ration de la fiche synoptique; la ligne devant commencer par \"compĂ©tences : --- Choisir une compĂ©tence --- ; \" et devant se termniner par la derniĂšre compĂ©tence professionnelle.
"""
context_p = f"Contexte : RĂ©ponds aux questions suivantes en utilisant seulement le contexte ci-contre. RĂ©ponds Ă la maniĂšre d'un ingĂ©nieur pĂ©dagogique pour crĂ©er un rĂ©fĂ©rentiel. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies. Contexte: DĂ©finition d'une activitĂ© : une activitĂ© est un ensemble cohĂ©rent d'actions combinĂ©es : pour la rĂ©aliser, plusieurs compĂ©tences et opĂ©rations sont nĂ©cessaires, soit successivement, soit conjointement. Elles s'inscrivent Ă des moments clĂ©s du processus de rĂ©alisation et ne peuvent en aucun cas ĂȘtre occultĂ©es, car elles conditionnent le rĂ©sultat. Plusieurs activitĂ©s en vue d'une finalitĂ© avec une valeur ajoutĂ©e Ă un produit ou un service sont nĂ©cessaires pour mettre en Ćuvre un processus mĂ©tier. De ce fait, il est essentiel de dĂ©terminer pour chaque activitĂ© sa propre finalitĂ© et de s'assurer que l'ensemble des activitĂ©s participent bien d'un mĂȘme processus. DĂ©finition d'une compĂ©tence : la compĂ©tence est une combinaison de savoirs en action, mobilisĂ©s en vue de rĂ©aliser une activitĂ© professionnelle. Elle s'apprĂ©cie, en tant qu'acquis de l'apprentissage selon des modalitĂ©s adaptĂ©es permettant d'en certifier la possession et au regard de l'atteinte d'un rĂ©sultat pour un niveau d'exigence prĂ©dĂ©terminĂ©. Les compĂ©tences peuvent ĂȘtre regroupĂ©es par domaines selon la nature et leur liaison subordonnĂ©e aux activitĂ©s. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies. Note de composante sectorielle : {getChain}."
prompt = PromptTemplate(template=template, input_variables=["question","context"])
chain = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt | client_llm
)
msg = cl.Message(author="Datapcc : đđđ",content="")
async for chunk in chain.astream({"question":question_p,"context":context_p},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await msg.stream_token(chunk)
completionFCS = msg.content
await cl.sleep(1)
arrayActivites = completionFCS.split('activités : ')
arrayOfActivites = arrayActivites[1].split('compétences : ')
arrayOfCompetences = completionFCS.split('compétences : ')
arrayOfRome = np.array(cl.user_session.get("arraySettingsRome"))
if settings['rome']:
indexOfRome = np.where(arrayOfRome==settings['rome'])[0][0]
else:
indexOfRome = 0
settings = await cl.ChatSettings(
[
Select(
id="rome",
label="Codes Rome",
values=["", "M1302 - DU entrepreneuriat", "F1102,B1301 - LP Chargé.e d'Affaires en Agencement (CAA)", "M1502,M1503 - LP Gestion Opérationnelles des Ressources Humaines", "K1902 - LP Management et Droits des Affaires ImmobiliÚres"],
initial_index=indexOfRome,
),
TextInput(id="romeInput", label="ou saisir une liste de codes ROME jusqu'à 5 codes", initial=settings['romeInput'], placeholder="ou saisir une liste de codes ROME jusqu'à 5 codes", tooltip="saisir une liste de codes Rome séparés par des virgules, jusqu'à 5 codes ROME"),
Select(
id="type",
label="Type de fiche",
values=["", "Note de composante sectorielle - NCS", "Fiche synoptique - FCS", "Fiche Potentiel Profil de Sortie - FPPS", "Fiche activité - FCA", "Fiche compétence - FCC", "Module de formation - cours - MDF", "Matrice de cohérences - MDC", "Référentiel d'évaluation - REV"],
initial_index=2,
),
Select(
id="activite",
label="Activites",
values=arrayOfActivites[0].split(';'),
initial_index=0,
),
TextInput(id="activiteInput", label="ou saisir une activité", placeholder="ou saisir une activité", tooltip="saisir votre propre activité professionnelle pour en avoir un descriptif détaillé"),
Select(
id="competence",
label="Competences",
values=arrayOfCompetences[1].split(';'),
initial_index=0,
),
TextInput(id="competenceInput", label="ou saisir une compétence", placeholder="ou saisir une compétence", tooltip="saisir votre propre compétence professionnelle pour en avoir un descriptif détaillé"),
]
).send()
await cl.sleep(3)
await cl.Message(
author="Datapcc : đđđ",content="Fiche synoptique : " + romeListArray[1] + "\n\n" + msg.content
).send()
cl.user_session.set("FCS" + romeListArray[0], msg.content)
cl.user_session.set("contextChatBot", getChain + "\n" + msg.content)
await cl.sleep(2)
listPrompts_name = f"Liste des requĂȘtes sur la fiche synoptique"
prompt_elements = []
prompt_elements.append(
cl.Text(content=definition('promptLibraryFCS'), name=listPrompts_name)
)
await cl.Message(author="Datapcc : đđđ",content="đ BibliothĂšque de prompts : " + listPrompts_name, elements=prompt_elements).send()
await cl.sleep(2)
actions = [
cl.Action(name="download", value=msg.content, description="download_fiche_synoptique")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la fiche", actions=actions).send()
await cl.sleep(2)
saves = [
cl.Action(name="saveToMemory", value=msg.content, description="Mettre en mémoire la fiche")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire la fiche", actions=saves).send()
await cl.sleep(2)
memories = [
cl.Action(name="download", value=cl.user_session.get('saveMemory'), description="download_referentiel")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la mise en mĂ©moire de vos fiches", actions=memories).send()
await cl.sleep(2)
cl.user_session.set("allactivities", arrayOfActivites[0])
cl.user_session.set("allskills", arrayOfCompetences[1])
else:
await cl.Message(
author="Datapcc : đđđ",content="â Vous n'avez pas encore crĂ©Ă© de Note sectorielle!"
).send()
memory.chat_memory.add_user_message(question_p)
memory.chat_memory.add_ai_message(msg.content)
return "Construction de la Fiche Synoptique"
@literal_client.step(type="run")
async def construction_NCS(romeListArray):
context = await contexte(romeListArray)
emploisST = cl.user_session.get("EmploiST")
memory = ConversationBufferMemory(return_messages=True)
### Mistral Completion ###
client_llm = await IA()
structure = str(modele('Note de composante sectorielle'))
definitions = definition('activite') + ' ' + definition('competence')
template = """[INST] Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant.
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez à la question ci-dessous à partir du contexte ci-dessous :
{context}
{question} [/INST]
"""
question_p ="""
Peux-tu créer une note sectorielle d'aprÚs le modÚle de note sectorielle précédent en respectant ses parties : 2., 2.1, 2.1.1, 2.2, 2.2.1, 2.2.2, 2.2.3 et d'aprÚs le contexte en vous réferrant strictement aux données du contexte fixé? Réponse sous forme d'un texte généré d'aprÚs le modÚle et le contexte en 5000 mots et en langue française absolument.
"""
context_p = f"Contexte : {context}. {definitions} ModÚle de note sectorielle : {structure}. Réponds en langue française strictement à la question suivante en respectant strictement les données du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Si les informations du contexte sont insuffisantes, procédez à une projection sur le secteur, les entreprises et le marché de l'emploi, pour construire la note de composante sectorielle."
prompt = PromptTemplate(template=template, input_variables=["question","context"])
#llm_chain = LLMChain(prompt=prompt, llm=client_llm)
#completion_NCS = llm_chain.run({"question":question_p,"context":context_p}, callbacks=[StreamingStdOutCallbackHandler()])
chain = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt | client_llm
)
msg = cl.Message(author="Datapcc : đđđ",content="")
async for chunk in chain.astream({"question":question_p,"context":context_p},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await msg.stream_token(chunk)
cl.user_session.set("NCS" + romeListArray[0], msg.content)
cl.user_session.set("contextChatBot", context + "\n" + msg.content)
await cl.sleep(2)
listEmplois_name = f"Liste des emplois"
text_elements = []
text_elements.append(
cl.Text(content="Question : " + romeListArray[0] + "\n\nRĂ©ponse :\n" + emploisST.replace('Emploi : ','\nâïž Emploi : ').replace('Contrat : ','\nContrat : ').replace('CompĂ©tences professionnelles : ','\nCompĂ©tences professionnelles : ').replace('Salaire : ','\nSalaire : ').replace('Qualification : ','\nQualification : '), name=listEmplois_name)
)
await cl.Message(author="Datapcc : đđđ",content="đšâđŒ Source PĂŽle Emploi : " + listEmplois_name, elements=text_elements).send()
await cl.sleep(2)
if romeListArray[0].find(',') != -1:
codeArray = romeListArray[0].split(',')
ficheMetiers = []
for i in range(0,len(codeArray)):
ficheMetiers = [
cl.File(name= "Fiche métier " + codeArray[i],url="https://www.soi-tc.fr/assets/fiches_pe/FEM_" + codeArray[i] + ".pdf",display="inline",)
]
await cl.Message(
author="Datapcc : đđđ", content="[Fiches mĂ©tiers] đ", elements=ficheMetiers
).send()
else:
ficheMetiers = [
cl.File(name= "Fiche métier " + romeListArray[0],url="https://www.soi-tc.fr/assets/fiches_pe/FEM_" + romeListArray[0] + ".pdf",display="inline",)
]
await cl.Message(
author="Datapcc : đđđ", content="[Fiches mĂ©tiers] đ", elements=ficheMetiers
).send()
await cl.sleep(2)
listPrompts_name = f"Liste des requĂȘtes sur la note sectorielle"
prompt_elements = []
prompt_elements.append(
cl.Text(content=definition('promptLibraryNCS'), name=listPrompts_name)
)
await cl.Message(author="Datapcc : đđđ",content="đ BibliothĂšque de prompts : " + listPrompts_name, elements=prompt_elements).send()
await cl.sleep(2)
actions = [
cl.Action(name="download", value=msg.content, description="download_note_sectorielle")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la note", actions=actions).send()
await cl.sleep(2)
saves = [
cl.Action(name="saveToMemory", value=msg.content, description="Mettre en mémoire la note")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire la note", actions=saves).send()
await cl.sleep(2)
memory.chat_memory.add_user_message(question_p)
memory.chat_memory.add_ai_message(msg.content)
return "Construction de la Note Sectorielle"
@cl.step(type="run")
async def recuperation_contexte(getNote):
getContext = cl.user_session.get(getNote)
return getNote + " :\n" + getContext
@cl.step(type="retrieval")
async def contexte(romeListArray):
results = await API_connexion(romeListArray)
index = await vectorDatabase_connexion()
emplois = []
for i in range(0,len(results)):
if i == 0:
emplois.append("Secteur : " + searchByRome(romeListArray[0],index) + " " + romeListArray[1])
else:
emplois.append("\nEmploi : " + results[i]['intitule'] + "; Contrat : " + results[i]['typeContrat'] + "; Compétences professionnelles : " + arrayToString(results[i]['competences']) if listToString(results[i]).find("'competences':")!=-1 else "; " + "Salaire : " + listToString(results[i]['salaire']) + "; Qualification : " + results[i]['qualificationLibelle'] if listToString(results[i]).find("'qualificationLibelle':")!=-1 else "; " + "; Localisation : " + listToString(results[i]['lieuTravail']) + "; Entreprise : " + listToString(results[i]['entreprise']['nom']) if listToString(results[i]['entreprise']).find("'nom':")!=-1 else "; ")
emplois_list = ''.join(emplois)
context = emplois_list.replace('[','').replace(']','').replace('{','').replace('}','')
#ficheMetier = await Fiche_metier("https://www.soi-tc.fr/assets/fiches_pe/FEM_", romeListArray[0])
ficheMetier = await FicheMetier("https://candidat.francetravail.fr/metierscope/fiche-metier/", romeListArray[0])
#ficheClesMetier = await ChiffresClesMetier("https://dataemploi.pole-emploi.fr/metier/chiffres-cles/NAT/FR/", romeListArray[0])
ficheMetiersCompetencesSavoirs = await Fiche_metier_competences_savoirs(romeListArray[0])
#metierSecteurContexteTravail = await Metier_secteur_contexte_travail(romeListArray[0])
cl.user_session.set("EmploiST", context)
return "Fiches Métiers :\n" + ficheMetier + "\nFiche métier Compétences Savoirs :\n" + ficheMetiersCompetencesSavoirs + "\nListe des emplois issus de France Travail :\n" + context
#return "Fiche métier Compétences Savoirs :\n" + ficheMetiersCompetencesSavoirs + "\nMetier secteur contexte au travail :\n" + metierSecteurContexteTravail + "\nListe des emplois issus de France Travail :\n" + context
#return "Liste des emplois issus de France Travail :\n" + context
#return "\nMetier secteur contexte au travail :\n" + metierSecteurContexteTravail + "\nListe des emplois issus de France Travail :\n" + context
@cl.step(type="tool")
async def Metier_secteur_contexte_travail(codes):
payload = {
'grant_type': 'client_credentials',
'client_id': 'PAR_datalabapc_54c735e1b592af9d016cf0e45f8973082303609fc997f0821a9b308c07995251',
'client_secret': 'b968556f8b4bf2c42af42498304bab0d76edcef23ed4723bbd621ae317a6657e',
'scope': 'api_rome-metiersv1'
}
r = requests.post("https://entreprise.pole-emploi.fr/connexion/oauth2/access_token?realm=/partenaire",
headers={"Content-Type":"application/x-www-form-urlencoded"},
data=payload)
data = "[" + r.content.decode("utf-8") + "]"
load_json = json.loads(data)
token = next(d['access_token'] for d in load_json if d['scope'] == 'api_rome-metiersv1')
conn = http.client.HTTPSConnection("api.pole-emploi.io")
headers = {
'Authorization': "Bearer " + token,
'Accept': "application/json, */*"
}
dataset = ''
if codes.find(',') != -1:
codeArray = codes.split(',')
for i in range(0,len(codeArray)):
conn.request("GET", "/partenaire/rome-metiers/v1/metiers/metier/" + codeArray[i], headers=headers)
res = conn.getresponse()
data = res.read()
datas = data.decode("utf-8")
dataset += str(datas.replace('"','').replace('{','').replace('}','').replace('[','').replace(']','').replace('code','').replace('libelle','').replace(',:',', ').replace('::',':'))
else:
conn.request("GET", "/partenaire/rome-metiers/v1/metiers/metier/" + codes, headers=headers)
res = conn.getresponse()
data = res.read()
datas = data.decode("utf-8")
dataset += str(datas.replace('"','').replace('{','').replace('}','').replace('[','').replace(']','').replace('code','').replace('libelle','').replace(',:',', ').replace('::',':'))
return dataset
@cl.step(type="tool")
async def Fiche_metier_competences_savoirs(codes):
payload = {
'grant_type': 'client_credentials',
'client_id': 'PAR_datalabapc_54c735e1b592af9d016cf0e45f8973082303609fc997f0821a9b308c07995251',
'client_secret': 'b968556f8b4bf2c42af42498304bab0d76edcef23ed4723bbd621ae317a6657e',
'scope': 'api_rome-fiches-metiersv1'
}
r = requests.post("https://entreprise.pole-emploi.fr/connexion/oauth2/access_token?realm=/partenaire",
headers={"Content-Type":"application/x-www-form-urlencoded"},
data=payload)
data = "[" + r.content.decode("utf-8") + "]"
load_json = json.loads(data)
token = next(d['access_token'] for d in load_json if d['scope'] == 'api_rome-fiches-metiersv1')
conn = http.client.HTTPSConnection("api.pole-emploi.io")
headers = {
'Authorization': "Bearer " + token,
'Accept': "application/json, */*"
}
dataset = ''
if codes.find(',') != -1:
codeArray = codes.split(',')
for i in range(0,len(codeArray)):
conn.request("GET", "/partenaire/rome-fiches-metiers/v1/fiches-rome/fiche-metier/" + codeArray[i], headers=headers)
res = conn.getresponse()
data = res.read()
datas = data.decode("utf-8")
dataset += str(datas.replace('"','').replace('{','').replace('}','').replace('[','').replace(']','').replace('code','').replace('libelle','').replace(',:',', ').replace('::',':'))
else:
conn.request("GET", "/partenaire/rome-fiches-metiers/v1/fiches-rome/fiche-metier/" + codes, headers=headers)
res = conn.getresponse()
data = res.read()
datas = data.decode("utf-8")
dataset += str(datas.replace('"','').replace('{','').replace('}','').replace('[','').replace(']','').replace('code','').replace('libelle','').replace(',:',', ').replace('::',':'))
return dataset
@cl.step(type="tool")
async def FicheMetier(url, codes):
if codes.find(',') != -1:
all = ""
codeArray = codes.split(',')
for i in range(0,len(codeArray)):
response = requests.get(url + codeArray[i])
soup = BeautifulSoup(response.text, "html.parser")
allmissions = soup.select('div.fm-presentation-text')
allcompetences = soup.select('div#part2')
allcontextes = soup.select('div#part3')
all = all + "Fiche Métier " + codeArray[i] + ":\nLes missions principales : " + removeTags(allmissions[0]) + ". Les compétences recherchées : " + removeTags(allcompetences[0]) + ". Les contextes au travail : " + removeTags(allcontextes[0]) + "."
else:
response = requests.get(url + codes)
soup = BeautifulSoup(response.text, "html.parser")
allmissions = soup.select('div.fm-presentation-text')
allcompetences = soup.select('div#part2')
allcontextes = soup.select('div#part3')
all = "Fiche Métier " + codes + ":\nLes missions principales : " + removeTags(allmissions[0]) + ". Les compétences recherchées : " + removeTags(allcompetences[0]) + ". Les contextes au travail : " + removeTags(allcontextes[0]) + "."
return all
@cl.step(type="tool")
async def ChiffresClesMetier(url, codes):
if codes.find(',') != -1:
all = ""
codeArray = codes.split(',')
for i in range(0,len(codeArray)):
response = requests.get(url + codeArray[i])
soup = BeautifulSoup(response.text, "html.parser")
if soup.select('h1#titreMetier'):
alltitre = soup.select('h1#titreMetier')
allTitre = removeTags(alltitre[0])
else:
allTitre = ""
if soup.select('div.jobs_item-container-flex'):
allembauches = soup.select('div.jobs_item-container-flex')
allEmbauches = removeTags(allembauches[0])
else:
allEmbauches = ""
if soup.select('div.key-number_block.shadow.inset'):
allsalaires = soup.select('div.key-number_block.shadow.inset')
allSalaires = removeTags(allsalaires[0])
else:
allSalaires = ""
if soup.select('tbody.sectorTable__body'):
allsalairesMedian = soup.select('tbody.sectorTable__body')
allSalairesMedian = removeTags(allsalairesMedian[0])
else:
allSalairesMedian = ""
if soup.select('div.dynamism_canvas-wrapper > p.sr-only'):
allDiff = soup.select('div.dynamism_canvas-wrapper > p.sr-only')
alldiff = removeTags(allDiff[0])
else:
alldiff = ""
if soup.select('div.tabs-main-data_persp-col2'):
allDiffOrigin = soup.select('div.tabs-main-data_persp-col2')
alldiffOrigin = removeTags(allDiffOrigin[0])
else:
alldiffOrigin = ""
allTypeContrat = ""
if soup.find_all("div", class_="hiring-contract_legende_item ng-star-inserted"):
allContrat = soup.find_all("div", class_="hiring-contract_legende_item ng-star-inserted")
for j in range(0,len(allContrat)):
allTypeContrat = allTypeContrat + removeTags(allContrat[j]) + ", "
if soup.find_all("div", class_="horizontal-graph_patterns"):
allEntreprise = soup.find_all("div", class_="horizontal-graph_patterns")
allentreprise = removeTags(allEntreprise[0])
else:
allentreprise = ""
all = all + "\n\nChiffres-clés Métier " + allTitre + ":\nDemandeurs d'emploi et Offres d'emploi : " + allEmbauches + ". Salaires proposés dans les offres : " + allSalaires + ". Salaires médians constatés : " + allSalairesMedian + ". Difficultés de recrutement pour les entreprises : " + alldiff + ". Origine des difficultés : " + alldiffOrigin + ". Répartition des embauches par type de contrat : " + allTypeContrat + ". Répartition des embauches par taille d'entreprise : " + allentreprise + "."
else:
response = requests.get(url + codes)
soup = BeautifulSoup(response.text, "html.parser")
if soup.select('h1#titreMetier'):
alltitre = soup.select('h1#titreMetier')
allTitre = removeTags(alltitre[0])
else:
allTitre = ""
if soup.select('div.jobs_item-container-flex'):
allembauches = soup.select('div.jobs_item-container-flex')
allEmbauches = removeTags(allembauches[0])
else:
allEmbauches = ""
if soup.select('div.key-number_block.shadow.inset'):
allsalaires = soup.select('div.key-number_block.shadow.inset')
allSalaires = removeTags(allsalaires[0])
else:
allSalaires = ""
if soup.select('tbody.sectorTable__body'):
allsalairesMedian = soup.select('tbody.sectorTable__body')
allSalairesMedian = removeTags(allsalairesMedian[0])
else:
allSalairesMedian = ""
if soup.select('div.dynamism_canvas-wrapper > p.sr-only'):
allDiff = soup.select('div.dynamism_canvas-wrapper > p.sr-only')
alldiff = removeTags(allDiff[0])
else:
alldiff = ""
if soup.select('div.tabs-main-data_persp-col2'):
allDiffOrigin = soup.select('div.tabs-main-data_persp-col2')
alldiffOrigin = removeTags(allDiffOrigin[0])
else:
alldiffOrigin = ""
allTypeContrat = ""
if soup.find_all("div", class_="hiring-contract_legende_item ng-star-inserted"):
allContrat = soup.find_all("div", class_="hiring-contract_legende_item ng-star-inserted")
for j in range(0,len(allContrat)):
allTypeContrat = allTypeContrat + removeTags(allContrat[j]) + ", "
if soup.find_all("div", class_="horizontal-graph_patterns"):
allEntreprise = soup.find_all("div", class_="horizontal-graph_patterns")
allentreprise = removeTags(allEntreprise[0])
else:
allentreprise = ""
all = "\n\nChiffres-clés Métier " + allTitre + ":\nDemandeurs d'emploi et Offres d'emploi : " + allEmbauches + ". Salaires proposés dans les offres : " + allSalaires + ". Salaires médians constatés : " + allSalairesMedian + ". Difficultés de recrutement pour les entreprises : " + alldiff + ". Origine des difficultés : " + alldiffOrigin + ". Répartition des embauches par type de contrat : " + allTypeContrat + ". Répartition des embauches par taille d'entreprise : " + allentreprise + "."
return all
@cl.step(type="tool")
async def Fiche_metier(url, codes):
docs = []
docs_string = ''
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=100)
if codes.find(',') != -1:
codeArray = codes.split(',')
for i in range(0,len(codeArray)):
response = requests.get(url + codeArray[i] + '.pdf')
if response:
loader = PyPDFLoader(url + codeArray[i] + '.pdf')
documents = loader.load()
docs.append(text_splitter.split_documents(documents))
for j in range(0,len(docs)):
docs_string += docs[j][0].page_content
else:
response = requests.get(url + codes + '.pdf')
if response:
loader = PyPDFLoader(url + codes + '.pdf')
documents = loader.load()
docs = text_splitter.split_documents(documents)
docs_string = docs[0].page_content
return docs_string
@cl.step(type="tool")
async def vectorOFDatabase_connexion():
os.environ['PINECONE_API_KEY'] = os.environ['PINECONE_API_KEY']
os.environ['PINECONE_INDEX_NAME'] = os.environ['PINECONE_INDEX_NAME']
os.environ['PINECONE_ENVIRONMENT'] = os.environ['PINECONE_ENVIRONMENT']
embeddings = HuggingFaceEmbeddings()
docsearch = PineconeVectorStore(index_name=os.environ['PINECONE_INDEX_NAME'], embedding=embeddings)
return docsearch
@cl.step(type="tool")
async def vectorDatabase_connexion():
os.environ['PINECONE_API_KEYROME'] = os.environ['PINECONE_API_KEYROME']
pc = Pinecone(api_key=os.environ['PINECONE_API_KEYROME'])
index_name = "all-skills"
index = pc.Index(index_name)
return index
@cl.step(type="tool")
async def API_connexion(romeListArray):
client = Api(client_id=os.environ['POLE_EMPLOI_CLIENT_ID'],
client_secret=os.environ['POLE_EMPLOI_CLIENT_SECRET'])
todayDate = datetime.datetime.today()
month, year = (todayDate.month-1, todayDate.year) if todayDate.month != 1 else (12, todayDate.year-1)
start_dt = todayDate.replace(day=1, month=month, year=year)
end_dt = datetime.datetime.today()
params = {"motsCles": romeListArray[0],'lieux':'75D','minCreationDate': dt_to_str_iso(start_dt),'maxCreationDate': dt_to_str_iso(end_dt),'range':'0-149'}
search_on_big_data = client.search(params=params)
results = search_on_big_data["resultats"]
return results
@cl.step(type="llm")
async def IA():
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
llm = HuggingFaceEndpoint(
repo_id=repo_id, max_new_tokens=5000, temperature=1.0, task="text2text-generation", streaming=True
)
return llm
@cl.on_settings_update
async def setup_agent(settings):
if not settings['rome'] and not settings['type'] and not settings['romeInput']:
await cl.Message(
author="Datapcc : đđđ",content=f"â ïž Pas de contexte : {settings['rome']}\nâ ïž Pas de type de fiche : {settings['type']}\nâ Vous ne pouvez pas Ă©laborer de fiche!"
).send()
elif settings['rome'] and not settings['type'] and not settings['romeInput']:
await cl.Message(
author="Datapcc : đđđ",content=f"đ Changement de contexte : {settings['rome']}\nâ ïž Pas de type de fiche : {settings['type']}\nâ Vous ne pouvez pas Ă©laborer de fiche!"
).send()
elif not settings['rome'] and settings['type'] and not settings['romeInput']:
await cl.Message(
author="Datapcc : đđđ",content=f"â ïž Pas de contexte : {settings['rome']}\nđ Type de fiche : {settings['type']}\nâ Vous ne pouvez pas Ă©laborer de fiche!"
).send()
else:
if settings['romeInput']:
await cl.Message(
author="Datapcc : đđđ",content=f"đ Changement de contexte : {settings['romeInput']}\nđ Type de fiche : {settings['type']}"
).send()
romeList = settings['romeInput'] + " - " + settings['romeInput']
cl.user_session.set("romeFree", romeList)
else:
await cl.Message(
author="Datapcc : đđđ",content=f"đ Changement de contexte : {settings['rome']}\nđ Type de fiche : {settings['type']}"
).send()
romeList = settings['rome']
romeListArray = romeList.split(' - ')
cl.user_session.set("typeDoc", settings['type'])
if not cl.user_session.get("saveMemory"):
cl.user_session.set("saveMemory", "")
if settings['type'] == 'Note de composante sectorielle - NCS':
await construction_NCS(romeListArray)
elif settings['type'] == 'Fiche synoptique - FCS':
await construction_FCS(romeListArray,settings)
elif settings['type'] == 'Fiche Potentiel Profil de Sortie - FPPS':
await construction_FPPS(romeListArray,settings)
elif settings['type'] == 'Fiche activité - FCA':
await construction_FCA(romeListArray,settings)
elif settings['type'] == 'Fiche compétence - FCC':
await construction_FCC(romeListArray,settings)
elif settings['type'] == 'Module de formation - cours - MDF':
await construction_MDF(romeListArray,settings)
elif settings['type'] == 'Matrice de cohérences - MDC':
await construction_MDC(romeListArray,settings)
elif settings['type'] == "Référentiel d'évaluation - REV":
await construction_REV(romeListArray,settings)
contextChat = cl.user_session.get("contextChatBot")
if not contextChat:
contextChat = "Il n'y a pas de contexte."
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
model = HuggingFaceEndpoint(
repo_id=repo_id,
max_new_tokens=8000,
temperature=0.5,
streaming=True
)
memory = cl.user_session.get("memory")
prompt = ChatPromptTemplate.from_messages(
[
(
"system",
f"Contexte : Vous ĂȘtes un spĂ©cialiste du marchĂ© de l'emploi en fonction du niveau de qualification, des compĂ©tences professionnelles, des compĂ©tences transversales, du salaire et de l'expĂ©rience. Vous ĂȘtes douĂ© pour faire des analyses du systĂšme travail sur les mĂ©tiers les plus demandĂ©s grĂące Ă votre aptitude Ă synthĂ©tiser les informations en fonction des critĂšres dĂ©finis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement. Contexte : {contextChat}. RĂ©ponds Ă la question suivante de la maniĂšre la plus pertinente, la plus exhaustive et la plus dĂ©taillĂ©e possible, avec au minimum 3000 tokens jusqu'Ă 4000 tokens, seulement et strictement dans le contexte et les informations fournies. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies.",
),
MessagesPlaceholder(variable_name="history"),
("human", "{question}, dans le contexte fourni."),
]
)
runnable = (
RunnablePassthrough.assign(
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
)
| prompt
| model
)
cl.user_session.set("runnable", runnable)
@cl.on_message
async def main(message: cl.Message):
async with cl.Step(root=True, name="RĂ©ponse de Mistral", type="llm") as parent_step:
parent_step.input = message.content
chat_profile = cl.user_session.get("chat_profile")
chatProfile = chat_profile.split(' - ')
memory = cl.user_session.get("memory")
runnable = cl.user_session.get("runnable") # type: Runnable
msg = cl.Message(author="Datapcc : đđđ",content="")
text_elements = []
answer = []
async for chunk in runnable.astream({"question": message.content},
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])):
await parent_step.stream_token(chunk)
await msg.stream_token(chunk)
QA_context_name = f"Question-réponse sur le contexte"
text_elements.append(
cl.Text(content="Question : " + message.content + "\n\nRĂ©ponse :\n" + msg.content, name=QA_context_name)
)
actions = [
cl.Action(name="download", value="Question : " + message.content + "\n\nRĂ©ponse : " + msg.content, description="download_QA_emplois")
]
await cl.Message(author="Datapcc : đđđ",content="Download", actions=actions).send()
await cl.sleep(2)
saves = [
cl.Action(name="saveToMemory", value="Question : " + message.content + "\n\nRĂ©ponse : " + msg.content, description="Mettre en mĂ©moire la rĂ©ponse Ă votre requĂȘte")
]
await cl.Message(author="Datapcc : đđđ",content="Mettre en mĂ©moire la rĂ©ponse Ă votre requĂȘte", actions=saves).send()
await cl.sleep(2)
memories = [
cl.Action(name="download", value=cl.user_session.get('saveMemory'), description="download_referentiel")
]
await cl.Message(author="Datapcc : đđđ",content="TĂ©lĂ©charger la mise en mĂ©moire de vos fiches", actions=memories).send()
await cl.sleep(1.5)
await cl.Message(author="Datapcc : đđđ",content="Contexte : " + QA_context_name, elements=text_elements).send()
memory.chat_memory.add_user_message(message.content)
memory.chat_memory.add_ai_message(msg.content)