File size: 10,188 Bytes
3d40d3b
1b7e1bb
c3f257f
5431a98
 
24d5bb3
 
fbbec00
6bfcb60
3d40d3b
fbbec00
 
b0a79cb
927cbbf
 
a5b6687
5431a98
d34a2cf
399936e
d34a2cf
9720975
5431a98
da24b26
90964f5
 
 
cd96058
c443ca0
8683f94
45f3a20
0e96436
 
7af326c
01ddc54
0e96436
7af326c
0e96436
45f3a20
 
8663b79
0e96436
81fd7ab
 
 
 
0e96436
 
45f3a20
 
 
0d7b95a
d4e25bf
0e96436
 
45f3a20
 
 
0e96436
 
 
714aa9d
0e96436
 
714aa9d
8663b79
d4e25bf
cd96058
d4e25bf
cd96058
 
 
 
bc03695
d4e25bf
35a24a0
714aa9d
d4e25bf
0e96436
b5b1652
8663b79
 
 
2d3adff
8663b79
 
 
 
 
 
b4632c5
 
8663b79
 
 
 
b4632c5
 
09c667a
da24b26
8663b79
b4632c5
 
09c667a
8663b79
 
b4632c5
 
09c667a
2d3adff
 
b4632c5
 
09c667a
2d3adff
 
b4632c5
 
09c667a
8663b79
da24b26
8663b79
 
 
8136b3a
9bdc739
0d7b95a
9bdc739
 
 
399936e
9bdc739
 
 
 
 
 
 
 
 
5431a98
b0a79cb
5431a98
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
fbbec00
e760a46
8663b79
e760a46
5431a98
90964f5
35cec9e
0e96436
8663b79
3cc302d
714aa9d
d4e25bf
714aa9d
6b80cf7
d4e25bf
13df262
 
714aa9d
 
d4e25bf
714aa9d
 
d4e25bf
714aa9d
 
13df262
0e96436
13df262
 
8cbb038
13df262
0e96436
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
import os
import json
import bcrypt
from typing import List
from pathlib import Path
from langchain_huggingface import HuggingFaceEmbeddings
from langchain_huggingface import HuggingFaceEndpoint
from langchain.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain.schema import StrOutputParser

from operator import itemgetter
from pinecone import Pinecone
from langchain_pinecone import PineconeVectorStore
from langchain_community.chat_message_histories import ChatMessageHistory
from langchain.memory import ConversationBufferMemory
from langchain.schema.runnable import Runnable, RunnablePassthrough, RunnableConfig, RunnableLambda
from langchain.callbacks.base import BaseCallbackHandler
from langchain.chains import (
    StuffDocumentsChain, ConversationalRetrievalChain
)

import chainlit as cl
from chainlit.input_widget import TextInput, Select, Switch, Slider

from deep_translator import GoogleTranslator

from datetime import timedelta

@cl.step(type="tool")
async def LLModel():
    os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
    repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
    llm = HuggingFaceEndpoint(
        repo_id=repo_id, max_new_tokens=5300, temperature=0.7, task="text2text-generation", streaming=True
    )
    return llm
    
@cl.step(type="tool")
async def VectorDatabase(categorie):
    if categorie == "year" or categorie == "videosTC":
        index_name = "all-jdlp"
        embeddings = HuggingFaceEmbeddings()
        vectorstore = PineconeVectorStore(
            index_name=index_name, embedding=embeddings, pinecone_api_key=os.getenv('PINECONE_API_KEYJDLP')
        )
    return vectorstore

@cl.step(type="retrieval")
async def Retriever(categorie):
    vectorstore = await VectorDatabase(categorie)
    if categorie == "videosTC":
        retriever = vectorstore.as_retriever(search_type="similarity_score_threshold", search_kwargs={"score_threshold": .7, "k": 250,"filter": {"title": {"$eq": "videos-table-rondeia"}, "time": {"$gte": 1320}}})
    return retriever

@cl.step(type="embedding")
async def Search(input, categorie):
    vectorstore = await VectorDatabase(categorie)
    results = []
    test = []
    sources_text = ""
    sources_offres = ""
    verbatim_text = ""
    count = 0
    countOffres = 0
    if categorie == "videosTC":
        search = vectorstore.similarity_search(input,k=50, filter={"title": {"$eq": "videos-table-rondeia"}, "time": {"$gte": 1320}})
        for i in range(0,len(search)):
            if count <= 23:
                count = count + 1
                timeSeq = search[i].metadata["time"]
                timeSeqRound = round(timeSeq)
                time = timedelta(seconds=timeSeqRound)
                sources_text = sources_text + '<div class="gridvid"><a target="_blank" title="' + search[i].metadata['titre'] + ' : ...' + search[i].page_content + '" href="' + search[i].metadata['video'] + '#start=' + str(timeSeq) + '"><img src="' + search[i].metadata['image'] + '" width="100%" alt="' + search[i].metadata['titre'] + ' : ...' + search[i].page_content + '"/><p>🕓 ' + str(time) + ' : ...' + search[i].page_content + ' : ' + search[i].metadata['titre'] + '</p></a></div>'
                sources_audio = sources_text + '<div class="gridvid"><a target="_blank" title="' + search[i].metadata['titre'] + ' : ...' + search[i].page_content + '" href="' + search[i].metadata['Audio'] + '#start=' + str(timeSeq) + '"><img src="' + search[i].metadata['thumb'] + '" width="100%" alt="' + search[i].metadata['titre'] + ' : ...' + search[i].page_content + '"/><p>🕓 ' + str(time) + ' : ...' + search[i].page_content + ' : ' + search[i].metadata['titre'] + '</p></a></div>'
                verbatim_text = verbatim_text + "<p style='font-size:0.8rem'>" + str(count) + ". " + search[i].metadata['titre'] + "</p><p style='font-size:0.8rem'>🕓 "+ str(time) + " : " + search[i].page_content + "</p>"
            
    results = [sources_text, verbatim_text, sources_audio]
    return results
        
@cl.set_chat_profiles
async def chat_profile():
    return [
        cl.ChatProfile(name="Table ronde autour de l'IA : «IA et gestes professionnels de l’enseignant»",markdown_description="Vidéo exploratoire autour de l'événement",icon="/public/logo-ofipe.png",),
    ]
    
@cl.set_starters
async def set_starters():
    return [
        cl.Starter(
            label="L'IA comme outil pour les enseignants et les étudiants",
            message="Comment les enseignants et les étudiants peuvent-ils utiliser l'IA comme un outil pour améliorer l'apprentissage et l'enseignement ?",
            icon="/public/videocam-theme1.svg",
            ),

        cl.Starter(
            label="Les limites de l'IA et la nécessité de l'intervention humaine",
            message="Quelles sont les limites de l'IA et pourquoi est-il important que les enseignants interviennent dans le processus d'apprentissage avec l'IA ?",
            icon="/public/videocam-theme2.svg",
            ),
        cl.Starter(
            label="L'importance de l'esprit critique face à l'IA",
            message="Comment encourager les étudiants à développer un esprit critique face à l'IA et à ses résultats ?",
            icon="/public/videocam-theme3.svg",
            ),
        cl.Starter(
            label="L'éthique et l'IA dans les enseignements du supérieur",
            message="Quels sont les enjeux éthiques liés à l'utilisation de l'IA dans les enseignements du supérieur et comment y faire face ?",
            icon="/public/videocam-theme4.svg",
            ),
        cl.Starter(
            label="Les impacts de l'IA sur les métiers et les formations",
            message="Comment l'IA va transformer les métiers et les formations du supérieur et quels sont les défis à relever ?",
            icon="/public/videocam-theme5.svg",
            ),
        cl.Starter(
            label="Les limites de l'IA et les défis technologiques",
            message="Quelles sont les limites actuelles de l'IA et quels sont les défis technologiques à relever pour améliorer son utilisation dans les enseignements du supérieur ?",
            icon="/public/videocam-theme6.svg",
            )
        ]
    
@cl.on_message
async def on_message(message: cl.Message):
    await cl.Message(f"> EVENTIA").send()
    model = await LLModel()
    retriever = await Retriever("videosTC")
    ########## Chain with streaming ##########
    message_history = ChatMessageHistory()
    memory = ConversationBufferMemory(memory_key="chat_history",output_key="answer",chat_memory=message_history,return_messages=True)
    
    qa = ConversationalRetrievalChain.from_llm(
        model,
        memory=memory,
        chain_type="stuff",
        return_source_documents=True,
        verbose=False,
        retriever=retriever
    )
    
    msg = cl.Message(content="")
    
    class PostMessageHandler(BaseCallbackHandler):
        """
        Callback handler for handling the retriever and LLM processes.
        Used to post the sources of the retrieved documents as a Chainlit element.
        """

        def __init__(self, msg: cl.Message):
            BaseCallbackHandler.__init__(self)
            self.msg = msg
            self.sources = set()  # To store unique pairs

        def on_retriever_end(self, documents, *, run_id, parent_run_id, **kwargs):
            for d in documents:
                source_page_pair = (d.metadata['source'], d.metadata['page'])
                self.sources.add(source_page_pair)  # Add unique pairs to the set

        def on_llm_end(self, response, *, run_id, parent_run_id, **kwargs):
                sources_text = "\n".join([f"{source}#page={page}" for source, page in self.sources])
                self.msg.elements.append(
                    cl.Text(name="Sources", content=sources_text, display="inline")
                )
        
    cb = cl.AsyncLangchainCallbackHandler()
    results = await qa.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous, en 5000 mots minimum. En plus, tu créeras et tu afficheras, à la fin de ta réponse, 3 questions supplémentaires en relation avec le contexte initial, à chaque étape de la conversation. Tu écriras et tu afficheras les 3 questions supplémentaires en relation avec le contexte initial, à la fin de ta réponse, avec un titrage de niveau 1 qui a pour titre \"Questions en relation avec le contexte : \". Lorsque cela est possible, cite les sources du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Question : " + message.content, callbacks=[cb])
    answer = results["answer"]

    await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
    
    #search = vectorstore.similarity_search(message.content,k=50, filter={"categorie": {"$eq": "bibliographie-OPP-DGDIN"}})
    search = await Search(message.content, "videosTC")
    
    sources = [
        cl.Text(name="Sources vidéo", content=search[0], display="inline")
    ]
    await cl.Message(
        content="Vidéos : ",
        elements=sources,
    ).send()
    if search[2]:
        sourcesOffres = [
            cl.Text(name="Sources audio", content=search[2], display="inline")
        ]
        await cl.Message(
            content="Audio : ",
            elements=sourcesOffres,
        ).send()
    verbatim = [
        cl.Text(name="Verbatim", content=search[1], display="side")
    ]
    await cl.Message(
        content="📚 Liste des Verbatim ",
        elements=verbatim,
    ).send()