Spaces:
Sleeping
Sleeping
updating examples
Browse files
app.py
CHANGED
@@ -8,6 +8,8 @@ description = """
|
|
8 |
🔎 [Tamil LLaMA 7B Instruct v0.1](https://huggingface.co/abhinand/tamil-llama-7b-instruct-v0.1) [GGUF format model](https://huggingface.co/abhinand/tamil-llama-7b-instruct-v0.1-gguf). Running the Q5_KM Quantized version.
|
9 |
|
10 |
🔨 Running on free CPU hardware. Suggest duplicating this space to run without a queue.
|
|
|
|
|
11 |
"""
|
12 |
|
13 |
model_path = "models"
|
@@ -53,7 +55,7 @@ chatbot = gr.Chatbot(bubble_full_width=False)
|
|
53 |
additional_inputs=[
|
54 |
gr.Slider(
|
55 |
label="temperature",
|
56 |
-
value=0.
|
57 |
minimum=0.0,
|
58 |
maximum=2.0,
|
59 |
step=0.05,
|
@@ -87,10 +89,11 @@ iface = gr.ChatInterface(
|
|
87 |
chatbot=chatbot,
|
88 |
additional_inputs=additional_inputs,
|
89 |
examples=[
|
90 |
-
["
|
91 |
-
["நான் பெரிய பணக்காரன் இல்லை, லேட்டஸ்ட்
|
92 |
-
["
|
93 |
["சிவப்பும் மஞ்சளும் கலந்தால் என்ன நிறமாக இருக்கும்?"],
|
|
|
94 |
]
|
95 |
)
|
96 |
|
|
|
8 |
🔎 [Tamil LLaMA 7B Instruct v0.1](https://huggingface.co/abhinand/tamil-llama-7b-instruct-v0.1) [GGUF format model](https://huggingface.co/abhinand/tamil-llama-7b-instruct-v0.1-gguf). Running the Q5_KM Quantized version.
|
9 |
|
10 |
🔨 Running on free CPU hardware. Suggest duplicating this space to run without a queue.
|
11 |
+
|
12 |
+
> **Note:** The inference is quite slow as it is running on CPU.
|
13 |
"""
|
14 |
|
15 |
model_path = "models"
|
|
|
55 |
additional_inputs=[
|
56 |
gr.Slider(
|
57 |
label="temperature",
|
58 |
+
value=0.2,
|
59 |
minimum=0.0,
|
60 |
maximum=2.0,
|
61 |
step=0.05,
|
|
|
89 |
chatbot=chatbot,
|
90 |
additional_inputs=additional_inputs,
|
91 |
examples=[
|
92 |
+
["வணக்கம், நீங்கள் யார்?"],
|
93 |
+
["நான் பெரிய பணக்காரன் இல்லை, லேட்டஸ்ட் iPhone-இல் நிறைய பணம் செலவழிக்க வேண்டுமா?"],
|
94 |
+
["பட்டியலை வரிசைப்படுத்த பைதான் செயல்பாட்டை எழுதவும்."],
|
95 |
["சிவப்பும் மஞ்சளும் கலந்தால் என்ன நிறமாக இருக்கும்?"],
|
96 |
+
["விரைவாக தூங்குவது எப்படி?"]
|
97 |
]
|
98 |
)
|
99 |
|