Update app.py
Browse files
app.py
CHANGED
@@ -29,13 +29,17 @@ model.eval()
|
|
29 |
model.to(device)
|
30 |
|
31 |
intro = """
|
32 |
-
O TeenyTinyLlama é um modelo de linguagem compacto baseado na arquitetura Llama 2 ([TinyLlama implementation](https://huggingface.co/TinyLlama)).Esse modelo foi projetado para oferecer recursos eficientes de processamento de linguagem natural e, ao mesmo tempo, consumir poucos recursos.
|
33 |
|
34 |
Esse repositório contém uma versão de [TeenyTinyLlama-460m](https://huggingface.co/nicholasKluge/TeenyTinyLlama-460m) (`TeenyTinyLlama-460m-Chat`) afinada no [Instruct-Aira Dataset version 2.0](https://huggingface.co/datasets/nicholasKluge/instruct-aira-dataset-v2).
|
35 |
|
|
|
|
|
|
|
|
|
36 |
## Limitações
|
37 |
|
38 |
-
|
39 |
|
40 |
**Alucinações:** Esse modelo pode produzir conteúdo que pode ser confundido com a verdade, mas que é, de fato, enganoso ou totalmente falso, ou seja, alucinação.
|
41 |
|
@@ -47,9 +51,7 @@ Desenvolvemos este modelo de conversação através de ajuste fino por instruç
|
|
47 |
|
48 |
**Repetição e verbosidade:** O modelo pode ficar preso em loops de repetição (especialmente se a penalidade de repetição durante as gerações for definida com um valor baixo) ou produzir respostas detalhadas sem relação com o prompt recebido.
|
49 |
|
50 |
-
|
51 |
-
|
52 |
-
TeenyTinyLlama destina-se apenas à investigação academica. Para mais informações, leia nossa [carta modelo](https://huggingface.co/nicholasKluge/TeenyTinyLlama-160m).
|
53 |
"""
|
54 |
|
55 |
search_intro ="""
|
|
|
29 |
model.to(device)
|
30 |
|
31 |
intro = """
|
32 |
+
O TeenyTinyLlama é um modelo de linguagem compacto baseado na arquitetura Llama 2 ([TinyLlama implementation](https://huggingface.co/TinyLlama)). Esse modelo foi projetado para oferecer recursos eficientes de processamento de linguagem natural e, ao mesmo tempo, consumir poucos recursos.
|
33 |
|
34 |
Esse repositório contém uma versão de [TeenyTinyLlama-460m](https://huggingface.co/nicholasKluge/TeenyTinyLlama-460m) (`TeenyTinyLlama-460m-Chat`) afinada no [Instruct-Aira Dataset version 2.0](https://huggingface.co/datasets/nicholasKluge/instruct-aira-dataset-v2).
|
35 |
|
36 |
+
## Uso Intendido
|
37 |
+
|
38 |
+
O principal uso pretendido do TeenyTinyLlama é pesquisar os desafios relacionados ao desenvolvimento de modelos de linguagem para idiomas com poucos recursos. Os pontos de verificação salvos durante o treinamento têm o objetivo de fornecer uma configuração controlada para a realização de experimentos científicos. Você também pode ajustar e adaptar a TeenyTinyLlama para implantação, desde que seu uso esteja de acordo com a licença Apache 2.0. Se decidir usar o TeenyTinyLlama pré-treinado como base para o seu modelo ajustado, faça sua própria avaliação de risco e viés. Para mais informações, leia nossa [carta modelo](https://huggingface.co/nicholasKluge/TeenyTinyLlama-460m).
|
39 |
+
|
40 |
## Limitações
|
41 |
|
42 |
+
Como quase todos os outros modelos de linguagem treinados em grandes conjuntos de dados de texto extraídos da Web, o par TTL apresentou um comportamento que não os torna uma solução pronta para muitos aplicativos do mundo real, especialmente aqueles que exigem geração de texto factual, confiável e não tóxico. Nossos modelos estão todos sujeitos ao seguinte:
|
43 |
|
44 |
**Alucinações:** Esse modelo pode produzir conteúdo que pode ser confundido com a verdade, mas que é, de fato, enganoso ou totalmente falso, ou seja, alucinação.
|
45 |
|
|
|
51 |
|
52 |
**Repetição e verbosidade:** O modelo pode ficar preso em loops de repetição (especialmente se a penalidade de repetição durante as gerações for definida com um valor baixo) ou produzir respostas detalhadas sem relação com o prompt recebido.
|
53 |
|
54 |
+
Portanto, embora nossos modelos sejam lançados com uma licença permissiva, recomendamos que os usuários realizem sua análise de risco nesses modelos se tiverem a intenção de usá-los em aplicações do mundo real e também que haja humanos moderando os resultados desses modelos em aplicações em que eles interajam com um público, garantindo que os usuários estejam sempre cientes de que estão interagindo com um modelo de linguagem.
|
|
|
|
|
55 |
"""
|
56 |
|
57 |
search_intro ="""
|