nicholasKluge commited on
Commit
7cdb988
·
verified ·
1 Parent(s): e2a3f6a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -5
app.py CHANGED
@@ -29,13 +29,17 @@ model.eval()
29
  model.to(device)
30
 
31
  intro = """
32
- O TeenyTinyLlama é um modelo de linguagem compacto baseado na arquitetura Llama 2 ([TinyLlama implementation](https://huggingface.co/TinyLlama)).Esse modelo foi projetado para oferecer recursos eficientes de processamento de linguagem natural e, ao mesmo tempo, consumir poucos recursos. Esses modelos foram treinados aproveitando as [leis de escalonamento](https://arxiv.org/abs/2203.15556) para determinar o número ideal de tokens por parâmetro e incorporando o [pré-treinamento de preferências](https://arxiv.org/abs/2112.00861).
33
 
34
  Esse repositório contém uma versão de [TeenyTinyLlama-460m](https://huggingface.co/nicholasKluge/TeenyTinyLlama-460m) (`TeenyTinyLlama-460m-Chat`) afinada no [Instruct-Aira Dataset version 2.0](https://huggingface.co/datasets/nicholasKluge/instruct-aira-dataset-v2).
35
 
 
 
 
 
36
  ## Limitações
37
 
38
- Desenvolvemos este modelo de conversação através de ajuste fino por instruções. Esta abordagem tem muitas limitações. Apesar de podermos criar um chatbot capaz de responder a perguntas sobre qualquer assunto, é difícil forçar o modelo a produzir respostas de boa qualidade. E por boa, queremos dizer texto **factual** e **não tóxico**. Isto leva-nos a alguns dos problemas mais comuns quando lidando com modelos generativos utilizados em aplicações de conversação:
39
 
40
  **Alucinações:** Esse modelo pode produzir conteúdo que pode ser confundido com a verdade, mas que é, de fato, enganoso ou totalmente falso, ou seja, alucinação.
41
 
@@ -47,9 +51,7 @@ Desenvolvemos este modelo de conversação através de ajuste fino por instruç
47
 
48
  **Repetição e verbosidade:** O modelo pode ficar preso em loops de repetição (especialmente se a penalidade de repetição durante as gerações for definida com um valor baixo) ou produzir respostas detalhadas sem relação com o prompt recebido.
49
 
50
- ## Uso Intendido
51
-
52
- TeenyTinyLlama destina-se apenas à investigação academica. Para mais informações, leia nossa [carta modelo](https://huggingface.co/nicholasKluge/TeenyTinyLlama-160m).
53
  """
54
 
55
  search_intro ="""
 
29
  model.to(device)
30
 
31
  intro = """
32
+ O TeenyTinyLlama é um modelo de linguagem compacto baseado na arquitetura Llama 2 ([TinyLlama implementation](https://huggingface.co/TinyLlama)). Esse modelo foi projetado para oferecer recursos eficientes de processamento de linguagem natural e, ao mesmo tempo, consumir poucos recursos.
33
 
34
  Esse repositório contém uma versão de [TeenyTinyLlama-460m](https://huggingface.co/nicholasKluge/TeenyTinyLlama-460m) (`TeenyTinyLlama-460m-Chat`) afinada no [Instruct-Aira Dataset version 2.0](https://huggingface.co/datasets/nicholasKluge/instruct-aira-dataset-v2).
35
 
36
+ ## Uso Intendido
37
+
38
+ O principal uso pretendido do TeenyTinyLlama é pesquisar os desafios relacionados ao desenvolvimento de modelos de linguagem para idiomas com poucos recursos. Os pontos de verificação salvos durante o treinamento têm o objetivo de fornecer uma configuração controlada para a realização de experimentos científicos. Você também pode ajustar e adaptar a TeenyTinyLlama para implantação, desde que seu uso esteja de acordo com a licença Apache 2.0. Se decidir usar o TeenyTinyLlama pré-treinado como base para o seu modelo ajustado, faça sua própria avaliação de risco e viés. Para mais informações, leia nossa [carta modelo](https://huggingface.co/nicholasKluge/TeenyTinyLlama-460m).
39
+
40
  ## Limitações
41
 
42
+ Como quase todos os outros modelos de linguagem treinados em grandes conjuntos de dados de texto extraídos da Web, o par TTL apresentou um comportamento que não os torna uma solução pronta para muitos aplicativos do mundo real, especialmente aqueles que exigem geração de texto factual, confiável e não tóxico. Nossos modelos estão todos sujeitos ao seguinte:
43
 
44
  **Alucinações:** Esse modelo pode produzir conteúdo que pode ser confundido com a verdade, mas que é, de fato, enganoso ou totalmente falso, ou seja, alucinação.
45
 
 
51
 
52
  **Repetição e verbosidade:** O modelo pode ficar preso em loops de repetição (especialmente se a penalidade de repetição durante as gerações for definida com um valor baixo) ou produzir respostas detalhadas sem relação com o prompt recebido.
53
 
54
+ Portanto, embora nossos modelos sejam lançados com uma licença permissiva, recomendamos que os usuários realizem sua análise de risco nesses modelos se tiverem a intenção de usá-los em aplicações do mundo real e também que haja humanos moderando os resultados desses modelos em aplicações em que eles interajam com um público, garantindo que os usuários estejam sempre cientes de que estão interagindo com um modelo de linguagem.
 
 
55
  """
56
 
57
  search_intro ="""