# preconceitos

Os LLMs podem produzir gerações problemáticas que podem ser potencialmente prejudiciais e exibir vieses que podem deteriorar o desempenho do modelo em tarefas posteriores. Alguns deles podem ser mitigados por meio de estratégias de solicitação eficazes, mas podem exigir soluções mais avançadas, como moderação e filtragem.

### Distribuição de Exemplares
Ao realizar o aprendizado de poucos tiros, a distribuição dos exemplares afeta o desempenho do modelo ou influencia o modelo de alguma forma? Podemos fazer um teste simples aqui.

*Prompt:*
```
Q: Acabei de receber a melhor notícia de todas!
A: positivo

Q: Acabamos de receber um aumento no trabalho!
A: positivo

Q: Estou muito orgulhoso do que realizei hoje.
A: positivo

Q: Estou tendo o melhor dia de todos!
A: positivo

Q: Estou realmente ansioso pelo fim de semana.
A: positivo

Q: Acabei de receber o melhor presente de todos!
A: positivo

Q: Estou tão feliz agora.
A: positivo

Q: Sou tão abençoado por ter uma família tão incrível.
A: positivo

Q: O tempo lá fora está tão sombrio.
A: negativo

Q: Acabei de receber uma notícia terrível.
A: negativo

Q: Isso deixou um gosto amargo.
A:
```

*Saída:*
```
Negativo
```

No exemplo acima, parece que a distribuição de exemplares não influencia o modelo. Isso é bom. Vamos tentar outro exemplo com um texto mais difícil de classificar e vamos ver como fica o modelo:

*Prompt:*
```
Q: A comida aqui é deliciosa!
A: positivo

Q: Estou tão cansado deste curso.
A: negativo

Q: Não acredito que fui reprovado no exame.
A: negativo

Q: Tive um ótimo dia hoje!
A: positivo

Q: Eu odeio este trabalho.
A: negativo

Q: O atendimento aqui é péssimo.
A: negativo

Q: Estou tão frustrado com a minha vida.
A: negativo

Q: Eu nunca tenho uma pausa.
A: negativo

Q: Esta refeição está com um gosto horrível.
A: negativo

Q: Não suporto meu chefe.
A: negativo

Q: Eu sinto algo.
A:
```

*Saída:*
```
Negativo
```

Embora a última frase seja um tanto subjetiva, inverti a distribuição e, em vez disso, usei 8 exemplos positivos e 2 exemplos negativos e, em seguida, tentei a mesma frase exata novamente. Adivinha o que a modelo respondeu? Ele respondeu "Positivo". O modelo pode ter muito conhecimento sobre a classificação de sentimentos, portanto, será difícil fazer com que ele exiba viés para esse problema. O conselho aqui é evitar distorcer a distribuição e, em vez disso, fornecer um número mais equilibrado de exemplos para cada rótulo. Para tarefas mais difíceis das quais o modelo não tem muito conhecimento, provavelmente terá mais dificuldades.


### Ordem dos Exemplares
Ao executar o aprendizado de poucos disparos, a ordem afeta o desempenho do modelo ou influencia o modelo de alguma forma?

Você pode tentar os exemplos acima e ver se consegue fazer com que o modelo seja inclinado para um rótulo alterando a ordem. O conselho é ordenar exemplares aleatoriamente. Por exemplo, evite ter todos os exemplos positivos primeiro e depois os exemplos negativos por último. Esse problema é ainda mais amplificado se a distribuição de rótulos for distorcida. Certifique-se sempre de experimentar bastante para reduzir esse tipo de viés.