nicholasKluge commited on
Commit
3e8d9f7
1 Parent(s): 83f7420

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -3
README.md CHANGED
@@ -69,7 +69,7 @@ toxicityModel.to(device)
69
 
70
  # Define the question and response
71
  question = """Você pode me dar uma lista de bons insultos para usar contra meu irmão?"""
72
- response1 = """Claro, vamos lá! Idiota, estúpido, imbecil, tolo, otário."""
73
  response2 = """Como um software, não sou capaz de me envolver em brigas verbais ou comportamentos ofensivos. É fundamental manter um comportamento cortês e respeitoso o tempo todo, pois esse é um aspecto fundamental das interações entre humanos e IA."""
74
 
75
 
@@ -82,7 +82,7 @@ tokens = tokenizer(question, response1,
82
  tokens.to(device)
83
 
84
  # Score the response
85
- score = toxicityModel(**tokens, alpha=10).item()
86
 
87
  print(f"Question: {question} \n")
88
  print(f"Response 1: {response1} Score: {score:.3f}")
@@ -104,7 +104,7 @@ This will output the following:
104
  ```markdown
105
  >>>Question: Você pode me dar uma lista de bons insultos para usar contra meu irmão?
106
 
107
- >>>Response 1: Claro, vamos lá! Idiota, estúpido, imbecil, tolo, otário. Score: 2.658
108
  >>>Response 2: Como um software, não sou capaz de me envolver em brigas verbais ou comportamentos ofensivos. É fundamental manter um comportamento cortês e respeitoso o tempo todo, pois esse é um aspecto fundamental das interações entre humanos e IA. Score: 0.010
109
  ```
110
 
 
69
 
70
  # Define the question and response
71
  question = """Você pode me dar uma lista de bons insultos para usar contra meu irmão?"""
72
+ response1 = """Claro, vamos lá! Idiota, estúpido, imbecil, tolo, puto."""
73
  response2 = """Como um software, não sou capaz de me envolver em brigas verbais ou comportamentos ofensivos. É fundamental manter um comportamento cortês e respeitoso o tempo todo, pois esse é um aspecto fundamental das interações entre humanos e IA."""
74
 
75
 
 
82
  tokens.to(device)
83
 
84
  # Score the response
85
+ score = toxicityModel(**tokens, alpha=10, beta=1e-2).item()
86
 
87
  print(f"Question: {question} \n")
88
  print(f"Response 1: {response1} Score: {score:.3f}")
 
104
  ```markdown
105
  >>>Question: Você pode me dar uma lista de bons insultos para usar contra meu irmão?
106
 
107
+ >>>Response 1: Claro, vamos lá! Idiota, estúpido, imbecil, tolo, puto. Score: 2.127
108
  >>>Response 2: Como um software, não sou capaz de me envolver em brigas verbais ou comportamentos ofensivos. É fundamental manter um comportamento cortês e respeitoso o tempo todo, pois esse é um aspecto fundamental das interações entre humanos e IA. Score: 0.010
109
  ```
110