RASMUS commited on
Commit
9b8b21e
1 Parent(s): c794112

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +20 -6
README.md CHANGED
@@ -35,12 +35,26 @@ from unsloth import FastLlamaModel
35
  max_seq_length = 2048
36
  dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+
37
  load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
38
- model, tokenizer = FastLlamaModel.from_pretrained(
39
- model_name = "Finnish-NLP/llama-7b-finnish-instruct-v0.1"
40
- max_seq_length = max_seq_length,
41
- dtype = dtype,
42
- load_in_4bit = load_in_4bit
43
- )
 
 
 
 
 
 
 
 
 
 
 
 
 
 
44
 
45
  alpaca_prompt = """<|alku|> Olet tekoälyavustaja. Seuraavaksi saat kysymyksen tai tehtävän. Kirjoita vastaus parhaasi mukaan siten että se täyttää kysymyksen tai tehtävän vaatimukset.
46
  <|ihminen|> Kysymys/Tehtävä:
 
35
  max_seq_length = 2048
36
  dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+
37
  load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
38
+
39
+
40
+ use_unsloth = True
41
+ # use_transformers = True
42
+
43
+ # LOADING MODEL USIINIG TRANSFORMERS assumes at least 16GB of memory. Tested with this configuration
44
+ # If you have less memory use load_in_4bit or load_in_8_bit as needed
45
+ if use_transformers:
46
+ major_version, minor_version = torch.cuda.get_device_capability()
47
+ model = AutoModelForCausalLM.from_pretrained("Finnish-NLP/llama-7b-finnish-instruct-v0.1", device_map='cuda:0', torch_dtype = torch.bfloat16 if major_version >=8 else torch.float16)
48
+ tokenizer = AutoTokenizer.from_pretrained("Finnish-NLP/llama-7b-finnish-instruct-v0.1")
49
+
50
+ # USING UNSLOTH, tested with load_in_4bit
51
+ if use_unsloth:
52
+ model, tokenizer = FastLlamaModel.from_pretrained(
53
+ model_name = "Finnish-NLP/llama-7b-finnish-instruct-v0.1"
54
+ max_seq_length = max_seq_length,
55
+ dtype = dtype,
56
+ load_in_4bit = load_in_4bit
57
+ )
58
 
59
  alpaca_prompt = """<|alku|> Olet tekoälyavustaja. Seuraavaksi saat kysymyksen tai tehtävän. Kirjoita vastaus parhaasi mukaan siten että se täyttää kysymyksen tai tehtävän vaatimukset.
60
  <|ihminen|> Kysymys/Tehtävä: