Instructions to use igzi/lora-qnli with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- PEFT
How to use igzi/lora-qnli with PEFT:
from peft import PeftModel from transformers import AutoModelForCausalLM base_model = AutoModelForCausalLM.from_pretrained("meta-llama/Meta-Llama-3.1-8B") model = PeftModel.from_pretrained(base_model, "igzi/lora-qnli") - Notebooks
- Google Colab
- Kaggle
| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 0.08333333333333333, | |
| "eval_steps": 500, | |
| "global_step": 5000, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.0008333333333333334, | |
| "grad_norm": 10.0625, | |
| "learning_rate": 0.00019800000000000002, | |
| "loss": 1.3332, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.0016666666666666668, | |
| "grad_norm": 21.375, | |
| "learning_rate": 0.000196, | |
| "loss": 0.6659, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.0025, | |
| "grad_norm": 17.75, | |
| "learning_rate": 0.000194, | |
| "loss": 0.8889, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 0.0033333333333333335, | |
| "grad_norm": 0.1005859375, | |
| "learning_rate": 0.000192, | |
| "loss": 0.6473, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 0.004166666666666667, | |
| "grad_norm": 7.4375, | |
| "learning_rate": 0.00019, | |
| "loss": 0.7525, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 0.005, | |
| "grad_norm": 5.84375, | |
| "learning_rate": 0.000188, | |
| "loss": 0.7583, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 0.005833333333333334, | |
| "grad_norm": 0.08935546875, | |
| "learning_rate": 0.00018600000000000002, | |
| "loss": 0.8205, | |
| "step": 350 | |
| }, | |
| { | |
| "epoch": 0.006666666666666667, | |
| "grad_norm": 0.0201416015625, | |
| "learning_rate": 0.00018400000000000003, | |
| "loss": 0.6281, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 0.0075, | |
| "grad_norm": 0.052978515625, | |
| "learning_rate": 0.000182, | |
| "loss": 0.6518, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 0.008333333333333333, | |
| "grad_norm": 0.04248046875, | |
| "learning_rate": 0.00018, | |
| "loss": 0.7355, | |
| "step": 500 | |
| }, | |
| { | |
| "epoch": 0.009166666666666667, | |
| "grad_norm": 2.375, | |
| "learning_rate": 0.00017800000000000002, | |
| "loss": 0.7729, | |
| "step": 550 | |
| }, | |
| { | |
| "epoch": 0.01, | |
| "grad_norm": 0.15625, | |
| "learning_rate": 0.00017600000000000002, | |
| "loss": 0.6156, | |
| "step": 600 | |
| }, | |
| { | |
| "epoch": 0.010833333333333334, | |
| "grad_norm": 1.2265625, | |
| "learning_rate": 0.000174, | |
| "loss": 0.6456, | |
| "step": 650 | |
| }, | |
| { | |
| "epoch": 0.011666666666666667, | |
| "grad_norm": 3.640625, | |
| "learning_rate": 0.000172, | |
| "loss": 0.636, | |
| "step": 700 | |
| }, | |
| { | |
| "epoch": 0.0125, | |
| "grad_norm": 0.59375, | |
| "learning_rate": 0.00017, | |
| "loss": 0.5363, | |
| "step": 750 | |
| }, | |
| { | |
| "epoch": 0.013333333333333334, | |
| "grad_norm": 0.01519775390625, | |
| "learning_rate": 0.000168, | |
| "loss": 0.7835, | |
| "step": 800 | |
| }, | |
| { | |
| "epoch": 0.014166666666666666, | |
| "grad_norm": 0.08056640625, | |
| "learning_rate": 0.000166, | |
| "loss": 0.7667, | |
| "step": 850 | |
| }, | |
| { | |
| "epoch": 0.015, | |
| "grad_norm": 16.125, | |
| "learning_rate": 0.000164, | |
| "loss": 0.3172, | |
| "step": 900 | |
| }, | |
| { | |
| "epoch": 0.015833333333333335, | |
| "grad_norm": 0.037841796875, | |
| "learning_rate": 0.000162, | |
| "loss": 0.3218, | |
| "step": 950 | |
| }, | |
| { | |
| "epoch": 0.016666666666666666, | |
| "grad_norm": 9.375, | |
| "learning_rate": 0.00016, | |
| "loss": 0.9915, | |
| "step": 1000 | |
| }, | |
| { | |
| "epoch": 0.0175, | |
| "grad_norm": 0.01171875, | |
| "learning_rate": 0.00015800000000000002, | |
| "loss": 0.5246, | |
| "step": 1050 | |
| }, | |
| { | |
| "epoch": 0.018333333333333333, | |
| "grad_norm": 3.90625, | |
| "learning_rate": 0.00015600000000000002, | |
| "loss": 0.6309, | |
| "step": 1100 | |
| }, | |
| { | |
| "epoch": 0.019166666666666665, | |
| "grad_norm": 161.0, | |
| "learning_rate": 0.000154, | |
| "loss": 0.4386, | |
| "step": 1150 | |
| }, | |
| { | |
| "epoch": 0.02, | |
| "grad_norm": 0.036376953125, | |
| "learning_rate": 0.000152, | |
| "loss": 0.6855, | |
| "step": 1200 | |
| }, | |
| { | |
| "epoch": 0.020833333333333332, | |
| "grad_norm": 4.28125, | |
| "learning_rate": 0.00015000000000000001, | |
| "loss": 0.7151, | |
| "step": 1250 | |
| }, | |
| { | |
| "epoch": 0.021666666666666667, | |
| "grad_norm": 0.04296875, | |
| "learning_rate": 0.000148, | |
| "loss": 0.6073, | |
| "step": 1300 | |
| }, | |
| { | |
| "epoch": 0.0225, | |
| "grad_norm": 0.0159912109375, | |
| "learning_rate": 0.000146, | |
| "loss": 0.245, | |
| "step": 1350 | |
| }, | |
| { | |
| "epoch": 0.023333333333333334, | |
| "grad_norm": 25.5, | |
| "learning_rate": 0.000144, | |
| "loss": 0.3834, | |
| "step": 1400 | |
| }, | |
| { | |
| "epoch": 0.024166666666666666, | |
| "grad_norm": 0.01055908203125, | |
| "learning_rate": 0.000142, | |
| "loss": 0.4573, | |
| "step": 1450 | |
| }, | |
| { | |
| "epoch": 0.025, | |
| "grad_norm": 0.0162353515625, | |
| "learning_rate": 0.00014, | |
| "loss": 0.5422, | |
| "step": 1500 | |
| }, | |
| { | |
| "epoch": 0.025833333333333333, | |
| "grad_norm": 0.1376953125, | |
| "learning_rate": 0.000138, | |
| "loss": 0.4773, | |
| "step": 1550 | |
| }, | |
| { | |
| "epoch": 0.02666666666666667, | |
| "grad_norm": 0.00799560546875, | |
| "learning_rate": 0.00013600000000000003, | |
| "loss": 0.4755, | |
| "step": 1600 | |
| }, | |
| { | |
| "epoch": 0.0275, | |
| "grad_norm": 0.0771484375, | |
| "learning_rate": 0.000134, | |
| "loss": 0.5472, | |
| "step": 1650 | |
| }, | |
| { | |
| "epoch": 0.028333333333333332, | |
| "grad_norm": 0.060302734375, | |
| "learning_rate": 0.000132, | |
| "loss": 0.3697, | |
| "step": 1700 | |
| }, | |
| { | |
| "epoch": 0.029166666666666667, | |
| "grad_norm": 0.0101318359375, | |
| "learning_rate": 0.00013000000000000002, | |
| "loss": 0.5949, | |
| "step": 1750 | |
| }, | |
| { | |
| "epoch": 0.03, | |
| "grad_norm": 0.44140625, | |
| "learning_rate": 0.00012800000000000002, | |
| "loss": 0.4793, | |
| "step": 1800 | |
| }, | |
| { | |
| "epoch": 0.030833333333333334, | |
| "grad_norm": 0.047607421875, | |
| "learning_rate": 0.000126, | |
| "loss": 0.6067, | |
| "step": 1850 | |
| }, | |
| { | |
| "epoch": 0.03166666666666667, | |
| "grad_norm": 0.006378173828125, | |
| "learning_rate": 0.000124, | |
| "loss": 0.3338, | |
| "step": 1900 | |
| }, | |
| { | |
| "epoch": 0.0325, | |
| "grad_norm": 0.003173828125, | |
| "learning_rate": 0.000122, | |
| "loss": 0.1456, | |
| "step": 1950 | |
| }, | |
| { | |
| "epoch": 0.03333333333333333, | |
| "grad_norm": 0.006622314453125, | |
| "learning_rate": 0.00012, | |
| "loss": 0.6937, | |
| "step": 2000 | |
| }, | |
| { | |
| "epoch": 0.034166666666666665, | |
| "grad_norm": 0.01226806640625, | |
| "learning_rate": 0.000118, | |
| "loss": 0.5305, | |
| "step": 2050 | |
| }, | |
| { | |
| "epoch": 0.035, | |
| "grad_norm": 0.029541015625, | |
| "learning_rate": 0.000116, | |
| "loss": 0.2659, | |
| "step": 2100 | |
| }, | |
| { | |
| "epoch": 0.035833333333333335, | |
| "grad_norm": 0.1181640625, | |
| "learning_rate": 0.00011399999999999999, | |
| "loss": 0.6631, | |
| "step": 2150 | |
| }, | |
| { | |
| "epoch": 0.03666666666666667, | |
| "grad_norm": 4.09375, | |
| "learning_rate": 0.00011200000000000001, | |
| "loss": 0.437, | |
| "step": 2200 | |
| }, | |
| { | |
| "epoch": 0.0375, | |
| "grad_norm": 172.0, | |
| "learning_rate": 0.00011000000000000002, | |
| "loss": 0.4913, | |
| "step": 2250 | |
| }, | |
| { | |
| "epoch": 0.03833333333333333, | |
| "grad_norm": 0.034423828125, | |
| "learning_rate": 0.00010800000000000001, | |
| "loss": 0.6861, | |
| "step": 2300 | |
| }, | |
| { | |
| "epoch": 0.03916666666666667, | |
| "grad_norm": 0.09423828125, | |
| "learning_rate": 0.00010600000000000002, | |
| "loss": 0.3303, | |
| "step": 2350 | |
| }, | |
| { | |
| "epoch": 0.04, | |
| "grad_norm": 3.609375, | |
| "learning_rate": 0.00010400000000000001, | |
| "loss": 0.4152, | |
| "step": 2400 | |
| }, | |
| { | |
| "epoch": 0.04083333333333333, | |
| "grad_norm": 0.06298828125, | |
| "learning_rate": 0.00010200000000000001, | |
| "loss": 0.7138, | |
| "step": 2450 | |
| }, | |
| { | |
| "epoch": 0.041666666666666664, | |
| "grad_norm": 0.048828125, | |
| "learning_rate": 0.0001, | |
| "loss": 0.4201, | |
| "step": 2500 | |
| }, | |
| { | |
| "epoch": 0.0425, | |
| "grad_norm": 0.09375, | |
| "learning_rate": 9.8e-05, | |
| "loss": 0.6195, | |
| "step": 2550 | |
| }, | |
| { | |
| "epoch": 0.043333333333333335, | |
| "grad_norm": 5.53125, | |
| "learning_rate": 9.6e-05, | |
| "loss": 0.3995, | |
| "step": 2600 | |
| }, | |
| { | |
| "epoch": 0.04416666666666667, | |
| "grad_norm": 0.0086669921875, | |
| "learning_rate": 9.4e-05, | |
| "loss": 0.5245, | |
| "step": 2650 | |
| }, | |
| { | |
| "epoch": 0.045, | |
| "grad_norm": 0.0103759765625, | |
| "learning_rate": 9.200000000000001e-05, | |
| "loss": 0.4781, | |
| "step": 2700 | |
| }, | |
| { | |
| "epoch": 0.04583333333333333, | |
| "grad_norm": 0.0250244140625, | |
| "learning_rate": 9e-05, | |
| "loss": 0.4168, | |
| "step": 2750 | |
| }, | |
| { | |
| "epoch": 0.04666666666666667, | |
| "grad_norm": 0.10546875, | |
| "learning_rate": 8.800000000000001e-05, | |
| "loss": 0.2842, | |
| "step": 2800 | |
| }, | |
| { | |
| "epoch": 0.0475, | |
| "grad_norm": 6.625, | |
| "learning_rate": 8.6e-05, | |
| "loss": 0.5283, | |
| "step": 2850 | |
| }, | |
| { | |
| "epoch": 0.04833333333333333, | |
| "grad_norm": 5.84375, | |
| "learning_rate": 8.4e-05, | |
| "loss": 0.4184, | |
| "step": 2900 | |
| }, | |
| { | |
| "epoch": 0.049166666666666664, | |
| "grad_norm": 22.625, | |
| "learning_rate": 8.2e-05, | |
| "loss": 0.6004, | |
| "step": 2950 | |
| }, | |
| { | |
| "epoch": 0.05, | |
| "grad_norm": 8.4375, | |
| "learning_rate": 8e-05, | |
| "loss": 0.7192, | |
| "step": 3000 | |
| }, | |
| { | |
| "epoch": 0.050833333333333335, | |
| "grad_norm": 0.181640625, | |
| "learning_rate": 7.800000000000001e-05, | |
| "loss": 0.2978, | |
| "step": 3050 | |
| }, | |
| { | |
| "epoch": 0.051666666666666666, | |
| "grad_norm": 0.039306640625, | |
| "learning_rate": 7.6e-05, | |
| "loss": 0.3822, | |
| "step": 3100 | |
| }, | |
| { | |
| "epoch": 0.0525, | |
| "grad_norm": 0.0184326171875, | |
| "learning_rate": 7.4e-05, | |
| "loss": 0.4148, | |
| "step": 3150 | |
| }, | |
| { | |
| "epoch": 0.05333333333333334, | |
| "grad_norm": 0.01104736328125, | |
| "learning_rate": 7.2e-05, | |
| "loss": 0.509, | |
| "step": 3200 | |
| }, | |
| { | |
| "epoch": 0.05416666666666667, | |
| "grad_norm": 0.024658203125, | |
| "learning_rate": 7e-05, | |
| "loss": 0.6795, | |
| "step": 3250 | |
| }, | |
| { | |
| "epoch": 0.055, | |
| "grad_norm": 56.0, | |
| "learning_rate": 6.800000000000001e-05, | |
| "loss": 0.3753, | |
| "step": 3300 | |
| }, | |
| { | |
| "epoch": 0.05583333333333333, | |
| "grad_norm": 0.0299072265625, | |
| "learning_rate": 6.6e-05, | |
| "loss": 0.5134, | |
| "step": 3350 | |
| }, | |
| { | |
| "epoch": 0.056666666666666664, | |
| "grad_norm": 0.0057373046875, | |
| "learning_rate": 6.400000000000001e-05, | |
| "loss": 0.5946, | |
| "step": 3400 | |
| }, | |
| { | |
| "epoch": 0.0575, | |
| "grad_norm": 0.017333984375, | |
| "learning_rate": 6.2e-05, | |
| "loss": 0.5714, | |
| "step": 3450 | |
| }, | |
| { | |
| "epoch": 0.058333333333333334, | |
| "grad_norm": 0.0203857421875, | |
| "learning_rate": 6e-05, | |
| "loss": 0.695, | |
| "step": 3500 | |
| }, | |
| { | |
| "epoch": 0.059166666666666666, | |
| "grad_norm": 2.8125, | |
| "learning_rate": 5.8e-05, | |
| "loss": 0.7037, | |
| "step": 3550 | |
| }, | |
| { | |
| "epoch": 0.06, | |
| "grad_norm": 0.02978515625, | |
| "learning_rate": 5.6000000000000006e-05, | |
| "loss": 0.4154, | |
| "step": 3600 | |
| }, | |
| { | |
| "epoch": 0.060833333333333336, | |
| "grad_norm": 0.00958251953125, | |
| "learning_rate": 5.4000000000000005e-05, | |
| "loss": 0.0934, | |
| "step": 3650 | |
| }, | |
| { | |
| "epoch": 0.06166666666666667, | |
| "grad_norm": 0.02490234375, | |
| "learning_rate": 5.2000000000000004e-05, | |
| "loss": 0.3722, | |
| "step": 3700 | |
| }, | |
| { | |
| "epoch": 0.0625, | |
| "grad_norm": 0.007232666015625, | |
| "learning_rate": 5e-05, | |
| "loss": 0.6058, | |
| "step": 3750 | |
| }, | |
| { | |
| "epoch": 0.06333333333333334, | |
| "grad_norm": 0.00970458984375, | |
| "learning_rate": 4.8e-05, | |
| "loss": 0.4446, | |
| "step": 3800 | |
| }, | |
| { | |
| "epoch": 0.06416666666666666, | |
| "grad_norm": 40.5, | |
| "learning_rate": 4.600000000000001e-05, | |
| "loss": 0.718, | |
| "step": 3850 | |
| }, | |
| { | |
| "epoch": 0.065, | |
| "grad_norm": 6.1875, | |
| "learning_rate": 4.4000000000000006e-05, | |
| "loss": 0.2386, | |
| "step": 3900 | |
| }, | |
| { | |
| "epoch": 0.06583333333333333, | |
| "grad_norm": 0.031005859375, | |
| "learning_rate": 4.2e-05, | |
| "loss": 0.4877, | |
| "step": 3950 | |
| }, | |
| { | |
| "epoch": 0.06666666666666667, | |
| "grad_norm": 0.67578125, | |
| "learning_rate": 4e-05, | |
| "loss": 0.496, | |
| "step": 4000 | |
| }, | |
| { | |
| "epoch": 0.0675, | |
| "grad_norm": 0.08544921875, | |
| "learning_rate": 3.8e-05, | |
| "loss": 0.3123, | |
| "step": 4050 | |
| }, | |
| { | |
| "epoch": 0.06833333333333333, | |
| "grad_norm": 0.04345703125, | |
| "learning_rate": 3.6e-05, | |
| "loss": 0.5171, | |
| "step": 4100 | |
| }, | |
| { | |
| "epoch": 0.06916666666666667, | |
| "grad_norm": 0.10888671875, | |
| "learning_rate": 3.4000000000000007e-05, | |
| "loss": 0.2422, | |
| "step": 4150 | |
| }, | |
| { | |
| "epoch": 0.07, | |
| "grad_norm": 58.25, | |
| "learning_rate": 3.2000000000000005e-05, | |
| "loss": 0.5625, | |
| "step": 4200 | |
| }, | |
| { | |
| "epoch": 0.07083333333333333, | |
| "grad_norm": 0.1220703125, | |
| "learning_rate": 3e-05, | |
| "loss": 0.5904, | |
| "step": 4250 | |
| }, | |
| { | |
| "epoch": 0.07166666666666667, | |
| "grad_norm": 0.044677734375, | |
| "learning_rate": 2.8000000000000003e-05, | |
| "loss": 0.3255, | |
| "step": 4300 | |
| }, | |
| { | |
| "epoch": 0.0725, | |
| "grad_norm": 0.005157470703125, | |
| "learning_rate": 2.6000000000000002e-05, | |
| "loss": 0.7628, | |
| "step": 4350 | |
| }, | |
| { | |
| "epoch": 0.07333333333333333, | |
| "grad_norm": 0.011962890625, | |
| "learning_rate": 2.4e-05, | |
| "loss": 0.3116, | |
| "step": 4400 | |
| }, | |
| { | |
| "epoch": 0.07416666666666667, | |
| "grad_norm": 0.11181640625, | |
| "learning_rate": 2.2000000000000003e-05, | |
| "loss": 0.1343, | |
| "step": 4450 | |
| }, | |
| { | |
| "epoch": 0.075, | |
| "grad_norm": 0.00927734375, | |
| "learning_rate": 2e-05, | |
| "loss": 0.4347, | |
| "step": 4500 | |
| }, | |
| { | |
| "epoch": 0.07583333333333334, | |
| "grad_norm": 0.298828125, | |
| "learning_rate": 1.8e-05, | |
| "loss": 0.4496, | |
| "step": 4550 | |
| }, | |
| { | |
| "epoch": 0.07666666666666666, | |
| "grad_norm": 6.25, | |
| "learning_rate": 1.6000000000000003e-05, | |
| "loss": 0.4901, | |
| "step": 4600 | |
| }, | |
| { | |
| "epoch": 0.0775, | |
| "grad_norm": 0.00262451171875, | |
| "learning_rate": 1.4000000000000001e-05, | |
| "loss": 0.4335, | |
| "step": 4650 | |
| }, | |
| { | |
| "epoch": 0.07833333333333334, | |
| "grad_norm": 0.0252685546875, | |
| "learning_rate": 1.2e-05, | |
| "loss": 0.2298, | |
| "step": 4700 | |
| }, | |
| { | |
| "epoch": 0.07916666666666666, | |
| "grad_norm": 0.0262451171875, | |
| "learning_rate": 1e-05, | |
| "loss": 0.3994, | |
| "step": 4750 | |
| }, | |
| { | |
| "epoch": 0.08, | |
| "grad_norm": 0.0245361328125, | |
| "learning_rate": 8.000000000000001e-06, | |
| "loss": 0.4829, | |
| "step": 4800 | |
| }, | |
| { | |
| "epoch": 0.08083333333333333, | |
| "grad_norm": 0.026123046875, | |
| "learning_rate": 6e-06, | |
| "loss": 0.3989, | |
| "step": 4850 | |
| }, | |
| { | |
| "epoch": 0.08166666666666667, | |
| "grad_norm": 0.018310546875, | |
| "learning_rate": 4.000000000000001e-06, | |
| "loss": 0.5079, | |
| "step": 4900 | |
| }, | |
| { | |
| "epoch": 0.0825, | |
| "grad_norm": 0.04443359375, | |
| "learning_rate": 2.0000000000000003e-06, | |
| "loss": 0.4149, | |
| "step": 4950 | |
| }, | |
| { | |
| "epoch": 0.08333333333333333, | |
| "grad_norm": 19.375, | |
| "learning_rate": 0.0, | |
| "loss": 0.6278, | |
| "step": 5000 | |
| } | |
| ], | |
| "logging_steps": 50, | |
| "max_steps": 5000, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 1, | |
| "save_steps": 1000, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 2.392621020155904e+16, | |
| "train_batch_size": 1, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |