--- license: apache-2.0 language: - en - es datasets: - NickyNicky/oasst2_orpo_mix_tokenizer_phi_3_v1 --- ![image/png](https://cdn-uploads.huggingface.co/production/uploads/641b435ba5f876fe30c5ae0a/WgAmE3R1j77gr3wLGSRkL.png) ![image/png](https://cdn-uploads.huggingface.co/production/uploads/641b435ba5f876fe30c5ae0a/9C3lSMEWuJaaWnJbJ7Y_g.png) ![image/png](https://cdn-uploads.huggingface.co/production/uploads/641b435ba5f876fe30c5ae0a/mCpSS4JkBpNLZ_SIZte6s.png) ## Metrics ``` TrainOutput( global_step=6732, training_loss=2.959243166963755, metrics={ 'train_runtime': 66894.0816, 'train_samples_per_second': 1.61, 'train_steps_per_second': 0.101, 'total_flos': 0.0, 'train_loss': 2.959243166963755, 'epoch': 2.0056606584239534 } ) ``` ## example output: ```py system You are a helpful AI assistant. Its objective is to fulfill exactly the task that the user is asked of it. Use your learned knowledge user explicame yolo en solo 2 items, dame un ejemplo en python model El YOLO (YOLO: You Only Look Once) es un modelo de aprendizaje automático que se utiliza para detectar objetos en imágenes o videos sin necesidad de procesar toda la imagen o video de manera exhaustiva. El objetivo del YOLO es identificar los objetos con mayor probabilidad de ser presentes en una imagen que se ha precalificado con múltiples configuraciones del mismo. Para implementar el YOLO en Python, primero se debe instalar el módulo `yolo` si aún no lo hay, utilizando el siguiente comando en la línea de comandos: bash: pip install yolo Luego, se puede escribir el código en Python usando el módulo `yolo`: from yolo import YOLO import cv2 # Carga la configuración del YOLO config = YOLO(weights='yolov3s.pt5', classes=40) # Inicializa la cámara web camera = cv2.VideoCapture(0) # Continúa capturando imágenes hasta que se cierre la sesión while True: ret, frame = camera.read() if not ret: break # Preprocesamiento de la imagen img = cv2.resize(frame[0], (300, 300)) rgb_image = np.array(img).astype('float32') / 255.0 # Ejecuta el YOLO sobre la imagen results = config.predict(np.expand_dims(rgb_image, axis=[0, 1])) # Busca las salidas más relevantes class_id = int(results.argmax()) class_name = config.get_class_name(class_id) # Dibuja el cuadro alrededor del objeto encontrado cv2.rectangle(frame, (class_name, class_name + 5), (class_name + 5, class_name + 5), (0, 255, 0), 2) # Actualiza la salida de la captura de fotos cv2.imshow('Frame %d' % int(len(results)), frame) # Si se presiona 'Esc' se detiene la captura if cv2.waitKey(1) & 0xFF == ord('esc'): break # Cierra la cámara web camera.release() cv2.destroyAllWindows() Este código utiliza el módulo `yolo` para cargar una configuración del YOLO, luego capturar imágenes con la cámara web y detectarlos utilizando el YOLO. Los resultados son dibujados en la imagen resultante y se espera que se presione cualquier tecla 'Esc' para detener la captura. CPU times: user 30.7 s, sys: 7.27 ms, total: 30.7 s Wall time: 30.7 s ``` ## colab examples. ``` model_id= "NickyNicky/gemma-1.1-2b-it_oasst_format_chatML_unsloth_V1_orpo_V2" https://colab.research.google.com/drive/16qS7NMSu20LzcwvYCrBGVI7rd9Hr-vpN?usp=sharing ```