NickyNicky's picture
Update README.md
2217b5f verified
metadata
license: apache-2.0
language:
  - en
  - es
datasets:
  - NickyNicky/oasst2_orpo_mix_tokenizer_phi_3_v1

image/png

image/png

image/png

Metrics

TrainOutput(
  global_step=6732,
    training_loss=2.959243166963755,
    metrics={
      'train_runtime': 66894.0816,
      'train_samples_per_second': 1.61,
      'train_steps_per_second': 0.101,
      'total_flos': 0.0,
      'train_loss': 2.959243166963755,
      'epoch': 2.0056606584239534
    }
)

example output:

<bos><start_of_turn>system
You are a helpful AI assistant.
Its objective is to fulfill exactly the task that the user is asked of it.
Use your learned knowledge<end_of_turn>
<start_of_turn>user
explicame yolo en solo 2 items, dame un ejemplo en python<end_of_turn>
<start_of_turn>model
El YOLO (YOLO: You Only Look Once) es un modelo de aprendizaje autom谩tico que se utiliza para detectar objetos en im谩genes o videos sin necesidad de procesar toda la imagen o video de manera exhaustiva. El objetivo del YOLO es identificar los objetos con mayor probabilidad de ser presentes en una imagen que se ha precalificado con m煤ltiples configuraciones del mismo.

Para implementar el YOLO en Python, primero se debe instalar el m贸dulo `yolo` si a煤n no lo hay, utilizando el siguiente comando en la l铆nea de comandos:

bash:
pip install yolo


Luego, se puede escribir el c贸digo en Python usando el m贸dulo `yolo`:


from yolo import YOLO
import cv2

# Carga la configuraci贸n del YOLO
config = YOLO(weights='yolov3s.pt5', classes=40)

# Inicializa la c谩mara web
camera = cv2.VideoCapture(0)

# Contin煤a capturando im谩genes hasta que se cierre la sesi贸n
while True:
    ret, frame = camera.read()
    if not ret:
        break

    # Preprocesamiento de la imagen
    img = cv2.resize(frame[0], (300, 300))
    rgb_image = np.array(img).astype('float32') / 255.0

    # Ejecuta el YOLO sobre la imagen
    results = config.predict(np.expand_dims(rgb_image, axis=[0, 1]))

    # Busca las salidas m谩s relevantes
    class_id = int(results.argmax())
    class_name = config.get_class_name(class_id)

    # Dibuja el cuadro alrededor del objeto encontrado
    cv2.rectangle(frame, (class_name, class_name + 5), (class_name + 5, class_name + 5), (0, 255, 0), 2)

    # Actualiza la salida de la captura de fotos
    cv2.imshow('Frame %d' % int(len(results)), frame)

    # Si se presiona 'Esc' se detiene la captura
    if cv2.waitKey(1) & 0xFF == ord('esc'):
        break

# Cierra la c谩mara web
camera.release()
cv2.destroyAllWindows()


Este c贸digo utiliza el m贸dulo `yolo` para cargar una configuraci贸n del YOLO, luego capturar im谩genes con la c谩mara web y detectarlos utilizando el YOLO. Los resultados son dibujados en la imagen resultante y se espera que se presione cualquier tecla 'Esc' para detener la captura.<end_of_turn>
CPU times: user 30.7 s, sys: 7.27 ms, total: 30.7 s
Wall time: 30.7 s

colab examples.

model_id= "NickyNicky/gemma-1.1-2b-it_oasst_format_chatML_unsloth_V1_orpo_V2"

https://colab.research.google.com/drive/16qS7NMSu20LzcwvYCrBGVI7rd9Hr-vpN?usp=sharing