--- license: apache-2.0 tags: - finetuned - mlx pipeline_tag: text-generation inference: true widget: - messages: - role: user content: What is your favorite condiment? --- # versae/filiberto-7B-instruct-exp1 This model was converted to MLX format from [`mistralai/Mistral-7B-Instruct-v0.2`](https://hf.co/mistralai/Mistral-7B-Instruct-v0.2) using mlx-lm version **0.9.0**. Refer to the [original model card](https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2) for more details on the model. ## Use with mlx ```bash pip install mlx-lm ``` ```python from mlx_lm import load, generate prompt = """[INST] Dado el siguiente texto OCR, corrige los fallos que encuentres y devuelve el texto corregido: Otra vez, Don Iuan, me dad, y otras mil vezes los braços. Otra, y otras mil sean lazos de nuestra antigua amistad. Como venis? Yo me siento tan alegre, tan vfano, tan venturoso, tan vano, que no podrà el pensamiento encareceros jamàs las venturas que posseo, porque el pensamiento creo [/INST]""" model, tokenizer = load("versae/filiberto-7B-instruct-exp1") response = generate(model, tokenizer, prompt=prompt, verbose=True) ```