# 🧠 Projeto: Aplicação Local para Rodar LLMs voltados para Agentes (CPU-Friendly) ## šŸŽÆ Objetivo Desenvolver uma aplicação **simples, leve e de fĆ”cil entendimento**, capaz de rodar **modelos LLM localmente em CPU**, utilizando tecnologias como [`llama.cpp`](https://github.com/ggml-org/llama.cpp) e formatos como `GGUF`. A aplicação serĆ” usada com **modelos ajustados para criação de agentes**, ou seja, com suporte a: - DiĆ”logo multi-turno - Seguir instruƧƵes - RaciocĆ­nio estruturado - Suporte futuro ao uso de ferramentas (LangChain tools) O foco inicial Ć© **testar o modelo localmente**, sem deploy ainda. --- ## āœ… Requisitos - Rodar **100% em CPU**, compatĆ­vel com Hugging Face Spaces (Free Tier) - Usar **modelos em formato GGUF**, leves, voltados para agentes - Usar **llama-cpp-python** (binding oficial Python para llama.cpp) - Código em Python, com estrutura clara, comentado e expansĆ­vel - Interface simples via terminal ou função Python --- ## 🧠 Modelos recomendados (GGUF) Modelos ajustados para **conversação com agentes**: | Modelo | Tamanho | Destaques | | --------------------- | ------- | ----------------------------- | | OpenHermes 2.5 GGUF | 7B | Muito bom com LangChain | | Nous Hermes 2 Mistral | 7B | Fortemente instruĆ­do | | TinyLlama Chat GGUF | 1.1B | Super leve, roda fĆ”cil em CPU | | Zephyr 7B Beta GGUF | 7B | Instrução + estilo de chat | | OpenChat 3.5 GGUF | 7B | Excelente para agentes | --- ## šŸ”§ Tecnologias a utilizar - [llama.cpp](https://github.com/ggml-org/llama.cpp) - [llama-cpp-python](https://github.com/abetlen/llama-cpp-python) - Python 3.10+ - Modelo `.gguf` (baixado localmente) --- ## šŸ›‘ Fora do escopo neste momento - Deploy na nuvem (ex: Hugging Face Spaces) - API REST / Chat API - Integração com LangChain Essas partes virĆ£o nas próximas fases do projeto. --- ## āœ… Output esperado nesta fase - Aplicação local funcional - Capaz de carregar e rodar um modelo `.gguf` leve - Permitir conversas bĆ”sicas (ex: terminal) - Código simples, modular e pronto para expansĆ£o --- ## šŸ“¦ Próximo passo sugerido Criar: - `main.py` com execução local do modelo - `requirements.txt` - Documentação explicando como rodar ---