import gradio as gr from transformers import AutoTokenizer, AutoModelForCausalLM from huggingface_hub import login import os from dotenv import load_dotenv # .env dosyasını yükle load_dotenv() # Çevresel değişkenden Huggingface Token'ı al token = os.getenv("HUGGINGFACE_TOKEN") # Token ile giriş yap login(token) model_name = "meta-llama/Meta-Llama-3-8B" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) # Sonuçları kaydedecek fonksiyon def save_to_file(content, filename="output.txt"): with open(filename, 'w', encoding='utf-8') as f: f.write(content) return f"Sonuçlar {filename} dosyasına kaydedildi." # Metin oluşturma fonksiyonu def generate_and_save(prompt): inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(inputs["input_ids"], max_length=150, min_length=40, length_penalty=2.0, num_beams=4, early_stopping=True) summary = tokenizer.decode(outputs[0], skip_special_tokens=True) save_to_file(summary) # Sonucu dosyaya kaydetme return summary # Gradio arayüzünü oluşturma iface = gr.Interface(fn=generate_and_save, inputs="text", outputs="text") iface.launch()