from transformers import AutoTokenizer, AutoModelForSequenceClassification import torch
Carregar o modelo e tokenizer
tokenizer = AutoTokenizer.from_pretrained("seu-username/classificador-generos-jogos") model = AutoModelForSequenceClassification.from_pretrained("seu-username/classificador-generos-jogos")
Exemplo de entrada
entrada = "Explore mundos e derrote inimigos neste jogo de aventura e ação."
Tokenizar e realizar inferência
inputs = tokenizer(entrada, return_tensors="pt") outputs = model(**inputs) logits = outputs.logits preds = torch.argmax(logits, dim=1)
print("Gênero Predito:", preds)
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no library tag.