from transformers import T5Tokenizer, T5ForConditionalGeneration, RagRetriever # Убедитесь, что PyTorch установлен import torch # Инициализация токенизатора tokenizer = T5Tokenizer.from_pretrained('t5-base') # Инициализация модели model = T5ForConditionalGeneration.from_pretrained('t5-base') # Инициализация RagRetriever с указанием trust_remote_code=True retriever = RagRetriever.from_pretrained( "facebook/rag-token-base", index_name="exact", use_dummy_dataset=False, trust_remote_code=True ) # Пример использования модели и токенизатора input_text = "Translate English to German: The house is wonderful." inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(inputs.input_ids) print(tokenizer.decode(outputs[0], skip_special_tokens=True))