# -*- coding: utf-8 -*- """Untitled6.ipynb Automatically generated by Colab. Original file is located at https://colab.research.google.com/drive/1b3-0ogrDvdw3WtHwOta0Ihlo46MAwDsk """ !pip install requests transformers import requests import zipfile import os # URL du fichier zip sur Hugging Face zip_url = 'https://huggingface.co/datasets/Dabococo/wheeloh_dataset/images' # Nom local du fichier zip zip_file = 'images.zip' # Télécharger le fichier zip response = requests.get(zip_url) content_type = response.headers.get('Content-Type') # Vérifier que le fichier est un fichier zip if 'zip' not in content_type: raise ValueError("Le fichier téléchargé n'est pas un fichier zip. Content-Type: {}".format(content_type)) # Sauvegarder le contenu téléchargé dans un fichier with open(zip_file, 'wb') as f: f.write(response.content) # Vérifier la taille du fichier file_size = os.path.getsize(zip_file) print("Taille du fichier téléchargé:", file_size, "octets") # Afficher le début du contenu du fichier pour vérifier with open(zip_file, 'rb') as f: print(f.read(100)) # Lire les 100 premiers octets # Créer un répertoire pour extraire les fichiers extract_dir = 'extracted_files' os.makedirs(extract_dir, exist_ok=True) # Extraire le contenu du fichier zip try: with zipfile.ZipFile(zip_file, 'r') as zip_ref: zip_ref.extractall(extract_dir) # Afficher les fichiers extraits extracted_files = os.listdir(extract_dir) print("Fichiers extraits :", extracted_files) except zipfile.BadZipFile: print("Erreur : le fichier téléchargé n'est pas un fichier zip valide.") from torchvision.datasets import ImageFolder import os from torchvision.datasets.folder import has_file_allowed_extension, IMG_EXTENSIONS, default_loader class CustomImageFolder(ImageFolder): def __init__(self, root, transform=None, loader=default_loader, is_valid_file=None): super().__init__(root, transform=transform, loader=loader, is_valid_file=is_valid_file) def find_classes(self, directory): # Ignorer les répertoires cachés classes = [d.name for d in os.scandir(directory) if d.is_dir() and not d.name.startswith('.')] classes.sort() class_to_idx = {cls_name: i for i, cls_name in enumerate(classes)} return classes, class_to_idx def make_dataset(self, directory, class_to_idx, extensions=None, is_valid_file=None, allow_empty=False): instances = [] directory = os.path.expanduser(directory) both_none = extensions is None and is_valid_file is None if both_none: raise ValueError("Both extensions and is_valid_file cannot be None") if extensions is not None: def is_valid_file(x): return has_file_allowed_extension(x, extensions) for target_class in sorted(class_to_idx.keys()): class_index = class_to_idx[target_class] target_dir = os.path.join(directory, target_class) if not os.path.isdir(target_dir): continue for root, _, fnames in sorted(os.walk(target_dir)): for fname in sorted(fnames): path = os.path.join(root, fname) if is_valid_file(path) and not fname.startswith('.'): item = path, class_index instances.append(item) if not allow_empty and len(instances) == 0: raise RuntimeError(f"Found 0 files in subfolders of: {directory}. Supported extensions are: {','.join(extensions)}") return instances import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataLoader from torchvision import transforms, models from tqdm import tqdm # Configuration batch_size = 32 num_epochs = 10 learning_rate = 0.001 num_classes = 2 # Préparer les transformations transform = transforms.Compose([ transforms.Resize((224, 224)), transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) ]) # Charger les données d'entraînement avec CustomImageFolder train_dataset = CustomImageFolder(root='/content/dataset/train', transform=transform) train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True, num_workers=4, pin_memory=True) # Définir le modèle model = models.resnet18(pretrained=True) model.fc = nn.Linear(model.fc.in_features, num_classes) model = model.to('cuda') # Définir la perte et l'optimiseur criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=learning_rate) # Utiliser le scaler pour l'AMP scaler = torch.cuda.amp.GradScaler() # Entraînement for epoch in range(num_epochs): model.train() running_loss = 0.0 for inputs, labels in tqdm(train_loader): inputs, labels = inputs.to('cuda'), labels.to('cuda') # Zero the parameter gradients optimizer.zero_grad() # Forward pass with autocast with torch.cuda.amp.autocast(): outputs = model(inputs) loss = criterion(outputs, labels) # Backward pass with scaler scaler.scale(loss).backward() scaler.step(optimizer) scaler.update() running_loss += loss.item() * inputs.size(0) epoch_loss = running_loss / len(train_loader.dataset) print(f'Epoch [{epoch + 1}/{num_epochs}], Loss: {epoch_loss:.4f}') print('Finished Training') # Sauvegarder le modèle torch.save(model.state_dict(), 'model.pth') #Ici pour charger le modèle import torch import torch.nn as nn from torchvision import models, transforms from PIL import Image # Définir le modèle num_classes = 2 # Canard et Perroquet model = models.resnet18(pretrained=False) model.fc = nn.Linear(model.fc.in_features, num_classes) model = model.to('cuda') # Charger les poids du modèle enregistré model.load_state_dict(torch.load('model.pth')) model.eval() # Mettre le modèle en mode évaluation # Définir les transformations transform = transforms.Compose([ transforms.Resize((224, 224)), transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) ]) # Charger et transformer une nouvelle image def load_image(image_path): image = Image.open(image_path).convert('RGB') image = transform(image) image = image.unsqueeze(0) # Ajouter une dimension pour le batch return image # Exemple de chargement d'une image image_path = '/content/lg.jpeg' image = load_image(image_path).to('cuda') # Passer l'image dans le modèle pour obtenir des prédictions with torch.no_grad(): # Désactiver la grad pour l'inférence outputs = model(image) _, predicted = torch.max(outputs, 1) classes = ['Alpine', 'Bugatti'] predicted_class = classes[predicted.item()] print(f'Predicted class: {predicted_class}') !pip install transformers huggingface_hub !huggingface-cli login from huggingface_hub import HfApi, HfFolder, Repository # Variables model_path = "Wheeloh-model_1.pth" repo_name = "Wheeloh-model_1" # Remplacez par le nom de votre dépôt commit_message = "Initial commit" # Se connecter à l'API api = HfApi() # Obtenir le token d'authentification token = HfFolder.get_token() # Cloner le dépôt Hugging Face repo_url = api.create_repo(repo_name, token=token, exist_ok=True) repo = Repository(local_dir=repo_name, clone_from=repo_url) # Copier le fichier du modèle dans le dépôt local import shutil shutil.copy(model_path, repo_name) # Pousser le modèle sur le hub repo.push_to_hub(commit_message=commit_message)