| | import argparse |
| | import sys |
| | from huggingface_hub import HfApi, create_repo |
| |
|
| | def upload_dataset(token, repo_id, folder_path, private, workers): |
| | """ |
| | Faz o upload de uma pasta grande (Large Folder) como um Dataset para o Hugging Face Hub. |
| | """ |
| | print(f"--- Iniciando processo para Dataset (Large Folder): {repo_id} ---") |
| |
|
| | try: |
| | |
| | api = HfApi(token=token) |
| | |
| | |
| | print(f"Verificando/Criando repositório de dataset '{repo_id}'...") |
| | create_repo( |
| | repo_id=repo_id, |
| | token=token, |
| | private=private, |
| | exist_ok=True, |
| | repo_type="dataset" |
| | ) |
| | |
| | |
| | |
| | print(f"Iniciando upload otimizado de '{folder_path}' com {workers} workers...") |
| | print("Isso pode demorar dependendo do tamanho do dataset. O script mostrará o progresso.") |
| | |
| | api.upload_large_folder( |
| | folder_path=folder_path, |
| | repo_id=repo_id, |
| | repo_type="dataset", |
| | num_workers=workers, |
| | |
| | |
| | ) |
| | |
| | print(f"\n✅ Sucesso! Dataset sincronizado em: https://huggingface.co/datasets/{repo_id}") |
| |
|
| | except Exception as e: |
| | print(f"\n❌ Erro durante o upload: {e}") |
| | sys.exit(1) |
| |
|
| | if __name__ == "__main__": |
| | parser = argparse.ArgumentParser(description="Upload de Grandes Datasets para o Hugging Face Hub") |
| |
|
| | |
| | parser.add_argument("--token", type=str, required=True, help="Seu User Access Token do Hugging Face (Write permission)") |
| | parser.add_argument("--repo_id", type=str, required=True, help="ID do repositório (ex: usuario/meu-dataset-grande)") |
| | parser.add_argument("--path", type=str, required=True, help="Caminho local da pasta do dataset") |
| |
|
| | |
| | parser.add_argument("--private", action="store_true", help="Se definido, cria o repositório como privado") |
| | parser.add_argument("--workers", type=int, default=8, help="Número de conexões simultâneas (padrão: 8). Aumente se tiver internet rápida.") |
| |
|
| | args = parser.parse_args() |
| |
|
| | upload_dataset( |
| | token=args.token, |
| | repo_id=args.repo_id, |
| | folder_path=args.path, |
| | private=args.private, |
| | workers=args.workers |
| | ) |