You are viewing v4.42.0 version.
A newer version
v4.46.3 is available.
커뮤니티
이 페이지는 커뮤니티에서 개발한 🤗 Transformers 리소스를 재구성한 페이지입니다.
커뮤니티 리소스:
리소스 | 설명 | 만든이 |
---|---|---|
Hugging Face Transformers 용어집 플래시카드 | Transformers 문서 용어집을 기반으로 한 플래시카드 세트로, 지식을 장기적으로 유지하기 위해 특별히 설계된 오픈소스 크로스 플랫폼 앱인 Anki를 사용하여 쉽게 학습/수정할 수 있는 형태로 제작되었습니다. 플래시카드 사용법에 대한 소개 동영상을 참조하세요. | Darigov 리서치 |
커뮤니티 노트북:
노트북 | 설명 | 만든이 | |
---|---|---|---|
가사를 생성하기 위해 사전훈련된 트랜스포머를 미세 조정하기 | GPT-2 모델을 미세 조정하여 좋아하는 아티스트의 스타일로 가사를 생성하는 방법 | Aleksey Korshuk | |
Tensorflow 2로 T5 훈련하기 | Tensorflow 2를 사용하여 T5를 훈련시키는 방법. 이 노트북은 Tensorflow 2로 SQUAD를 사용하여 구현한 질의응답 작업을 보여줍니다. | Muhammad Harris | |
TPU에서 T5 훈련하기 | Transformers와 Nlp를 사용하여 SQUAD로 T5를 훈련하는 방법 | Suraj Patil | |
분류 및 객관식 문제를 위해 T5 미세 조정하기 | 분류 및 객관식 문제에 맞게 텍스트-텍스트 형식을 사용하여 PyTorch Lightning으로 T5를 미세 조정하는 방법 | Suraj Patil | |
새로운 데이터 세트와 언어로 DialoGPT 미세 조정하기 | 자유 대화형 챗봇을 만들기 위해 새로운 데이터 세트로 DialoGPT 모델을 미세 조정하는 방법 | Nathan Cooper | |
Reformer로 긴 시퀀스 모델링하기 | Reformer로 최대 50만 토큰의 시퀀스를 훈련하는 방법 | Patrick von Platen | |
요약을 위해 BART 미세 조정하기 | blurr를 사용하여 fastai로 요약하기 위해 BART를 미세 조정하는 방법 | Wayde Gilliam | |
다른 사람의 트윗으로 사전훈련된 트랜스포머 미세 조정하기 | GPT-2 모델을 미세 조정하여 좋아하는 트위터 계정 스타일로 트윗을 생성하는 방법 | Boris Dayma | |
Weights & Biases로 🤗 Hugging Face 모델 최적화하기 | W&B와 Hugging Face의 통합을 보여주는 전체 튜토리얼 | Boris Dayma | |
Longformer 사전훈련하기 | 기존 사전훈련된 모델의 “긴” 버전을 빌드하는 방법 | Iz Beltagy | |
QA를 위해 Longformer 미세 조정하기 | QA 작업을 위해 Longformer를 미세 조정하는 방법 | Suraj Patil | |
🤗 Nlp로 모델 평가하기 | Nlp 로 TriviaQA에서 Longformer를 평가하는 방법 | Patrick von Platen | |
감정 범위 추출을 위해 T5 미세 조정하기 | 감정 범위 추출을 위해 텍스트-텍스트 형식을 사용하여 PyTorch Lightning으로 T5를 미세 조정하는 방법 | Lorenzo Ampil | |
다중 클래스 분류를 위해 DistilBert 미세 조정하기 | 다중 클래스 분류를 위해 PyTorch를 사용하여 DistilBert를 미세 조정하는 방법 | Abhishek Kumar Mishra | |
다중 레이블 분류를 위해 BERT 미세 조정하기 | 다중 레이블 분류를 위해 PyTorch를 사용하여 BERT를 미세 조정하는 방법 | Abhishek Kumar Mishra | |
요약을 위해 T5 미세 조정하기 | 요약을 위해 PyTorch로 T5를 미세 조정하고 WandB로 실험을 추적하는 방법 | Abhishek Kumar Mishra | |
동적 패딩/버켓팅으로 Transformers 미세 조정 속도 높이기 | 동적 패딩/버켓팅을 사용하여 미세 조정 속도를 2배로 높이는 방법 | Michael Benesty | |
마스킹된 언어 모델링을 위해 Reformer 사전훈련하기 | 양방향 셀프 어텐션 레이어를 이용해서 Reformer 모델을 훈련하는 방법 | Patrick von Platen | |
Sci-BERT 확장 및 미세 조정하기 | CORD 데이터 세트로 AllenAI에서 사전훈련된 SciBERT 모델의 어휘를 늘리고 파이프라인을 구축하는 방법 | Tanmay Thakur | |
요약을 위해 Trainer API로 BlenderBotSmall 미세 조정하기 | 요약을 위해 Trainer API를 사용하여 사용자 지정 데이터 세트로 BlenderBotSmall 미세 조정하기 | Tanmay Thakur | |
통합 기울기(Integrated Gradient)를 이용하여 Electra 미세 조정하고 해석하기 | 감정 분석을 위해 Electra를 미세 조정하고 Captum 통합 기울기로 예측을 해석하는 방법 | Eliza Szczechla | |
Trainer 클래스로 비영어권 GPT-2 모델 미세 조정하기 | Trainer 클래스로 비영어권 GPT-2 모델을 미세 조정하는 방법 | Philipp Schmid | |
다중 라벨 분류 작업을 위해 DistilBERT 모델 미세 조정하기 | 다중 라벨 분류 작업을 위해 DistilBERT 모델을 미세 조정하는 방법 | Dhaval Taunk | |
문장쌍 분류를 위해 ALBERT 미세 조정하기 | 문장쌍 분류 작업을 위해 ALBERT 모델 또는 다른 BERT 기반 모델을 미세 조정하는 방법 | Nadir El Manouzi | |
감정 분석을 위해 Roberta 미세 조정하기 | 감정 분석을 위해 Roberta 모델을 미세 조정하는 방법 | Dhaval Taunk | |
질문 생성 모델 평가하기 | seq2seq 트랜스포머 모델이 생성한 질문과 이에 대한 답변이 얼마나 정확한가요? | Pascal Zoleko | |
DistilBERT와 Tensorflow로 텍스트 분류하기 | 텍스트 분류를 위해 TensorFlow로 DistilBERT를 미세 조정하는 방법 | Peter Bayerle | |
CNN/Dailail 요약을 위해 인코더-디코더 모델에 BERT 활용하기 | CNN/Dailail 요약을 위해 google-bert/bert-base-uncased 체크포인트를 활용하여 EncoderDecoderModel을 워밍업하는 방법 | Patrick von Platen | |
BBC XSum 요약을 위해 인코더-디코더 모델에 RoBERTa 활용하기 | BBC/XSum 요약을 위해 FacebookAI/roberta-base 체크포인트를 활용하여 공유 EncoderDecoderModel을 워밍업하는 방법 | Patrick von Platen | |
순차적 질문 답변(SQA)을 위해 TAPAS 미세 조정하기 | tapas-base 체크포인트를 활용하여 순차적 질문 답변(SQA) 데이터 세트로 TapasForQuestionAnswering을 미세 조정하는 방법 | Niels Rogge | |
표 사실 검사(TabFact)로 TAPAS 평가하기 | 🤗 Datasets와 🤗 Transformer 라이브러리를 함께 사용하여 tapas-base-finetuned-tabfact 체크포인트로 미세 조정된 TapasForSequenceClassification을 평가하는 방법 | Niels Rogge | |
번역을 위해 mBART 미세 조정하기 | 힌디어에서 영어로 번역하기 위해 Seq2SeqTrainer를 사용하여 mBART를 미세 조정하는 방법 | Vasudev Gupta | |
FUNSD(양식 이해 데이터 세트)로 LayoutLM 미세 조정하기 | 스캔한 문서에서 정보 추출을 위해 FUNSD 데이터 세트로 LayoutLMForTokenClassification을 미세 조정하는 방법 | Niels Rogge | |
DistilGPT2 미세 조정하고 및 텍스트 생성하기 | DistilGPT2를 미세 조정하고 텍스트를 생성하는 방법 | Aakash Tripathi | |
최대 8K 토큰에서 LED 미세 조정하기 | 긴 범위를 요약하기 위해 PubMed로 LED를 미세 조정하는 방법 | Patrick von Platen | |
Arxiv로 LED 평가하기 | 긴 범위 요약에 대해 LED를 효과적으로 평가하는 방법 | Patrick von Platen | |
RVL-CDIP(문서 이미지 분류 데이터 세트)로 LayoutLM 미세 조정하기) | 스캔 문서 분류를 위해 RVL-CDIP 데이터 세트로 LayoutLMForSequenceClassification을 미세 조정하는 방법 | Niels Rogge | |
GPT2 조정을 통한 Wav2Vec2 CTC 디코딩 | 언어 모델 조정을 통해 CTC 시퀀스를 디코딩하는 방법 | Eric Lam | |
Trainer 클래스로 두 개 언어로 요약하기 위해 BART 미세 조정하기 | Trainer 클래스로 두 개 언어로 요약하기 위해 BART 미세 조정하는 방법 | Eliza Szczechla | |
Trivia QA로 Big Bird 평가하기 | Trivia QA로 긴 문서 질문에 대한 답변에 대해 BigBird를 평가하는 방법 | Patrick von Platen | |
Wav2Vec2를 사용하여 동영상 캡션 만들기 | Wav2Vec으로 오디오를 텍스트로 변환하여 모든 동영상에서 YouTube 캡션 만드는 방법 | Niklas Muennighoff | |
PyTorch Lightning을 사용하여 CIFAR-10으로 비전 트랜스포머 미세 조정하기 | HuggingFace Transformers, Datasets, PyTorch Lightning을 사용하여 CIFAR-10으로 비전 트랜스포머(ViT)를 미세 조정하는 방법 | Niels Rogge | |
🤗 Trainer를 사용하여 CIFAR-10에서 비전 트랜스포머 미세 조정하기 | Datasets, 🤗 Trainer를 사용하여 CIFAR-10에서 비전 트랜스포머(ViT)를 미세 조정하는 방법 | Niels Rogge | |
개체 입력 데이터 세트인 Open Entity로 LUKE 평가하기 | Open Entity 데이터 세트로 LukeForEntityClassification을 평가하는 방법 | Ikuya Yamada | |
관계 추출 데이터 세트인 TACRED로 LUKE 평가하기 | TACRED 데이터 세트로 LukeForEntityPairClassification을 평가하는 방법 | Ikuya Yamada | |
중요 NER 벤치마크인 CoNLL-2003으로 LUKE 평가하기 | CoNLL-2003 데이터 세트로 LukeForEntitySpanClassification를 평가하는 방법 | Ikuya Yamada | |
PubMed 데이터 세트로 BigBird-Pegasus 평가하기 | PubMed 데이터 세트로 BigBirdPegasusForConditionalGeneration를 평가하는 방법 | Vasudev Gupta | |
Wav2Vec2를 사용해서 음성 감정 분류하기 | 감정 분류를 위해 사전훈련된 Wav2Vec2 모델을 MEGA 데이터 세트에 활용하는 방법 | Mehrdad Farahani | |
DETR로 이미지에서 객체 탐지하기 | 훈련된 DetrForObjectDetection 모델을 사용하여 이미지에서 객체를 탐지하고 어텐션을 시각화하는 방법 | Niels Rogge | |
사용자 지정 객체 탐지 데이터 세트로 DETR 미세 조정하기 | 사용자 지정 객체 탐지 데이터 세트로 DetrForObjectDetection을 미세 조정하는 방법 | Niels Rogge | |
개체명 인식을 위해 T5 미세 조정하기 | 개체명 인식 작업을 위해 T5를 미세 조정하는 방법 | Ogundepo Odunayo |