kakao brain에서 공개한 kogpt 6b model('kakaobrain/kogpt')을 fp16으로 저장한 모델입니다.

카카오브레인 모델을 fp16으로 로드하는 방법

import torch
from transformers import GPTJForCausalLM

model = GPTJForCausalLM.from_pretrained('kakaobrain/kogpt', cache_dir='./my_dir', revision='KoGPT6B-ryan1.5b', torch_dtype=torch.float16)

fp16 모델 로드 후 문장 생성

Open In Colab

import torch
from transformers import GPTJForCausalLM, AutoTokenizer

model = GPTJForCausalLM.from_pretrained('MrBananaHuman/kogpt_6b_fp16', low_cpu_mem_usage=True))
model.to('cuda')
tokenizer = AutoTokenizer.from_pretrained('MrBananaHuman/kogpt_6b_fp16')

input_text = '이순신은'
input_ids = tokenizer(input_text, return_tensors='pt').input_ids.to('cuda')

output = model.generate(input_ids, max_length=64)
print(tokenizer.decode(output[0]))

>>> 이순신은 우리에게 무엇인가? 1. 머리말 이글은 임진왜란 당시 이순인이 보여준

참고 링크

https://github.com/kakaobrain/kogpt/issues/6?fbclid=IwAR1KpWhuHnevQvEWV18o16k2z9TLgrXkbWTkKqzL-NDXHfDnWcIq7I4SJXM

Downloads last month
12
Hosted inference API
Text Generation
Examples
Examples
This model can be loaded on the Inference API on-demand.