--- language: - ko metrics: - rouge library_name: transformers tags: - bart --- # kobart-summary - 이 모델은 [kobart모델](https://huggingface.co/hyunwoongko/kobart)을 [도서자료 요약](https://www.aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=data&dataSetSn=93), [문서요약](https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=realm&dataSetSn=97), 수집한 뉴스 데이터로 fine-tuning한 모델입니다. - 지문에 맞는 제목을 뉴스기사제목처럼 생성합니다. ## How to use ```python from transformers import PreTrainedTokenizerFast, BartForConditionalGeneration # Load Model and Tokenizer tokenizer = PreTrainedTokenizerFast.from_pretrained("EbanLee/kobart-title") model = BartForConditionalGeneration.from_pretrained("EbanLee/kobart-title") # Encoding input_text = "2017 년 2 월에 파산한 한진해운 사태로 인한 실직자 규모가 전국적으로 1 만 명에 이르렀다고 한다.2 년 여가 흐른 지금 이들 실직자들이 어떻게 지내는지, 새로운 직장은 구했는지 궁금하다.해운항만업계 실직자들을 위한 재취업 프로그램이 부산에서 추진된다는 반가운 소식이 들린다.해운항만업계 실직자를 대상으로 재취업을 돕는 정책이 시행되는 것은 이번이 처음이라니 사실 너무 늦었다.명색이 해양수도 부산인데 지역 사회의 관심이 부족했다.그동안에도 노동부, 산업부, 행안부 등에서 해운항만업계를 대상으로 다양한 일자리 창출 사업이 있기는 했다.하지만 대부분이 청년 위주의 정책이어서 실직자들이 혜택을 보기는 어려웠다.해운항만업계에서 중장기 이상의 오랜 경력자는 일자리 사업에서 우대받기는커녕 대상자에서 제외되는 신세였다니 이래서는 안 될 일이다.이들에 대한 정부의 인건비 지원이 없어 업체들의 채용 의욕은 낮았고, 전문적인 교육과도 연계되지 않아 현장의 단기적 일자리만 양산해 왔다고 한다.해운항만업계 재취업 프로그램은 공공근로 사업이 아니라는 점을 명심해야 한다.예산 낭비만 하는 재취업 프로그램은 할 이유가 없다.향후 전환될 직무에 따라 맞춤형 재교육을 한 뒤 재취업을 지원하는 사업이 되어야 한다.그래야 1 인당 2000 만 원에 달할 것이라는 취업지원금과 500 만 원의 재교육비가 아깝지 않다.해운항만 실직자들은 경험이 풍부한 우수 인력이다.취업을 준비하는 베테랑들이 모여서 정보와 기술을 교류하고 공유할 지원 거점 플랫폼이 마련되면 효과는 배가될 것이다.관건은 예산이다.한진해운이 부도난 2017 년과 2018 년에도 해운항만 분야 퇴직자에 대한 지원 사업이 추진되었지만 매번 국회 문턱을 넘지 못했다.당시에는 해양수산부 연간 사업에 포함되지 못했지만 올해 처음으로 포함되면서 예산 지원 가능성이 높은 상황이라고 한다.해운항만업계 재취업 지원 사업이 부산을 시작으로 전국으로 확대되기를 기대한다.해운항만업계 부활의 견인차가 될 해운항만 실직자 재취업 프로그램은 제대로 추진되어야 한다." input_ids = tokenizer.encode(input_text, return_tensors="pt", padding="max_length", truncation=True, max_length=1026) # Generate Summary Text Ids summary_text_ids = model.generate( input_ids=input_ids, bos_token_id=model.config.bos_token_id, eos_token_id=model.config.eos_token_id, length_penalty=1.0, max_length=40, min_length=3, num_beams=6, repetition_penalty=1.5, ) # Decoding Text Ids print(tokenizer.decode(summary_text_ids[0], skip_special_tokens=True)) ```