Uploaded model

  • Developed by: blueflag
  • License: apache-2.0
  • Finetuned from model : yanolja/EEVE-Korean-Instruct-10.8B-v1.0

This llama model was trained 2x faster with Unsloth and Huggingface's TRL library.

Basic template

prompt = f'''Translate Human sentences into {μ–Έμ–΄μ„€μ •. 예λ₯Όλ“€μ–΄ 원문이 μ˜μ–΄λΌλ©΄ Koreanλ₯Όμ„ λ„£κ³  원문이 ν•œκΈ€μ΄λΌλ©΄ Englishλ₯Ό λ„£μ–΄μ£Όλ©΄ λ©λ‹ˆλ‹€} in short. Do not add anything else.\nHuman: {λ²ˆμ—­ν•  문ꡬ}\nAssistant:\n'''

νŒŒμΈνŠœλ‹ 동기

κ·Έλ™μ•ˆ ai의 ν™˜κ°ν˜„μƒ λ•Œλ¬Έμ— λ²ˆμ—­ν›„ μ—„μ²­λ‚œ ν›„μ²˜λ¦¬λ₯Ό ν•΄μ•Όν–ˆκ³  κ·Έλ ‡κ²Œ ν–ˆμŒμ—λ„ μ—¬μ „νžˆ λ§Žμ€ ν™˜κ°λ¬Έκ΅¬λ“€μ„ ν•΄κ²°ν•˜μ§€ λͺ»ν•˜κ³  μžˆμ—ˆμŠ΅λ‹ˆλ‹€

이 λͺ¨λΈμ„ μ‚¬μš©ν•˜μ‹œλ©΄

μœ„μ—μ„œ μ œκ³΅ν•œ basic templateλ₯Ό μ΄μš©ν•΄ λ²ˆμ—­μš”μ²­μ„ ν•˜μ‹œλ©΄ transformer의 pipelineμ—μ„œ translation을 μ‚¬μš©ν•œ κ²ƒμ²˜λŸΌ κΉ”λ”ν•œ λ²ˆμ—­μ΄ κ°€λŠ₯ν•΄μ§‘λ‹ˆλ‹€.

λ²ˆμ—­ 팁

λ²ˆμ—­ μ „, νŠΉμˆ˜λ¬Έμžλ“€μ„ μ œκ±°ν•˜κ±°λ‚˜ ν•˜μ΄ν”ˆ(-)으둜 replace ν•΄μ£Όμ„Έμš”. 특히 콜둠( : )이 ν™˜κ° 유발의 μ£Όλ²”μž…λ‹ˆλ‹€.

νŒŒμΈνŠœλ‹ 데이터셋은 μ–Έμ œ κ³΅κ°œν•˜λ‚˜μš”?

데이터셋을 계속 λ°”κΏ”κ°€λ©° νŒŒμΈνŠœλ‹ ν…ŒμŠ€νŠΈλ₯Ό ν•˜λ‹€λ³΄λ‹ˆ κ³΅κ°œκ°€ λŠ¦μ–΄μ§€κ³  μžˆμŠ΅λ‹ˆλ‹€. μ²˜μŒμ—λŠ” μ•Όμ‹¬μ°¨κ²Œ 수만개의 데이터λ₯Ό λ§Œλ“€μ–΄ λŒλ ΈμœΌλ‚˜ κ²°κ΅­ 2μ²œκ°œλ„ λ˜μ§€ μ•ŠλŠ” λ°μ΄ν„°λ§ŒμœΌλ‘œλ„ νŒŒμΈνŠœλ‹μ΄ μž˜λœλ‹€λŠ”κ±Έ κΉ¨λ‹¬μ•˜μŠ΅λ‹ˆλ‹€. aiν—ˆλΈŒμ˜ μƒ˜ν”Œ 데이터 μ†ŒλŸ‰κ³Ό μ§μ ‘λ§Œλ“  {μ˜μ–΄:ν•œκΈ€} λ°μ΄ν„°μ…‹μœΌλ‘œ ν•™μŠ΅μ‹œμΌ°μŠ΅λ‹ˆλ‹€. 이런 데이터셋을 μΆ”κ°€ν•œ μ΄μœ λŠ” μ˜μ–΄ 단어 ν•˜λ‚˜λ§Œ λ²ˆμ—­ν•˜λΌκ³  μ‹œμΌ°μ„ 경우 ai의 νŠΉμ„±μƒ '말이 많기 λ•Œλ¬Έμ—' λ²ˆμ—­λ§Œ ν•˜λŠ”κ²Œ μ•„λ‹ˆλΌ ν•„μš”μ—†λŠ” 사쑱듀이 계속 λΆ™μ–΄μ„œμž…λ‹ˆλ‹€. νŠΉλ³„ν• κ²Œ μ—†λŠ” λ°μ΄ν„°μ…‹μ΄μ§€λ§Œ μ—…λ‘œλ“œ ν›„ 이곳에 λ‹€μ‹œ μ•Œλ¦¬κ² μŠ΅λ‹ˆλ‹€ β†’ μ—…λ‘œλ“œ μ™„λ£Œν–ˆμŠ΅λ‹ˆλ‹€.

도닀리 κ³ κΈ‰λ²ˆμ—­ μ†ŒμŠ€ μ½”λ“œλŠ” μ–Έμ œ κ³΅κ°œλ˜λ‚˜μš”?

μ§€κΈˆ μ½”λ“œλŠ” 도닀리 μΌλ°˜λ²ˆμ—­κ³Ό 달리 λ³΄ν†΅μ‚¬λžŒλ“€μ΄ μ‚¬μš©ν•˜κΈ° μ–΄λ €μš΄ uxλ₯Ό 가지고 μžˆμŠ΅λ‹ˆλ‹€. s3μ½”λ“œλ‚˜ emailλ°œμ†‘, μ‚¬μš©μ‹œκ°„ νƒ€μ΄λ¨Έμ²˜λŸΌ μΌλ°˜μ‚¬λžŒλ“€μ—κ²Œ ν•„μš”μ—†λŠ” κΈ°λŠ₯듀도 μžˆμŠ΅λ‹ˆλ‹€. 여기에 ggufλ₯Ό 톡해 cpu둜 κ΅¬λ™ν• μˆ˜ 있게 λ§Œλ“€κ³  vllm을 μ‚¬μš©ν•  수 μ—†λŠ” ν™˜κ²½μ—μ„œλ„ λ²ˆμ—­μ΄ κ°€λŠ₯ν•˜λ„λ‘ μˆ˜μ •ν•΄μ•Όν•©λ‹ˆλ‹€. κ³΅κ°œκ°€ 되면 여기에도 μ—…λ°μ΄νŠΈ ν•΄λ†“κ² μŠ΅λ‹ˆλ‹€.

Downloads last month
10
GGUF
Model size
10.8B params
Architecture
llama

8-bit

Inference API
Unable to determine this model’s pipeline type. Check the docs .

Model tree for blueflag/eeve-yanolja-dodari_gguf