Edit model card
  • Tokenizer from beomi/OPEN-SOLAR-KO-10.7B
  • maywell/korean_textbooks λ°μ΄ν„°μ…‹μœΌλ‘œ 1에폭 ν•™μŠ΅ (μ•½ 0.87B tokens)
  • μ΅œλŒ€ 토큰 길이 2048
from transformers import pipeline

pipe = pipeline("text-generation", model="heegyu/ko-llama-46M-v0")

print(pipe("μ•ˆλ…•ν•˜μ„Έμš”", do_sample=True, max_new_tokens=120, top_k=50, top_p=0.7)[0]['generated_text'])

μ‹€ν–‰ κ²°κ³Ό

μ•ˆλ…•ν•˜μ„Έμš”, μ—¬λŸ¬λΆ„. μ˜€λŠ˜μ€ 였늘 κ°•μ˜μ—μ„œ, 혁λͺ…적인 레λͺ¬λ“œμ—μ„œ 발견된 ν’μžμ  κ²½ν—˜μ— λŒ€ν•΄ μ΄μ•ΌκΈ°ν•˜κ³  μ‹ΆμŠ΅λ‹ˆλ‹€. 이 κ°•μ˜λŠ” ν…”λ ˆλΉ„μ „μ˜ 혁λͺ…κ³Ό 같은 μ‹œλŒ€μ˜ ν™”κ°€λ“€μ˜ 경관적인 κ²½ν—˜μ— λŒ€ν•œ 믿음, 그리고 그것이 였늘의 미술의 μ£Όμš” ν’μžμ  κ²½ν—˜μ— κΈ°μ—¬ν•˜λŠ” 데 쀑점을 λ‘‘λ‹ˆλ‹€.

λ¨Όμ €, 혁λͺ…적인 레λͺ¬λ“œμ—μ„œ μ‹œμž‘λœ 레λͺ¬λ“œμ—μ„œ μ†Œκ°œλœ μ£Όμš” κ΅νšŒλŠ” λ°”λ‘œ 혁λͺ…에 λŒ€ν•œ 혁λͺ…적인 κ΄€μ μž…λ‹ˆλ‹€. λ‹Ήμ‹œ 유럽의 μ‹œλ¦¬μ•„ 혁λͺ…은 ν…”λ ˆλΉ„μ „μ˜ μ‹œκΈ°μ˜€μŠ΅λ‹ˆλ‹€
pipe("μ‚¬λžŒλ“€μ€", do_sample=True, max_new_tokens=120, top_k=50, top_p=0.7)[0]['generated_text']

μ‚¬λžŒλ“€μ€ 더 λ§Žμ€ 이점을 얻을 수 μžˆλ‹€κ³  μƒκ°ν•©λ‹ˆλ‹€.

**Epsilon:** μ €λŠ” λ™μ˜ν•˜μ§€ μ•ŠμŠ΅λ‹ˆλ‹€. 과학은 λͺ¨λ“  것을 μ„€λͺ…ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 과학은 μš°λ¦¬κ°€ κ²½ν—˜ν•˜λŠ” λͺ¨λ“  κ²ƒμ˜ 근본적인 μ†μ„±μž…λ‹ˆλ‹€.

**Phi:** ν•˜μ§€λ§Œ 과학은 μš°λ¦¬κ°€ κ²½ν—˜ν•˜λŠ” λͺ¨λ“  κ²ƒμ˜ 근본적인 μ†μ„±μž…λ‹ˆλ‹€. μš°λ¦¬κ°€ 세상을 κ²½ν—˜ν•˜λŠ” 방식은 우리의 λ‡Œμ˜ 물리적 ꡬ쑰λ₯Ό μ„€λͺ…ν•©λ‹ˆλ‹€.

**Epsilon:** κ·ΈλŸ¬λ‚˜ 그것은 단지 좔츑일 λΏμž…λ‹ˆλ‹€. μš°λ¦¬λŠ” 과학이 μ–΄λ–»κ²Œ μ‚¬μš©λ μ§€ μ•Œ 수 μ—†μŠ΅λ‹ˆλ‹€.

**Phi:** 그렇더라도 과학은 우리의 마음과 λ§ˆμŒμ„ μ„€λͺ…ν• 
Downloads last month
12
Safetensors
Model size
70.1M params
Tensor type
F32
Β·

Dataset used to train heegyu/ko-llama-46M-v0