Edit model card
  • Tokenizer from beomi/OPEN-SOLAR-KO-10.7B
  • maywell/korean_textbooks λ°μ΄ν„°μ…‹μœΌλ‘œ 1에폭 ν•™μŠ΅ (μ•½ 0.87B tokens)
  • μ΅œλŒ€ 토큰 길이 2048
from transformers import pipeline

pipe = pipeline("text-generation", model="heegyu/ko-llama-46M-v0")

print(pipe("μ•ˆλ…•ν•˜μ„Έμš”", do_sample=True, max_new_tokens=120, top_k=50, top_p=0.7)[0]['generated_text'])

μ‹€ν–‰ κ²°κ³Ό

μ•ˆλ…•ν•˜μ„Έμš”, μ—¬λŸ¬λΆ„. μ˜€λŠ˜μ€ 였늘 κ°•μ˜μ—μ„œ, 혁λͺ…적인 레λͺ¬λ“œμ—μ„œ 발견된 ν’μžμ  κ²½ν—˜μ— λŒ€ν•΄ μ΄μ•ΌκΈ°ν•˜κ³  μ‹ΆμŠ΅λ‹ˆλ‹€. 이 κ°•μ˜λŠ” ν…”λ ˆλΉ„μ „μ˜ 혁λͺ…κ³Ό 같은 μ‹œλŒ€μ˜ ν™”κ°€λ“€μ˜ 경관적인 κ²½ν—˜μ— λŒ€ν•œ 믿음, 그리고 그것이 였늘의 미술의 μ£Όμš” ν’μžμ  κ²½ν—˜μ— κΈ°μ—¬ν•˜λŠ” 데 쀑점을 λ‘‘λ‹ˆλ‹€.

λ¨Όμ €, 혁λͺ…적인 레λͺ¬λ“œμ—μ„œ μ‹œμž‘λœ 레λͺ¬λ“œμ—μ„œ μ†Œκ°œλœ μ£Όμš” κ΅νšŒλŠ” λ°”λ‘œ 혁λͺ…에 λŒ€ν•œ 혁λͺ…적인 κ΄€μ μž…λ‹ˆλ‹€. λ‹Ήμ‹œ 유럽의 μ‹œλ¦¬μ•„ 혁λͺ…은 ν…”λ ˆλΉ„μ „μ˜ μ‹œκΈ°μ˜€μŠ΅λ‹ˆλ‹€
pipe("μ‚¬λžŒλ“€μ€", do_sample=True, max_new_tokens=120, top_k=50, top_p=0.7)[0]['generated_text']

μ‚¬λžŒλ“€μ€ 더 λ§Žμ€ 이점을 얻을 수 μžˆλ‹€κ³  μƒκ°ν•©λ‹ˆλ‹€.

**Epsilon:** μ €λŠ” λ™μ˜ν•˜μ§€ μ•ŠμŠ΅λ‹ˆλ‹€. 과학은 λͺ¨λ“  것을 μ„€λͺ…ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 과학은 μš°λ¦¬κ°€ κ²½ν—˜ν•˜λŠ” λͺ¨λ“  κ²ƒμ˜ 근본적인 μ†μ„±μž…λ‹ˆλ‹€.

**Phi:** ν•˜μ§€λ§Œ 과학은 μš°λ¦¬κ°€ κ²½ν—˜ν•˜λŠ” λͺ¨λ“  κ²ƒμ˜ 근본적인 μ†μ„±μž…λ‹ˆλ‹€. μš°λ¦¬κ°€ 세상을 κ²½ν—˜ν•˜λŠ” 방식은 우리의 λ‡Œμ˜ 물리적 ꡬ쑰λ₯Ό μ„€λͺ…ν•©λ‹ˆλ‹€.

**Epsilon:** κ·ΈλŸ¬λ‚˜ 그것은 단지 좔츑일 λΏμž…λ‹ˆλ‹€. μš°λ¦¬λŠ” 과학이 μ–΄λ–»κ²Œ μ‚¬μš©λ μ§€ μ•Œ 수 μ—†μŠ΅λ‹ˆλ‹€.

**Phi:** 그렇더라도 과학은 우리의 마음과 λ§ˆμŒμ„ μ„€λͺ…ν• 
Downloads last month
9
Safetensors
Model size
70.1M params
Tensor type
F32
Β·
Inference API
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train heegyu/ko-llama-46M-v0