File size: 2,168 Bytes
5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 5513fd3 f0bdac0 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 |
---
base_model: google/gemma-3-1b-it
library_name: peft
tags:
- gemma
- peft
- lora
- classification
- korean
- academic-conference
- lightweight-model
license: apache-2.0
---
# ๋
ผ๋ฌธ ์ ๋ชฉ โ ํ์ ๋ํ ๋ถ๋ฅ LLM (IITP ์ค๋ฌด ๊ธฐ๋ฐ ๊ฒฝ๋ AI)
์ด ๋ชจ๋ธ์ ๋
ผ๋ฌธ ์ ๋ชฉ์ ์
๋ ฅํ๋ฉด ํด๋น ๋
ผ๋ฌธ์ด ๋ฐํ๋ ๊ฐ๋ฅ์ฑ์ด ๋์ ํ์ ๋ํ๋ฅผ ์์ธกํ๋ ํ๊ตญ์ด ๊ฒฝ๋ LLM์
๋๋ค.
Agent AI ํ์ฉ ํ์ฐ๊ณผ ๋ง๋ฌผ๋ ค, ์ฐ๊ตฌํ์ฅ์์ ์์ฐ์ด ๊ธฐ๋ฐ์ ๋ถ๋ฅ ์
๋ฌด๋ฅผ ์๋ํํ ์ ์๋๋ก ์ค๋ฌด ๋ฐ์ดํฐ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ๊ตฌ์ถํ์์ต๋๋ค.
๋ณธ ํ๋ก์ ํธ๋ ์ ๋ณดํต์ ๊ธฐํํ๊ฐ์(IITP)์ ์ ์ฑ
์ํ์๋ก์, ์ค์ ๊ธฐ๊ด์์ ์ง๋ฉดํ '๋
ผ๋ฌธ-ํ์ ๋ํ ๋ถ๋ฅ' ์
๋ฌด๋ฅผ ํจ์จํํ๋ ๋ฐ ๊ธฐ์ฌํ๊ณ ์ ๊ธฐํ๋์์ต๋๋ค.
---
## ๐ง Model Details
- **Base Model**: `google/gemma-3-1b-it`
- **Fine-tuning method**: LoRA (PEFT)
- **Language**: Korean
- **Task**: Classification (๋
ผ๋ฌธ ์ ๋ชฉ โ ํ์ ๋ํ)
- **Developed by**: ๋ณ์ ํ
- **Affiliation**: ์ ๋ณดํต์ ๊ธฐํํ๊ฐ์(IITP) ์
๋ฌด ์ง์์ฉ Test ๋ชจ๋ธ
- **Fine-tuned on**: ํ๊ตญ์ฐ๊ตฌ์ฌ๋จ ํ์ ๋ํ ๋
ผ๋ฌธ์ฌ์ฌ ๋ฐ์ดํฐ (๊ณต๊ฐ CSV ํ์ฉ)
---
## ๐งพ Dataset
- **์๋ณธ**: `ํ๊ตญ์ฐ๊ตฌ์ฌ๋จ_ํ์ ๋ํ๋
ผ๋ฌธ์ฌ์ฌ_20241231.csv`
- **๊ตฌ์ฑ**: `{"text": ๋
ผ๋ฌธ ์ ๋ชฉ, "label": ํ์ ๋ํ๋ช
}` ํํ์ JSONL ๋ณํ
- **์ํ ์**: ์ฝ 9,000๊ฑด
- **์ ์ฒ๋ฆฌ ๋ฐฉ์**: `[INST] ๋
ผ๋ฌธ ์ ๋ชฉ: {์ ๋ชฉ} ์ด๋ค ํ์ ๋ํ๋ช
์ธ๊ฐ์? [/INST] {ํ์ ๋ํ๋ช
}` ํ์์ผ๋ก Prompt ์์ฑ
---
## ๐ Model Usage
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model = AutoModelForCausalLM.from_pretrained("JeongHeum/gemma3-korean-academic-classifier")
tokenizer = AutoTokenizer.from_pretrained("JeongHeum/gemma3-korean-academic-classifier")
prompt = "[INST] ๋
ผ๋ฌธ ์ ๋ชฉ: ๋ฅ๋ฌ๋ ๊ธฐ๋ฐ ํ๊ตญ์ด ์์ฑ ์ธ์ ์์คํ
[/INST]"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=20)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
# ์์ ์ถ๋ ฅ: ํ๊ตญ์์ฑ์ฒ๋ฆฌํํ
|