๐ ShweYon-GPT2-Burmese-v1 (แแญแฏแแฝแพแฑแแฏแแบ)
ShweYon แแแบ แแผแแบแแฌแแฌแแฌแ แแฌแธแกแแฝแแบ แแฎแธแแแทแบแแแบแแฝแแบแ แกแแผแฑแแถแแพแ แแแบแแฌ (From Scratch) แแแบแแฑแฌแแบแแฌแธแแฑแฌ Decoder-only Transformer แแฑแฌแบแแแบแแผแ แบแแแบแ GPT-2 Architecture แแญแฏ แกแแผแฑแแถแแฌแธแแผแฎแธ แแผแแบแแฌแ แฌแแฏแถแธแแฑแซแแบแธ แ แแญแแบแธแแปแฑแฌแบแแซแแแบแแฑแฌ แแแทแบแ แแบแแผแฎแธแแฌแธ Golden Corpus แแผแแทแบ แแฑแทแแปแแทแบแแฑแธแแฌแธแแซแแแบแ
๐ Model Description
- Developed by: [แฆแธแแฌแแญแแนแแฌแแแนแ,URajinda]
- Model type: Causal Language Model
- Architecture: GPT-2 based (Customized for Myanmar)
- Language(s): Burmese (แแผแแบแแฌแแฌแแฌ)
- Tokenizer: Custom Byte-Pair Encoding (BPE) optimized for Myanmar script.
๐ฏ Intended Use
แคแแฑแฌแบแแแบแแญแฏ แกแฑแฌแแบแแซแแฏแแบแแแบแธแแปแฌแธแแฝแแบ แกแแฏแถแธแแผแฏแแญแฏแแบแแแบ-
- แแผแแบแแฌแ แฌแแฌแธแแปแฌแธ แกแแญแฏแกแแปแฑแฌแแบ แแฑแธแแฌแธแแผแแบแธ (Text Generation)
- แ แฌแแผแฑแฌแแบแธแแปแฌแธ แกแแฏแถแธแแแบแแฑแธแแผแแบแธ (Sentence Completion)
- Chatbot แแพแแทแบ Assistant แแปแฌแธแกแแฝแแบ แกแแผแฑแแถแกแแผแ แบ แกแแฏแถแธแแผแฏแแผแแบแธ (Fine-tuning base)
๐ Training Details
- Steps: 8,255 steps
- Epochs: 5.0
- Final Loss: [ 3.1]
- Hardware: NVIDIA T4 GPU (Google Colab)
โ ๏ธ Limitations
แคแแฑแฌแบแแแบแแแบ Base Model แแผแ แบแแฑแฌแแผแฑแฌแแทแบ แกแแปแแบแกแแแบแกแแพแฌแธแแปแฌแธ (Hallucinations) แแซแแแบแแญแฏแแบแแซแแแบแ แ แแฌแธแแผแฑแฌแแญแฏแแพแฏ แแญแฏแแญแฏแแฑแฌแแบแธแแฝแแบแแฌแ แฑแแแบ Chat-based Fine-tuning แแแบแแถแแผแฏแแฏแแบแแแบ แแญแฏแกแแบแแซแแแบแ
๐จโ๐ป How to use
from transformers import pipeline
generator = pipeline('text-generation', model='your-username/ShweYon-GPT2-Burmese-v1')
print(generator("แแผแแบแแฌแแญแฏแแบแแถแแแบ", max_length=50))
- Downloads last month
- -