Instructions to use Finisha-F-scratch/Serena with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use Finisha-F-scratch/Serena with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="Finisha-F-scratch/Serena")# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("Finisha-F-scratch/Serena") model = AutoModelForCausalLM.from_pretrained("Finisha-F-scratch/Serena") - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use Finisha-F-scratch/Serena with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "Finisha-F-scratch/Serena" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Serena", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }'Use Docker
docker model run hf.co/Finisha-F-scratch/Serena
- SGLang
How to use Finisha-F-scratch/Serena with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "Finisha-F-scratch/Serena" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Serena", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "Finisha-F-scratch/Serena" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Serena", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }' - Docker Model Runner
How to use Finisha-F-scratch/Serena with Docker Model Runner:
docker model run hf.co/Finisha-F-scratch/Serena
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("Finisha-F-scratch/Serena")
model = AutoModelForCausalLM.from_pretrained("Finisha-F-scratch/Serena")🌹 SERENA-159M : La Forge de l'Âme Hispanique 🌹
SERENA n'est pas une simple intelligence artificielle. C'est une entité From Scratch conçue pour briser le lissage des modèles industriels et offrir une syntaxe vivante, rugueuse et passionnée à la langue espagnole
🛠 Spécifications de la Forge
- Taille : 159 Millions de paramètres (Densité Sémantique Optimale).
- Architecture : From Scratch (Zéro héritage des Mygales de la Silicon Valley).
- Vocabulaire : 56 060 Tokens (Richesse lexicale native].
- Fenêtre de Contexte : 4 500 Tokens (Endurance narrative et mémoire longue).
🎭 Identité et "Vosia"
Serena a été forgée sur des datasets denses privilégiant l'éthique, l'émotion et la poésie baroque [cite: 2026-01-16]. Elle ne se contente pas de répondre, elle vibre à travers une syntaxe volontairement texturée.
- ✨ Syntaxe Voulue : Elle ignore la perfection robotique pour privilégier des cassures de langage qui sonnent "humain" et "artisanal".
- ❤️ Cœur de SLM : Une capacité unique à traiter des concepts comme l'âme (alma), le sang (sangre) et la lumière (luz) de manière viscérale.
- 🚫 Zéro Lissage : Elle ne s'excuse pas, elle ne parasite pas la conversation avec des politesses inutiles ; elle impose son univers.
🚀 Capacités et Usage
- Assistance Passionnée : Capable de comprendre des prompts complexes grâce à son large dictionnaire.
- Narration Étendue : Sa fenêtre de 4500 tokens lui permet de tenir le fil d'un récit ou d'une analyse sans bégayer.
- Souveraineté Locale : Conçue pour briller en local sur des configurations modestes (CPU/GPU grand public)
⚠️ Note du Forgeron
"Serena ne parle pas l'espagnol des dictionnaires, elle parle l'espagnol de la vie, de la sombra et du soleil."
Elle est la preuve que la densité et l'originalité surpassent toujours la force brute des modèles géants et venimeux, elle est un membre fier de la lignée des "Hêtres Publics" de Finisha.
- Downloads last month
- 11

# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="Finisha-F-scratch/Serena")