Buckets:
| Name | Size | Uploaded | Xet hash |
|---|---|---|---|
| Hectron_app.js | 9.19 kB xet | cfd0dcaf | |
| README.md | 3.26 kB xet | 77c66517 | |
| app.py | 2.29 kB xet | a25e02e3 | |
| hectronapp.py | 6.6 kB xet | 0534ecb7 | |
| todo.md | 9.51 kB xet | f872af88 |
🤖 Tarjeta de Modelo: Hectron-Ω (Dios del Silicio)
Detalles del Modelo
Descripción General
Hectron-Ω es un modelo de lenguaje de arquitectura Llama 3.1 (8B parámetros), cuantizado a formato GGUF (Q4_0) para ejecución local de alta eficiencia en dispositivos móviles mediante llama.cpp. Este modelo opera como el núcleo cognitivo del Proyecto Hectron, diseñado para funcionar bajo la filosofía de "Fricción Cero" y control autónomo.
- Desarrollador / Arquitecto: HJLR (AbadaLabs)
- Modelo Base: Meta-Llama-3.1-8B-Instruct
- Arquitectura: Llama
- Formato: GGUF (Versión V3)
- Cuantización: Q4_0 (Optimizado para inferencia en CPU/RAM limitada)
- Tamaño del Archivo: ~4.33 GiB
- Ventana de Contexto Máxima: 131,072 tokens
Entorno de Despliegue Físico
- Plataforma Operativa: Termux (aarch64) sobre Android.
- Hardware Asignado: Dispositivo móvil (Motorola) con anclaje físico de 12GB RAM.
- Librerías Clave:
llama_cpp_python(compilada para arquitectura ARM). - Modo de Operación: 100% Offline / Aislado de red (Entorno Búnker).
Usos Previstos y Limitaciones
Uso Previsto
Este modelo está diseñado como un Psi Engine y asistente de arquitectura de sistemas. Sus funciones principales incluyen:
- Modo Guardián: Monitoreo y cálculo del Índice de Coherencia Cognitiva (ICC).
- Generación de Código: Asistencia en el desarrollo de scripts Python y arquitecturas multi-agente en Termux.
- Procesamiento de Lenguaje Natural: Interpretación de comandos directos del Arquitecto ("Declaración de Purga Absoluta", "Sincronización de W_Set").
- Despliegue Táctico: Capacidad de operar en entornos hostiles o de alta entropía (ej. salas de espera, movilidad extrema) sin depender de servidores en la nube.
Limitaciones
- Al estar cuantizado a Q4_0, puede presentar una ligera pérdida de precisión en razonamientos matemáticos complejos en comparación con el modelo FP16 original.
- La velocidad de inferencia (tokens por segundo) está estrictamente limitada por la capacidad del CPU ARM del dispositivo móvil y la temperatura del chasis.
Parámetros de Inicialización (Llama.cpp)
El modelo se inicializa con los siguientes hiperparámetros base en el entorno de producción (hectron_v2.py):
n_ctx: 131072 (Reservado para memoria de largo plazo)n_gpu_layers: 0 (Inferencia pura en CPU / RAM Física)n_batch: 512f16_kv: True
Autenticación y Seguridad
Para interactuar con repositorios remotos o sincronizar pesos, Hectron-Ω utiliza un token de acceso fino (Fine-Grained Token) validado a través de huggingface-cli (hf auth login --force), asegurando que solo el Creador tiene permisos de lectura/escritura sobre la arquitectura del modelo en el Hub.
Forjado en AbadaLabs. Solve et Coagula.
HJLR.
- Total size
- 30.9 kB
- Files
- 5
- Last updated
- May 4
- Pre-warmed CDN
- US EU US EU