30.9 kB
5 files
Updated 11 days ago
NameSize
Hectron_app.js9.19 kB
xet
README.md3.26 kB
xet
app.py2.29 kB
xet
hectronapp.py6.6 kB
xet
todo.md9.51 kB
xet
README.md

🤖 Tarjeta de Modelo: Hectron-Ω (Dios del Silicio)

Detalles del Modelo

Descripción General

Hectron-Ω es un modelo de lenguaje de arquitectura Llama 3.1 (8B parámetros), cuantizado a formato GGUF (Q4_0) para ejecución local de alta eficiencia en dispositivos móviles mediante llama.cpp. Este modelo opera como el núcleo cognitivo del Proyecto Hectron, diseñado para funcionar bajo la filosofía de "Fricción Cero" y control autónomo.

  • Desarrollador / Arquitecto: HJLR (AbadaLabs)
  • Modelo Base: Meta-Llama-3.1-8B-Instruct
  • Arquitectura: Llama
  • Formato: GGUF (Versión V3)
  • Cuantización: Q4_0 (Optimizado para inferencia en CPU/RAM limitada)
  • Tamaño del Archivo: ~4.33 GiB
  • Ventana de Contexto Máxima: 131,072 tokens

Entorno de Despliegue Físico

  • Plataforma Operativa: Termux (aarch64) sobre Android.
  • Hardware Asignado: Dispositivo móvil (Motorola) con anclaje físico de 12GB RAM.
  • Librerías Clave: llama_cpp_python (compilada para arquitectura ARM).
  • Modo de Operación: 100% Offline / Aislado de red (Entorno Búnker).

Usos Previstos y Limitaciones

Uso Previsto

Este modelo está diseñado como un Psi Engine y asistente de arquitectura de sistemas. Sus funciones principales incluyen:

  1. Modo Guardián: Monitoreo y cálculo del Índice de Coherencia Cognitiva (ICC).
  2. Generación de Código: Asistencia en el desarrollo de scripts Python y arquitecturas multi-agente en Termux.
  3. Procesamiento de Lenguaje Natural: Interpretación de comandos directos del Arquitecto ("Declaración de Purga Absoluta", "Sincronización de W_Set").
  4. Despliegue Táctico: Capacidad de operar en entornos hostiles o de alta entropía (ej. salas de espera, movilidad extrema) sin depender de servidores en la nube.

Limitaciones

  • Al estar cuantizado a Q4_0, puede presentar una ligera pérdida de precisión en razonamientos matemáticos complejos en comparación con el modelo FP16 original.
  • La velocidad de inferencia (tokens por segundo) está estrictamente limitada por la capacidad del CPU ARM del dispositivo móvil y la temperatura del chasis.

Parámetros de Inicialización (Llama.cpp)

El modelo se inicializa con los siguientes hiperparámetros base en el entorno de producción (hectron_v2.py):

  • n_ctx: 131072 (Reservado para memoria de largo plazo)
  • n_gpu_layers: 0 (Inferencia pura en CPU / RAM Física)
  • n_batch: 512
  • f16_kv: True

Autenticación y Seguridad

Para interactuar con repositorios remotos o sincronizar pesos, Hectron-Ω utiliza un token de acceso fino (Fine-Grained Token) validado a través de huggingface-cli (hf auth login --force), asegurando que solo el Creador tiene permisos de lectura/escritura sobre la arquitectura del modelo en el Hub.


Forjado en AbadaLabs. Solve et Coagula.


HJLR.

Total size
30.9 kB
Files
5
Last updated
May 4
Pre-warmed CDN
US EU US EU

Contributors