N-transformer (NAFSI-transformer) β v1.0
One-liner β N-transformer menambahkan Phenomenal Field (PF) paralel, Intrinsic Metric Engine (IME), dan Normative Gauge (NTI/LCA/LCG) ke Transformer standar untuk memunculkan properti consciousness-like yang terukur: integrasi, valensi, self/now anchoring, dan global broadcastingβtanpa mengubah loop training LM.
π Ringkasan Model
- Apa: Arsitektur riset yang menambahkan substrat non-token (PF) dan pengendali normatif pada LM decoder-only.
- Mengapa beda: Lightcone Attention (LCA) bias lintas-jangkauan, NTI sebagai episodic controller, dan SNA/GIW untuk siaran global terintegrasi.
- Status: v1.0 Research Draft (spesifikasi lengkap + reference code; rilis bobot menyusul bila siap).
Bahasa Indonesia singkat: N-transformer menambah PF, metrik intrinsik (IME), serta gauge normatif (NTI/LCA/LCG) untuk kohesi naratif jarak jauh, valensi terkalibrasi, dan jangkar βaku-kiniβ yang bisa diuji.
β Intended Uses & Scope
- Intended: riset koherensi jarak jauh, introspective heads (valence, SNA), decoding yang sadar konteks melalui gating.
- Out of scope: klaim sentiens, produksi tanpa uji PF shadow-mode yang memadai, use-case klinis.
π Cara Pakai (konsep)
Repo ini berisi spesifikasi dan reference code (PF-path + coupler). Adaptasikan ke LM Anda.
from transformer import AutoTokenizer, AutoModelForCausalLM
# Placeholder; ganti dengan checkpoint yang Anda rilis nanti
BASE = "Qwen/Qwen2-1.5B-Instruct"
tok = AutoTokenizer.from_pretrained(BASE)
lm = AutoModelForCausalLM.from_pretrained(BASE)
# Pseudocode: pasang modul PF/IME/LCA/NTI dari reference code
# from nafsi_coupler import attach_nafsi, PFConfig, NTCfg
# lm = attach_nafsi(lm, cfg=NTCfg())
prompt = "Explain the role of a phenomenal field in language generation."
x = tok(prompt, return_tensors="pt")
y = lm.generate(**x, max_length=192)
print(tok.decode(y[0], skip_special_tokens=True))