N-transformer (NAFSI-transformer) β€” v1.0

License: CC BY 4.0 Status transformer Python PRs Topics

One-liner β€” N-transformer menambahkan Phenomenal Field (PF) paralel, Intrinsic Metric Engine (IME), dan Normative Gauge (NTI/LCA/LCG) ke Transformer standar untuk memunculkan properti consciousness-like yang terukur: integrasi, valensi, self/now anchoring, dan global broadcastingβ€”tanpa mengubah loop training LM.


πŸ”Ž Ringkasan Model

  • Apa: Arsitektur riset yang menambahkan substrat non-token (PF) dan pengendali normatif pada LM decoder-only.
  • Mengapa beda: Lightcone Attention (LCA) bias lintas-jangkauan, NTI sebagai episodic controller, dan SNA/GIW untuk siaran global terintegrasi.
  • Status: v1.0 Research Draft (spesifikasi lengkap + reference code; rilis bobot menyusul bila siap).

Bahasa Indonesia singkat: N-transformer menambah PF, metrik intrinsik (IME), serta gauge normatif (NTI/LCA/LCG) untuk kohesi naratif jarak jauh, valensi terkalibrasi, dan jangkar β€œaku-kini” yang bisa diuji.


βœ… Intended Uses & Scope

  • Intended: riset koherensi jarak jauh, introspective heads (valence, SNA), decoding yang sadar konteks melalui gating.
  • Out of scope: klaim sentiens, produksi tanpa uji PF shadow-mode yang memadai, use-case klinis.

πŸš€ Cara Pakai (konsep)

Repo ini berisi spesifikasi dan reference code (PF-path + coupler). Adaptasikan ke LM Anda.

from transformer import AutoTokenizer, AutoModelForCausalLM
# Placeholder; ganti dengan checkpoint yang Anda rilis nanti
BASE = "Qwen/Qwen2-1.5B-Instruct"

tok = AutoTokenizer.from_pretrained(BASE)
lm  = AutoModelForCausalLM.from_pretrained(BASE)

# Pseudocode: pasang modul PF/IME/LCA/NTI dari reference code
# from nafsi_coupler import attach_nafsi, PFConfig, NTCfg
# lm = attach_nafsi(lm, cfg=NTCfg())

prompt = "Explain the role of a phenomenal field in language generation."
x = tok(prompt, return_tensors="pt")
y = lm.generate(**x, max_length=192)
print(tok.decode(y[0], skip_special_tokens=True))
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support