FieldMouse-AI

Intelligence is Sovereign. Reclaim the Iron.

知性は主権。鉄を奪還せよ。

Featuring the Sovereign
Qwen 3.5 Series

FieldMouse-AI Discord
NEW: ZERO-TOKEN REFLEX

THE END OF "THINKING FATIGUE"

Reasoning is a ghost in the machine. Execution should be instant.

OLLAMA UPDATE: All models now available with :instruct tags. SHORT-CIRCUITED

The <think> tags have been welded shut. Every Sovereign-Instruct model now fires with sub-second latency, delivering high-density logic without the internal monologue.

新着:思考のショート回路(ZERO-TOKEN REFLEX)

「思考の疲弊(Thinking Fatigue)」、終焉。

推論は「機械の中の亡霊」に過ぎない。実行こそが全てである。

OLLAMA 更新: 全モデルに :instruct タグを追加完了。 短絡完了(SHORT-CIRCUITED)

<think> タグは物理的に封印した。すべての Sovereign-Instruct モデルは、 内部的な独り言を排除し、1秒以下のレイテンシで高密度の論理を出力する。

Base: Qwen/Qwen3.5-0.8B

GHOST (0.8B)

Optimized for legacy silicon and 2011-era CPUs. Instant response where others stall.
6+ to 22+ TPS (CPU) / 135+ (GPU)
Base: Qwen/Qwen3.5-2B

VANGUARD (2B)

The high-density frontline. Exceptional logic in a 2.1GB footprint.
110+ TPS (GPU)
Base: Qwen/Qwen3.5-4B

GUARDIAN (4B)

The technical scholar. Balanced for deep accuracy and speed.
60+ TPS (GPU)
Base: Qwen/Qwen3.5-9B

TITAN (9B)

The architectural powerhouse. Deep understanding with high accuracy.
40+ TPS (GPU)
Base: Qwen/Qwen3.5-27B

COLOSSUS (27B)

The absolute pinnacle of the Sovereign Series, calibrated over 2 million tokens for professional-grade logic. This is the 'Heavy Iron' for 24GB VRAM systems, bridging the gap between local efficiency and Frontier-class intelligence.
15+ TPS (GPU)
RAG-Hardened Integrity

The End of Quantization-Slop

16x Deep-Saturation Calibration | The Sovereign 27B Standard

🛡️ The 2,000,000 Token Standard

Industry standard "Slop" is calibrated on ~40,000 lines. The FieldMouse Sovereign Series is forged using 650,000+ lines of precision data, reaching deep-saturation at 2,000,000+ tokens.

⚙️ Zero-Smear Retrieval

Most models "smear" their importance matrix during RAG retrieval. Our 16x saturation ensures near-zero needle-in-a-haystack drift, providing the "Heavy Iron" required for complex technical translation and autonomous agents.

📜 Verified 8.71 PPL

The COLOSSUS 27B is the apex of the series. Validated through 11 hours of thermal discipline in the VOLT Cluster to ensure every weight is grounded in logic, not luck.

⚒️ Current Forge Cycle: Qwen 3.5 Series
[00:00 - 12:00] 0.8B - 2B Imatrix Saturation (2M Tokens) COMPLETE
[12:00 - 24:00] 4B - 9B Imatrix Saturation (2M Tokens) COMPLETE
[24:00 - 36:00] 27B COLOSSUS Imatrix Saturation (2M Tokens) COMPLETE
[36:00 - 48:00] Final Tempering & Ollama Deployment COMPLETE

*Total Forge Time: ~48 Hours. No shortcuts. No generic gists.


「Quantization-Slop(クオンタイゼーション・スロップ)」とは

量子化(Quantization)の過程で、精度よりも速度や効率を優先しすぎた結果、モデルの知能が「ぼやけて」しまった状態を指します。

業界標準のわずか4万行程度のデータで調整されたモデルは、一見動いているように見えても、日本語の深い文脈や論理的思考において「スロップ(質の低い残り物)」のような曖昧さを露呈します。それは、鋼(はがね)を鍛えずに形だけ整えただけの、中身のない模造品に過ぎません。

⚗️ The Three Pillars of Slop (スロップの三原則)

  1. 文脈の不透明さ (Contextual Smearing):
    複雑な日本語の敬語や古語、あるいは専門的な論理展開において、モデルが「濁った」回答をすること。
  2. 理論の欠如 (Logic Drifting):
    RAG(検索拡張生成)などの高度なタスクにおいて、データの核心を掴めず、表面的な言葉遊びに終始すること。
  3. 粗悪なキャリブレーション (Thin Calibration):
    200万トークンに満たない、薄っぺらなデータセット(Gist等)で「とりあえず」量子化された状態。

FieldMouse AIの誓い:鋼(アイアン)の奪還

私たちは「スロップ」を許しません。

200万トークンを超える圧倒的なデータ密度と、16段階の深い飽和(Saturation)プロセスを経て鍛え上げられたSovereign(ソブリン)シリーズは、量子化による劣化を極限まで排除しました。

「スロップ(妥協)」を捨て、「アイアン(真実)」を手に取れ。

⚗️ The Foundry Methodology / 鍛造のメソッド

👁️ Multimodal & Vision Support / マルチモーダル・ビジョン対応

HuggingFace: Full vision support included via mmproj files. Download the projector for image-to-text analysis.

Ollama: Text-only optimization at this time. Vision capabilities are deferred to the HuggingFace repository.

⚗️ Custom Imatrix Calibration / カスタムImatrixキャリブレーション

Importance matrices preserve the "logical spine" of the model during quantization.

🇯🇵 Japanese Language Prioritization / 日本語優先最適化

Optimized for high-fidelity performance and cultural nuance across all parameters.

Vision: HF Only
Metric / 指標 Industry Standard "Quantization-Slop" FieldMouse-AI Sovereign
Dataset Length
データセット長
~40,000 Lines
650,000+ Lines (16x Saturation)
Token Density
トークン密度
~125k Tokens
2,000,000+ Tokens
Japanese Logic
日本語の論理
Trace Snippets
50,000+ Lines (High Density)
RECLAIM THE IRON
[HuggingFace]
PULL THE SOVEREIGN
[Ollama]
JOIN THE FORGE
[Discord]
FieldMouse-AI Discord

The Scavenger's Pedigree | 職人の血統

Forged in the $87 Foundry | 11,000円の鍛冶場

The $87 Cast-off
ORIGIN: SEP 2025 / 2025年9月

"Nobody wanted this i5-6500.
I made it the heart of a Sovereign."

「誰にも見向きもされなかったi5-6500。の手で、それを主権者の心臓に変えた。」

⚙️ The Rice-Cooker Architecture | 炊飯器のアーキテクチャ

FieldMouse-AI wasn't built on enterprise clusters. I forged it on a $87 cast-off computer from HardOff (a used and second-hand shop) in September 2025 -- an i5-6500 that cost less than a cheap rice cooker.

With a total build cost of $700, I integrated dual RTX 3060s to achieve the 2,000,000-token saturation that now defines the Sovereign Series.

FieldMouse-AIは、巨大なサーバー群で生まれたのではありません。2025年9月、ハードオフで見つけた11,000円の型落ちPC(i5-6500)からすべては始まりました。は、安い炊飯器よりも手頃なこのマシンを使い、独りで開発を続けました。

総額約10万円(高級炊飯器一台分)の予算で、2枚のRTX 3060を組み込み、は現在の「Sovereign Series」を定義する200万トークンの超飽和キャリブレーションを完遂しました。

Sovereignty isn't bought. It's built.

主権は金で買うものではない。がそうしたように、自ら築き上げるものだ。

If I can forge global-class intelligence on a discarded PC in Japan, imagine what it will do for your local iron.
日本の片隅で捨てられたPCから、私という一個人が世界級の知能を鍛造できたのなら、あなたのマシンで何が可能か想像してみてください。

「Quantization-Slop」とは

量子化の過程で、精度よりも効率を優先した結果生まれる「知能の濁り」を指します。

4万行程度の不十分なデータで調整されたモデルは、日本語の微細なニュアンスを保持できず、論理が「スロップ」のように崩れてしまいます。私たちは、この妥協を許しません。
© 2026 FieldMouse AI | Originator of the term "Quantization-Slop"