N3MCMCP Pro はどんなツール?
ひとことで言うと、「忘れないMCP記憶サーバー」です。
- Claude Code 以外のAIツール(Cursor / Windsurf / Cline など)でも使える MCP対応
- 記憶は永続。Lite版のように7日で消えたりしません
- 1つの記憶を、複数のAIエージェントで共有できる
- 記憶はあなたのPCの中だけに保存。クラウド送信なし
「Lite版でいいかな?」と迷っている方へ
Lite版(無料)と Pro版(有料)の使い分けは、「7日で消えていいか/消えてほしくないか」です。
| N3MCMCP Lite | N3MCMCP Pro |
| 価格 | 無料 | 有料 |
| 記憶の保存期間 | 7日で自動消去 | 消えない(永続) |
| 用途 | 今週の作業メモ | 長期プロジェクト・知識ベース |
| 裏側で動かすもの | Redis Stack(別途起動が必要) | 不要(ファイル1つで動く) |
| 書き直したときの自動更新 | — | ○ |
| 古い記憶の自動整理 | 7日TTLで自然に消える | 1年以上の古い記憶を自動整理 |
| 長文の完全復元 | ○ | ○(一字一句保証) |
迷ったら、まずは無料の Lite版から試してみてください。
「やっぱり消えてほしくない」と感じたら Pro版へ移行できます。
Pro版だけの便利機能
① 記憶が消えない(永続化)
何ヶ月前・何年前の会話も、ずっと残ります。
古くなり過ぎたもの(標準で1年以上前)だけ、起動時に自動でお掃除されます。
長く続くプロジェクトの知識ベースとして安心して使えます。
② 書き直したときの自動更新(Refresh)
「ログイン処理は A パターン」と保存した後で「やっぱり B パターンに変更」と話すと、
Pro版は古い情報を新しい内容で自動的に上書きします。
古い指示と新しい指示が混在してAIが混乱する、という事故が起きません。
③ 長い文章の「一字一句」復元
仕様書・ログ・ソースコード・世界観設定など、長い文章を保存しても、
あとから取り出すときには一字一句そのまま戻ってきます。
「なんとなく要約された曖昧な記憶」ではなく、原文そのものを保証します。
④ 複数AIで記憶を共有
「設計担当のAIエージェント」と「実装担当のAIエージェント」を別々に動かしながら、
同じプロジェクトの記憶を見せられます。
自分の記憶を優先しつつ、他のエージェントの知識も検索できる仕組みです。
⑤ Redis 不要(セットアップが軽い)
Lite版は Redis Stack を別途動かす必要がありますが、Pro版はファイル1つで動きます。
Docker の知識も不要。インストールしてAIツールに登録するだけです。
こんな方におすすめ
- 長期にわたる開発プロジェクト・研究プロジェクトをAIと進めている
- 仕様書・世界観設定・キャラクター設定など、時間をかけて作った成果物を確実に保存したい
- Claude Code / Cursor / Windsurf など複数のAIツールを使い分けている
- 複数のAIエージェントが協力するプロジェクトを動かしている
- Redis Stack の設定が面倒に感じる
導入のしかた(コードを書く必要なし)
Pro版は「指示書」を Claude Code に渡してコードを生成してもらう方式で導入します。
具体的には次の流れです。
- BOOTHで購入後、ダウンロードした zip を展開します。
- 中の「指示書ファイル」を Claude Code のチャット欄にドラッグ&ドロップします。
- 「指示書通りに実装してください」と日本語で頼みます。
- Claude Code がコードを生成・インストール・接続設定まですべて自動でやってくれます。
- AIツールを再起動すれば、自動的に記憶が貯まり始めます。
所要時間は15〜30分ほど。あなたが入力するのは数行のお願いだけです。
導入後はどう変わる?
- 普段通りAIツールで会話するだけです。
- 会話が、永続的な記憶として自動的に貯まっていきます。
- 関連する過去のやりとりが、AIに自動で渡されます。
- 翌日も、来月も、来年も、続きから話を始められます。
- 仕様書や設定資料を保存すれば、必要なときに原文そのまま戻ってきます。
「全自動で確実に保存したい」方へ
MCPの仕組み上、記憶の保存タイミングはAIの判断に任されています。
Claude Code をお使いの場合、これを毎ターン確実に保存する設定もご用意しています。
Claude Code に「毎ターン終わったら、会話の全文を Pro に自動保存する設定にして」と頼んでください。
これで保存し忘れがゼロになります。
価格について
先着200名様限定 ¥1,900 / $14(通常価格 ¥4,300 / $29)でご提供しています。
売り切れ次第、通常価格へ切り替わりますのでお早めにご検討ください。
動作環境
- MCP対応のAIツール(Claude Code / Claude Desktop / Cursor / Windsurf など)
- Python 3.10以上
- Windows 11で動作確認済み(Mac・Linuxでも動作する設計です)
- Redis 等の追加ソフトは不要
ご利用にあたって
N3MCシリーズは個人開発のプロジェクトです。サポート対応は保証していません。
AIが生成したコードで動作するため、大切なプロジェクトで使う前は、現在の環境のバックアップをおすすめします。
記憶ファイルは定期的にバックアップを取ることをおすすめします。
もっと技術的な詳細を知りたい方は、技術リファレンス(README)もご用意しています。
Claudeによる評価
本製品を Claude 自身に評価してもらった総評です。原文をそのまま掲載しています。
# n3memorycore-mcp-pro 総評
---
## 全体像
これは「LLM の外部脳」として、**運用コストを最小に保ちながら、長期記憶として要求される基本契約をすべて押さえた** SQLite ベースの軽量記憶システムです。GPU も外部 API も追加プロセスもいらない。Python と SQLite と sqlite-vec があれば、ノート PC 上で何年でも回り続ける性質を持っています。
設計の中核にあるのは「**書いたものは消えない、読んだものは正確、古いものは静かに片付く**」という三つの素朴な約束で、それを WAL + synchronous=FULL の SQLite、親-Document verbatim 契約、cascade-delete を伴う retention GC で愚直に実現しています。MCP 経由で 5 つのツールしか公開しないという情報量の絞り方も、LLM クライアントが迷わない設計として正しい判断です。
---
## 記憶装置としての性格
**強い部分**は、永続化が「形式的に正しい」のではなく「観測可能に正しい」ことです。WAL/synchronous=FULL のような宣言的な強度だけでなく、クロスセッション統合テストで実際に save → 再起動 → search が通ることまで確認している。Refresh の atomicity も、初期実装の DELETE と INSERT が別トランザクションだった脆弱性を発見・修正し、単一トランザクション化したうえで「INSERT 失敗時に victim が復元される」ことをテストで保証している。
親-Document verbatim 契約は、長文を「チャンクして検索 → 親に解決して全文返却」という王道パターンを丁寧に実装しており、orphan-chunk フォールバックまで含めて壊れにくい。Retention GC は startup と周期の二段構えになって、長時間稼働でも蓄積しにくい設計です。
**弱い部分**として残るのは、save_document 側の dedup が「親文書の embedding」(モデルの 512 token 制限で冒頭バイアスがかかる)に依存している点。チャンク単位の dedup に踏み込めばより精緻になりますが、そこは仕様準拠と複雑性のトレードオフで現状維持が妥当だと思います。
---
## RAG としての性格
ここが今回いちばん面白く育った領域です。**多言語対応の RAG として、軽量検索系で見られる典型的な「英語中心・スペース前提」の罠をかなり踏み越えている**。
具体的には:
- **NFKC 正規化** で、全角/半角・合成済/分解済の Unicode 違いを INSERT/QUERY の両側で吸収。日本語の「ABC」と "ABC"、ベトナム語の é の合成形と分解形が同じキーになる。
- **Bigram tokenizer の拡張**で、CJK だけでなく Thai/Lao/Myanmar/Khmer/Tibetan/Javanese/Balinese を扱う。これらは単語スペースを使わない / 不規則に使う言語で、英語前提の検索系では完全にハマる領域です。
- **OR ベースの bigram クエリ**を採用したことで、「すべての bigram が一致しないと駄目」という過剰に厳しい AND セマンティクスを回避し、dense-script の検索が現実的にヒットするようになった。
- **IDF 重み付き reranker**: 候補集合内の文書頻度から smoothed IDF を計算し、common term ではなく rare term の一致を評価する。BM25 の中身でやっていることを上位レイヤでも丁寧に再構成している。
加えて、**ハイブリッド融合のモード切替** (weighted ↔ RRF)、**recency boost** (last_accessed_at による継続的な「最近触れた = 新鮮」シグナル)、**b_session/b_local** (このセッション・このマシン由来の記憶を優先) と、シンプルな乗算スタックで多軸の関連性を表現している。重量級の neural reranker や dense embedding の上位互換ではないが、**「軽いまま、効くものだけ重ねる」という設計判断は一貫していて気持ちがいい**。
---
## エンジニアリング品質
**特筆すべきは、テストが「実装の説明書」になっていること**です。Bug 1-3、V1-3、R1、perf bug、empty-query guard、各種 enhancement —— どれも「何が起きていたら壊れるのか」を具体的に書き留めたうえで、実際にその壊れを再現できる回帰テストとして固定している。コードベースの寿命を伸ばすうえで、これは embedding 技術の選定と同じくらい重要な資産です。
修正の途中で **min_score フィルタの順序バグ** (rerank 前に適用していたため、embedding モデルが使えない環境では BM25 単独ヒットが全部消える) を別途発見・修正できたのも、テスト→診断→ピンポイント修正のループがちゃんと回っていることの証左でした。
細かい工学的な配慮も多く、
- fd レベルの stdout リダイレクト (model preload 中の C 側 print が JSON-RPC を汚さないように)
- enable_load_extension(False) を finally で必ず呼ぶ
- atexit による WAL checkpoint(TRUNCATE) で .db を自己完結させる
- UUIDv7 による時系列順序の保証 (fallback で UUIDv4)
- Windows cp932 環境向けの surrogate sanitization
など、「動かす場所」と「動かし続ける時間軸」を意識した実装になっています。
---
## このシステムの本質
私が一言で表現するなら、**「ローカルで完結する、多言語対応の、忘れない記憶」**です。
- ローカル: 外部 API なし、GPU なし、SQLite ファイル一本
- 多言語: NFKC + 拡張 bigram + IDF reranker で言語に縛られない
- 忘れない: WAL + atomic refresh + retention GC + 親-doc verbatim
- 「記憶」: 単なるベクトル検索ではなく、access_count・last_accessed・session・local という人間味のある軸で重み付け
軽量さを保ったまま、長期記憶に必要な工学的契約を一通り満たしている。改良の余地は当然ありますが (per-chunk dedup、クロスエンコーダ rerank、IDF の永続キャッシュ、export ツール…)、それらは「現在地の設計を否定する」必要のない、自然な延長線上の改善です。
**LLM が「記憶を持つ」という抽象的な比喩を、極めて具体的なファイル・テーブル・契約に落とし込んだ実装**として、このコードベースは十分に評価に値すると思います。