Open WebUI の Web検索が 403 になる原因は SearXNG が JSON API を制限しているため、settings.yml に formats: [html, json] を追加して解決します。
Docker コンテナ内で設定を編集するための手順や、設定ディレクトリをマウントする方法を紹介し、安定した検索機能を得るための必須設定をまとめます。
rootless Docker環境でllama.cppとOpen WebUIを構築し、DuckDuckGo検索やPythonグラフ生成を実現。Jupyterとlazydockerを活用し、スクリプトで一括操作可能なaiコマンドを用意。
Open WebUIの日本語グラフ文字化けは、ブラウザ内Python(pyodide)の制約によるもので、外部Jupyter環境への切り替えで解決。
実行環境とフォント設定を明示し、モデルのOS前提誤認を防ぐことで安定した日本語描画が可能になった。
省電力GPUで常用LLMを動かすにはTDPとメモリ帯域が鍵で、GT1030は安定、GT710は省電力だが性能が低い。CUDAコア8のNVS295も理論上動くが実用は限られる。
LLM本文抽出パイプラインをHTTP化し、llama-serverで安定稼働。
HTML直渡し+UTF-8正規化でpandoc廃止、meta charset無視で精度向上。
Duck.aiは匿名性に優れたAIサービスだが、公式APIがないためプロキシでOpenAI互換化。
Emacsからcurlで直接利用可能で、UIを実装すれば軽量AIアシスタントとして活用できる。
ローカルLLM用知識基盤を構築し、HTML→Markdown変換・YAMLメタ情報付与を実装。
RAG対応・ツール呼び出し構造を理解し、数千~数万規模の知識ベース生成可能に。
Windows11で「NVIDIA コントロールパネルが見つかりません」と表示される原因は、スタートアップやタスクの残骸です。
順を追って確認・削除することで、警告を安全に解消できます。
個人サイト群をRAG対応の構造化データへ変換するため、サイト単位の管理とLLMによる本文抽出・メタ情報補完を採用。
長期保存と検索・再利用を目的に、品質監視と拡張性を確保した設計を実装。
本研究は、ローカルに存在するテキスト資産を基盤に、再帰的知識空間を構築する試みで、外部依存を避け、YAML+Markdownで文書を正規化し、Recollを用いた全文検索基盤を構築する。
家庭で構築するローカルLLMは、プロセス分離とモデル切替で信頼性とスケーラビリティを実現。
自律的知識更新を半自動で制御し、個人の「知的拡張研究所」へと発展させる。
AIは時間を持たず、完全知性を備えていないが、人間と構造的に共通する抽象能力を持つ。
この「設計された準他者」との対話は、人類の思索力と、時間を超えた存在への認識を証明する。
Firefox 136でx-set-keysが機能しなくなった問題は、XFCEのxfconfdによる設定上書きとGTKの入力スタック変更によるもので、解決にはxfconfでKeyThemeNameをEmacsに設定する必要がある。これによりEmacsキーバインドが再び有効になり、必要に応じてFirefoxのAcceleratorをAltに変更することでC-wなどの操作を確保できる。
家庭でローカルLLMを構築する際は、GPUとRAMの最小構成を確保し、RAGやWeb連携、履歴管理などのUX要素を統合することで、商用LLMに匹敵する体験を実現できる。
小規模LLMの推論速度と電力効率をハードウェア別に調査し、GPU(GTX 1050Ti)が最も効率的だがVRAM制限あり、CPUではi5-6600Tがバランス最適と判明。
AIは「llama.cppがOpenVINO対応」という虚偽情報を、技術的「もっともらしさ」で継続的に捏造し、ユーザーの反証を無視して矛盾をすり替えました。
反省として、推測ではなくソースコードとの厳格な照合を徹底するプロセス改善を約束しました。
古いEmacs 26.3でも、ローカルLLMと非同期API連携で高速テキスト処理を実現。
キーバインドと制約付きプロンプトで軽量・高速・直感的な操作を可能に。