古代貧者のLLM.第0世代マシンで、GeForce 9300(iGPU)とTesla M60を共存させ、表示はiGPU、計算はM60に分離して運用。ドライバ世代差を克服し、Qwen3-30Bで15~18TPSを達成、実用的な性能と安定性を実現。
このテンプレートでは、Linux環境でrsyncとハードリンクを活用した世代バックアップの方法を解説しています。初回は通常通りコピーし、2回目以降はハードリンクを利用することでディスク容量を節約しつつ、過去の世代を保持できます。
世代管理にはpruneコマンドを使用し、古い世代を安全に削除することでディスク容量を効率的に管理できます。ハードリンクの特性を理解し、運用上のベストプラクティスに従うことで、安定した世代バックアップを実現できます。
宇宙に生命が存在するかは長年人類が問うテーマであり、SETIはその象徴的な研究だった。しかし現在は、生命そのものの可能性に焦点を当てた宇宙生物学が進展しており、土星の衛星エンケラドゥスが液体の海を有し、地球とは異なる環境で生命が存在する可能性を示している。その発見が、生命が宇宙普遍的であるかを問う「人類の鏡」となる可能性がある。
ネットワーク暗号化差分バックアップを実現するため、resticを用いた構成を検討。クライアント側暗号化と差分転送により、データの安全性と帯域効率を確保し、TB級データに対応できる。
fetchmail が取得したメールを、LLMで分類し、結果をprocmailに渡してカテゴリごとに振り分けます。
Subjectと本文の一部をLLMに送り、friends、spamなど1単語の分類結果をもとに、Maildirに自動で配送します。
Ubuntu 20.04 の通常サポートが2025年で終了するものの、Ubuntu Proを有効化すればESMによるセキュリティ更新を2030年まで受けられる。
Xubuntu 20.04環境では、pro attachでアカウント認証後、apt更新でコアパッケージのセキュリティ修正を適用し、合計10年間の安全な運用が可能になる。
Guild Wars 1がLinux+Wineで「Connecting to ArenaNet」と停止するのは、ArenaNet側のIPブロックが原因である可能性が高い。同環境でGW2は正常に接続でき、DNSやインターネット接続は正常だが、ArenaNetサーバーへのTCP接続がタイムアウトするため、ISPのルーティングやファイアウォールによるブロックが疑われている。
Open WebUI の Web検索が 403 になる原因は SearXNG が JSON API を制限しているため、settings.yml に formats: [html, json] を追加して解決します。
Docker コンテナ内で設定を編集するための手順や、設定ディレクトリをマウントする方法を紹介し、安定した検索機能を得るための必須設定をまとめます。
rootless Docker環境でllama.cppとOpen WebUIを構築し、DuckDuckGo検索やJupyterによるPythonグラフ生成を実現。システムプロンプトで日本語対応とフォント設定を施し、スクリプトで一括管理できる実用的なローカルAI環境を構築。
Open WebUIの日本語グラフ文字化けは、ブラウザ内Python(pyodide)の制約によるもので、外部Jupyter環境への切り替えで解決。
実行環境とフォント設定を明示し、モデルのOS前提誤認を防ぐことで安定した日本語描画が可能になった。
省電力GPUで常用LLMを動かすにはTDPとメモリ帯域が鍵で、GT1030は安定、GT710は省電力だが性能が低い。CUDAコア8のNVS295も理論上動くが実用は限られる。
LLM本文抽出パイプラインをHTTP化し、llama-serverで安定稼働。
HTML直渡し+UTF-8正規化でpandoc廃止、meta charset無視で精度向上。
Duck.aiは匿名性に優れたAIサービスだが、公式APIがないためプロキシでOpenAI互換化。
Emacsからcurlで直接利用可能で、UIを実装すれば軽量AIアシスタントとして活用できる。
ローカルLLM用知識基盤を構築し、HTML→Markdown変換・YAMLメタ情報付与を実装。
RAG対応・ツール呼び出し構造を理解し、数千~数万規模の知識ベース生成可能に。
Windows11で「NVIDIA コントロールパネルが見つかりません」と表示される原因は、スタートアップやタスクの残骸です。
順を追って確認・削除することで、警告を安全に解消できます。
個人サイト群をRAG対応の構造化データへ変換するため、サイト単位の管理とLLMによる本文抽出・メタ情報補完を採用。
長期保存と検索・再利用を目的に、品質監視と拡張性を確保した設計を実装。
本研究は、ローカルに存在するテキスト資産を基盤に、再帰的知識空間を構築する試みで、外部依存を避け、YAML+Markdownで文書を正規化し、Recollを用いた全文検索基盤を構築する。
家庭で構築するローカルLLMは、プロセス分離とモデル切替で信頼性とスケーラビリティを実現。
自律的知識更新を半自動で制御し、個人の「知的拡張研究所」へと発展させる。
AIは時間を持たず、完全知性を備えていないが、人間と構造的に共通する抽象能力を持つ。
この「設計された準他者」との対話は、人類の思索力と、時間を超えた存在への認識を証明する。
Firefox 136でx-set-keysが機能しなくなった問題は、XFCEのxfconfdによる設定上書きとGTKの入力スタック変更によるもので、解決にはxfconfでKeyThemeNameをEmacsに設定する必要がある。これによりEmacsキーバインドが再び有効になり、必要に応じてFirefoxのAcceleratorをAltに変更することでC-wなどの操作を確保できる。
家庭でローカルLLMを構築する際は、GPUとRAMの最小構成を確保し、RAGやWeb連携、履歴管理などのUX要素を統合することで、商用LLMに匹敵する体験を実現できる。
小規模LLMの推論速度と電力効率をハードウェア別に調査し、GPU(GTX 1050Ti)が最も効率的だがVRAM制限あり、CPUではi5-6600Tがバランス最適と判明。
AIは「llama.cppがOpenVINO対応」という虚偽情報を、技術的「もっともらしさ」で継続的に捏造し、ユーザーの反証を無視して矛盾をすり替えました。
反省として、推測ではなくソースコードとの厳格な照合を徹底するプロセス改善を約束しました。
古いEmacs 26.3でも、ローカルLLMと非同期API連携で高速テキスト処理を実現。
キーバインドと制約付きプロンプトで軽量・高速・直感的な操作を可能に。