転載元機械之心。
工欲善其事、必先利其器。使いやすいツールを使用することで、私たちの生産と学習の効果と効率を大幅に向上させることができます。今日は、Obsidian に基づいた AI ツールのセットを紹介します。このセットには、ローカル LLM をデプロイする Ollama と 2 つの Obsidian プラグイン(BMO Chatbot と Ollama)が含まれています。
このツールセットは、私たちがノートを分析したり、要約したり、タイトルを考えたり、コードを書いたりするのを助けるだけでなく、私たちの想像力を広げ、内容を続けて書いたり、提案を提供したりするのにも役立ちます。
Obsidian の紹介#
Obsidian は現在最も人気のあるノートツールの一つですが、その能力はそれだけにとどまりません。ノートブックとして使用するだけでなく、個人の知識ベースや文書生産性ツールとしても利用できます!多くの人々はそれを自分の「第二の脳」と呼んでいます。
その利点には、Markdown のサポート、豊富なプラグインエコシステム、カスタムテーマのサポート、Wiki スタイルの文書リンク、内蔵の関係図、基本機能が完全に無料、完全なローカルストレージのサポートなどがあります……
これらの多くの利点が、Obsidian が世界中で多くのユーザーを獲得するのに役立っています。オンラインでは、多くの人々がこのツールを使用して知識を学んだり、論文を書いたり、小説を創作したり、スケジュールを計画したり、生活のあらゆる事柄を管理したりする経験を共有しています。その結果、このツールを中心にかなりの規模のニッチ市場が形成されており、テンプレート、コース、事前に設定されたデータベース(ボールト)が商品化されています。これは、Obsidian の非凡な能力を別の角度から証明しています。
(図注)Obsidian は Bilibili や YouTube で非常に人気のある話題です。
要するに、使いやすい学習と生産のツールを探している場合、または自分自身の第二の脳を構築したい場合、Obsidian は絶対に試す価値があります!
なぜ Obsidian で LLM を使用するのか?#
疑う余地はありません。私たちは今、大規模モデルの時代にいます。これらは私たちの効率と生産性を向上させるだけでなく、革新やさらなる可能性を探求するのにも役立ちます。
人々はすでに LLM の多くの素晴らしい使い方を開発しています。ここでは、Obsidian で実現できるいくつかの使い方を簡単に示し、微細な観察を通じて、より興味深いまたは有用な使い方を探求し、発見する手助けをします。
最初の例は、筆者が前の段落で「見微知著」という成語を忘れたとき、追加の検索エンジンを使用したり、助けを求める電話をかけたりすることなく、隣に待機しているチャットボットに尋ねるだけで、すぐに欲しい結果を得られたことです。
ここでは、BMO Chatbot というプラグインを使用しています。このプラグインは、チャットボットの形式で LLM をあなたの Obsidian に統合します。このプラグインを使用すると、現在の文書に基づいてチャットを行うこともできます。以下のように、LLM に中国語でこの英語の報道を要約させ、いくつかのタイトルを提案させました:
もちろん、物語を続けるのもお手の物です。次に、LLM にフレデリック・ブラウンの有名な世界で最も短い小説を続けさせました:
地球上最後の人が部屋に一人で座っていると、突然、ノックの音が聞こえた……
ここでは、別のプラグイン Ollama と事前設定されたコマンドを使用しています。そのプロンプトは、「上記の内容に基づいて物語を続けてください。200 字で続け、キャラクターのスタイルを一致させ、後の文にサスペンスを残してください。」です。
また、このプラグインの動作速度が少し遅いことが明らかです。これは、ここで使用されているローカルにインストールされた LLM——8B バージョンの llama3.1 モデルが、現在のハードウェアに制限されているためです。
さて、例はここまでです。次に、これらのプラグインと LLM をインストールして使用する方法を見ていきましょう。
ローカル LLM のインストール#
私たちの大多数にとって、ローカルコンピュータで実行できる LLM の性能は、OpenAI などの大企業が提供するオンラインサービスと比較することはできませんが、ローカル LLM の最大の利点はデータのプライバシーとセキュリティです —— ローカル LLM を使用すると、すべての計算が自分のコンピュータ上で行われるため、データがサービスプロバイダーに送信されることを心配する必要はありません。
もちろん、自分のノートのプライバシーを気にしない場合は、オンラインサービスを使用しても問題なくタスクを完了できるため、このステップを省略することもできます。
ローカルで LLM を使用するために、Ollama というツールを使用します。Ollamaは、非常に使いやすいローカルデプロイ LLM ツールで、誰でも使用でき、ダウンロードしてインストールするだけで済みます。アドレス:https://github.com/ollama/ollama/releases
その後、Ollama がサポートするモデルライブラリにアクセスします:https://ollama.com/library 。自分のニーズとコンピュータのハードウェアに基づいてモデルを選択し、対応するコードを実行します。たとえば、8B パラメータの指示微調整と Q8_0 量子化された Llama 3.1 モデルをインストールしたい場合は、次のコマンドを実行します:ollama run llama3.1:8b-instruct-q8_0
もちろん、異なる規模や異なるタスク(たとえば、プログラミング)に微調整された複数のモデルをインストールすることもでき、ニーズに応じて速度と生成効果の間で選択を調整することができます。
BMO ChatBot と Ollama プラグインのインストールと設定#
これらの 2 つのプラグインはすでに Obsidian のコミュニティプラグインマーケットに登場しており、検索してダウンロードし、有効化するだけで済みます。
BMO Chatbot プラグインの設定#
オプションに入ると、General 設定でインストールしたローカルモデルや設定したオンラインモデルを選択できます。以下の図のように、私はローカルに Llama 3.1 と Llama 3 をインストールし、OpenRouter の API(多数のモデルにアクセス可能)と智谱のオンライン言語モデル GLM-4-Flash を設定しました。ここで最大トークン数、温度(0-1 の間、値が大きいほど生成されるテキストがより創造的になる)を設定し、現在のノートをインデックスするかどうかを選択できます。
Prompts では、ノートを通じてシステムプロンプトを設定できます。
さらに下の API Connections エリアでは、オンラインモデルを設定できます。
設定が完了したら、Obsidian の右側のバーを通じて、または Ctrl+P/Cmd+P ショートカットを使用してこれらの LLM を使用できます。
BMO チャットボットを使用するだけでなく、このプラグインは LLM を使用して現在の文書の名前を変更したり、選択したテキストをプロンプトとして使用してコンテンツを生成したりすることもサポートしています。
Ollama プラグインの設定#
Ollama プラグインは、前述の Ollama を通じてインストールしたローカルモデルのみをサポートしていますが、その利点は、一般的なプロンプトコマンドを事前設定できることです。その後、Ctrl+P/Cmd+P を使用して簡単に呼び出すことができます。
以下はコード生成の例です:
結論#
Obsidian と LLM ツールの組み合わせは、私たちの学習と生産作業に大きな便利さをもたらします。Obsidian は強力なノートツールであり、豊富なプラグインエコシステムをサポートするだけでなく、ローカルに LLM をデプロイすることで私たちの効率と革新力を向上させることができます。
BMO Chatbot と Ollama プラグインをインストールして使用することで、ノート分析、要約、タイトル生成、内容の続き書きなど、さまざまな機能を簡単に Obsidian に統合できます。これにより、私たちは時間と労力を節約でき、創造力を刺激することができます。
もちろん、これらのツールを使用する際には、データのプライバシーとセキュリティの問題にも注意を払う必要があります。ローカルに LLM をデプロイすることで、私たちのデータが個人のデバイスから離れないことが保証され、データ漏洩のリスクを低減できます。
要するに、Obsidian+LLM は私たちに新しい扉を開き、情報爆発の時代においてテクノロジーの力をより良く活用し、自分を高めることを可能にします。