LLMResourceFunction
LLMResourceFunction["name"]
指定の名前のLLMFunctionを取り出す.
LLMResourceFunction[loc]
指定の場所からLLMFunctionをインポートする.
LLMResourceFunction[…][params]
指定のLLMFunctionをパラメータ params に適用する.
詳細とオプション
- LLMResourceFunctionは,ローカルに保存された,あるいはクラウドやWolfram Prompt Repositoryに保存されているリソースを取り出すことができる.
- LLMResourceFunctionには,外部サービスの認証,請求,インターネット接続が必要である.
- LLMResourceFunction["name"]の名前は,パブリックリポジトリに公開されている,ResourceRegisterを使って登録されている,あるいは定義ノートブックからそれまでに配備されたものでなければならない.
- LLMResourceFunction[loc]は,LocalObjectやCloudObjectを含む,それまでのプロンプトリソース配備の場所を受け入れる.
- LLMResourceFunctionによって返されたLLMFunctionは,プロンプトだけでなく解釈と構成設定も含むことができる.LLMPromptを使って直接プロンプトにアクセスする.
- LLMResourceFunctionは次のオプションをサポートする.
-
Authentication Automatic 明示的なユーザIDとAPIキー LLMEvaluator $LLMEvaluator 使用するLLM設定 - LLMEvaluatorは,LLMConfigurationオブジェクトまたは以下の任意のキーを持つ連想に設定することができる.
-
"Model" ベースモデル "Temperature" サンプリング温度 "TotalProbabilityCutoff" サンプリング確率のカットオフ(核サンプリング) "Prompts" プロンプト "PromptDelimiter" プロンプト間に使うデリミタ "StopTokens" 生成を中止するトークン "Tools" 使用するLLMToolオブジェクトのリスト "ToolPrompt" ツールの形式を指定するプロンプト "ToolRequestParser" ツールのリクエストをパースする関数 "ToolResponseString" ツールの応答を直列化する関数 - "Model"の有効な形式には以下がある.
-
name 名前付きのモデル {service,name} service からの名前付きのモデル <"Service"service,"Name"name,"Task"task > 完全に指定されたモデル - 生成されたテキストは分布からサンプリングされる.サンプリングの詳細はLLMEvaluatorの以下の特性を使って指定できる.
-
"Temperature"t Automatic 正の温度 t を使ったサンプリング "TopProbabilityCutoff"p Automatic 少なくとも p の累積確率で最も可能性の高い選択肢の中からサンプリングする (核サンプリング) - "Temperature"Automaticという設定はLLMFunction内で温度0度に解決される.
- 複数のプロンプトはLLMEvaluatorの"PromptDelimiter"特性によって分離される.
- 次は,Authenticationの可能な値である.
-
Automatic 認証スキームを自動選択する Environment 環境変数内のキーをチェックする SystemCredential システムのキーチェーンのキーをチェックする ServiceObject[…] サービスオブジェクトから認証を継承する assoc 明示的なキーとユーザIDを与える - AuthenticationAutomaticのとき,関数はEnvironmentおよびSystemCredential内の変数"OPENAI_API_KEY"をチェックする.それ以外の場合はServiceConnect["OpenAI"]を使う.
- Authenticationassoc を使うときの assoc は以下のキーを含むことができる.
-
"ID" ユーザID "APIKey" 認証に使われたAPIキー - LLMFunctionは機械学習を使用する.含まれるメソッド,訓練集合,バイアスは,Wolfram言語のバージョンによって変化することがあり,結果として与えられる結果も異なることがある.
例題
すべて開くすべて閉じる例 (2)
スコープ (1)
ResourceObjectからプロンプトを取り出す:
オプション (1)
LLMEvaluator (1)
デフォルトの評価器の場合,LLMResourceFunctionは温度0度を使い,通常は同じ入力に対して同じ結果を返す:
よりランダムな結果を生成するために,LLMEvaluatorオプションを使って非零の温度を設定する:
テキスト
Wolfram Research (2023), LLMResourceFunction, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMResourceFunction.html.
CMS
Wolfram Language. 2023. "LLMResourceFunction." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/LLMResourceFunction.html.
APA
Wolfram Language. (2023). LLMResourceFunction. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/LLMResourceFunction.html