LLMの設定を表す.
LLMConfiguration[propval]
指定の特性が val になっている$LLMEvaluatorに基づいて設定する.
LLMConfiguration[<|prop1->val1,prop2->val2,...|>]
いくつかの特性と値を指定する.
LLMConfiguration[LLMConfiguration[…],propspec]
既存の設定に基づいて設定する.
LLMConfiguration
LLMの設定を表す.
LLMConfiguration[propval]
指定の特性が val になっている$LLMEvaluatorに基づいて設定する.
LLMConfiguration[<|prop1->val1,prop2->val2,...|>]
いくつかの特性と値を指定する.
LLMConfiguration[LLMConfiguration[…],propspec]
既存の設定に基づいて設定する.
詳細
- LLMConfigurationオブジェクトは,LLMEvaluatorオプションを介して,LLMSynthesize,ChatObject,ChatEvaluate等の関数で使うことができる.
- $LLMEvaluatorはLLMConfigurationに設定されている.
- 次は,LLMConfigurationオブジェクトのサポートされる特性である.
-
"MaxTokens" 生成するトークンの最大数 "Model" ベースモデル "PromptDelimiter" プロンプト間に挿入する文字列 "Prompts" 初期プロンプトまたはLLMPromptGeneratorオブジェクト "StopTokens" 生成を止めるトークン "Temperature" サンプリング温度 "ToolMethod" ツールの呼出しメソッド "Tools" 使用可とするLLMToolオブジェクトのリスト "TopProbabilities" サンプリングクラスのカットオフ "TotalProbabilityCutoff" サンプリング確率のカットオフ(核サンプリング) -
"MaxTokens" 生成するトークンの最大数 "Model" ベースモデル "PromptDelimiter" プロンプト間に挿入する文字列 "Prompts" 初期プロンプトまたはLLMPromptGeneratorオブジェクト "Reasoning" 推論設定 "StopTokens" 生成を止めるトークン "Temperature" サンプリング温度 "ToolMethod" ツールの呼出しメソッド "Tools" 使用可とするLLMToolオブジェクトのリスト "TopProbabilities" サンプリングクラスのカットオフ "TotalProbabilityCutoff" サンプリング確率のカットオフ(核サンプリング) - 次は,"Model"の有効な設定である.
-
name 名前付きのモデル {service,name} service からの名前付きのモデル <|"Service"service,"Name"name|> 完全に指定されたモデル - LLMによって生成されたテキストは,配布物からサンプリングされる.サンプリングの詳細は,以下のLLMConfigurationの特性で指定できる.
-
"Temperature"t Automatic 正の温度 t を使ったサンプル "TopProbabilities"k Automatic k 個の最高確率クラス内のみでサンプリングする "TotalProbabilityCutoff"p Automatic 少なくとも p の累積確率で最も可能性の高い選択肢の中からサンプリングする (核サンプリング) - これらのパラメータの値Automaticには,指定された"Model"のデフォルト値が使われる.
- 次は,"Reasoning"の有効な設定である.
-
None 推論は使用しない "spec" 名前付きの指定"spec"を使う Quantity[n,"Tokens"] n 個のトークンを推論に割り当てる - 次は,"Prompts"の有効な設定である.
-
"string" 静的テキスト LLMPrompt["name"] リポジトリのプロンプト LLMPromptGenerator[…] LLMPromptGeneratorオブジェクト {prompt1,…} プロンプトのリスト - "PromptDelimiter"の設定で複数のプロンプトの繋ぎ方を決定する.
- 次は,"ToolMethod"の有効な設定である.
-
Automatic サポートされている場合は"Service"を,それ以外の場合は"Textual"を使う "Service" service のツールメカニズムに頼る "Textual" プロンプトに基づくツールの呼出しを使う assoc 特定のテキストプロンプトと解析 - 次は,assoc 中の有効なキーである.
-
"ToolPrompt" ツールの形式を指定するプロンプト "ToolRequestParser" ツールのリクエストを解析する関数 "ToolResponseInsertionFunction" ツールの応答を直列化する関数 - "ToolPrompt"が指定したプロンプトは,少なくとも1つのツールが指定されなければ使われない.
- "ToolPrompt"はテンプレートでよく,LLMConfigurationの全特性を含む連想に適用される.
- "ToolRequestParser"は,LLMの直近の完成文を取得して以下の形式の一つを返す関数を指定する.
-
None ツールのリクエストなし {{start,end},LLMToolRequest[…]} ツールのリクエスト {{start,end},Failure[…]} 無効なツールのリクエスト - 整数のペア{start,end}は,ツールのリクエストが出現する完成文字列内の文字範囲を指示する.
- LLMConfigurationで指定できるすべてのパラメータをすべてのLLMサービスがサポートする訳ではない.
例題
すべて開く すべて閉じるスコープ (9)
関連するガイド
-
▪
- 知識の表現と利用 ▪
- 大規模言語モデル関連機能 ▪
- ニューラルネットワーク ▪
- Wolframシステムの設定 ▪
- 機械学習
テキスト
Wolfram Research (2023), LLMConfiguration, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMConfiguration.html (2025年に更新).
CMS
Wolfram Language. 2023. "LLMConfiguration." Wolfram Language & System Documentation Center. Wolfram Research. Last Modified 2025. https://reference.wolfram.com/language/ref/LLMConfiguration.html.
APA
Wolfram Language. (2023). LLMConfiguration. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/LLMConfiguration.html
BibTeX
@misc{reference.wolfram_2025_llmconfiguration, author="Wolfram Research", title="{LLMConfiguration}", year="2025", howpublished="\url{https://reference.wolfram.com/language/ref/LLMConfiguration.html}", note=[Accessed: 25-October-2025]}
BibLaTeX
@online{reference.wolfram_2025_llmconfiguration, organization={Wolfram Research}, title={LLMConfiguration}, year={2025}, url={https://reference.wolfram.com/language/ref/LLMConfiguration.html}, note=[Accessed: 25-October-2025]}