LLMConfiguration

この機能には次が必要です:外部アカウント »

LLMConfiguration[]

LLMの設定を表す.

LLMConfiguration[propval]

指定の特性が val になっている$LLMEvaluatorに基づいて設定する.

LLMConfiguration[<|prop1->val1,prop2->val2,...|>]

いくつかの特性と値を指定する.

LLMConfiguration[LLMConfiguration[],propspec]

既存の設定に基づいて設定する.

詳細

  • LLMConfigurationオブジェクトは,LLMEvaluatorオプションを介して,LLMSynthesizeChatObjectChatEvaluate等の関数で使うことができる.
  • $LLMEvaluatorLLMConfigurationに設定されている.
  • 次は,LLMConfigurationオブジェクトのサポートされる特性である.
  • "MaxTokens"生成するトークンの最大数
    "Model"ベースモデル
    "PromptDelimiter"プロンプト間に挿入する文字列
    "Prompts"初期プロンプトまたはLLMPromptGeneratorオブジェクト
    "StopTokens"生成を止めるトークン
    "Temperature"サンプリング温度
    "ToolMethod"ツールの呼出しメソッド
    "Tools"使用可とするLLMToolオブジェクトのリスト
    "TopProbabilities"サンプリングクラスのカットオフ
    "TotalProbabilityCutoff"サンプリング確率のカットオフ(核サンプリング)
  • 次は,"Model"の有効な設定である.
  • name名前付きのモデル
    {service,name}service からの名前付きのモデル
    <|"Service"service,"Name"name|>完全に指定されたモデル
  • LLMによって生成されたテキストは,配布物からサンプリングされる.サンプリングの詳細は,以下のLLMConfigurationの特性で指定できる.
  • "Temperature"tAutomatic正の温度 t を使ったサンプル
    "TopProbabilities"kAutomatick 個の最高確率クラス内のみでサンプリングする
    "TotalProbabilityCutoff"pAutomatic少なくとも p の累積確率で最も可能性の高い選択肢の中からサンプリングする (核サンプリング)
  • これらのパラメータの値Automaticには,指定された"Model"のデフォルト値が使われる.
  • 次は,"Prompts"の有効な設定である.
  • "string"静的テキスト
    LLMPrompt["name"]リポジトリのプロンプト
    LLMPromptGenerator[]LLMPromptGeneratorオブジェクト
    {prompt1,}プロンプトのリスト
  • "PromptDelimiter"の設定で複数のプロンプトの繋ぎ方を決定する.
  • 次は,"ToolMethod"の有効な設定である.
  • Automaticservice でサポートされている場合はツールを使う
    "Service"service のツールメカニズムに頼る
    "Textual"プロンプトに基づくツールの呼出しを使う
    assoc特定のテキストプロンプトと解析
  • 次は,assoc 中の有効なキーである.
  • "ToolPrompt"ツールの形式を指定するプロンプト
    "ToolRequestParser"ツールのリクエストを解析する関数
    "ToolResponseInsertionFunction"ツールの応答を直列化する関数
  • "ToolPrompt"が指定したプロンプトは,少なくとも1つのツールが指定されなければ使われない.
  • "ToolPrompt"はテンプレートでよく,LLMConfigurationの全特性を含む連想に適用される.
  • "ToolRequestParser"は,LLMの直近の完成文を取得して以下の形式の一つを返す関数を指定する.
  • Noneツールのリクエストなし
    {{start,end},LLMToolRequest[]}ツールのリクエスト
    {{start,end},Failure[]}無効なツールのリクエスト
  • 整数のペア{start,end}は,ツールのリクエストが出現する完成文字列内の文字範囲を指示する.
  • LLMConfigurationで指定できるすべてのパラメータをすべてのLLMサービスがサポートする訳ではない.

例題

すべて開くすべて閉じる

  (3)

プロンプトを含む設定を作成する:

LLM評価でこの設定を使う:

設定の複数の特性を指定する:

既存の設定を変更する:

スコープ  (9)

LLMで生成されたテキストのトークン制限を指定する:

生成に使用するサービスとモデルを指定する:

いくつかのプロンプトとLLMに送信する前のそれらプロンプトの繋ぎ方を指定する:

サンプリングと零度で行うように指定する:

分布を切り取る前の最大累積確率を指定する(核サンプリング):

サンプリングを取り出す最高確率トークンの数を指定する:

LLMの生成過程を止める一つ又は複数の代替文字列を指定する:

必要な場合にLLMが呼び出せるツールを指定する:

ツール呼出しがネイティブのAPIメカニズムを使うように指定する:

一度に1つの呼出しを行う,テキストベースの代替メソッドと比較する:

Wolfram Research (2023), LLMConfiguration, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMConfiguration.html.

テキスト

Wolfram Research (2023), LLMConfiguration, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMConfiguration.html.

CMS

Wolfram Language. 2023. "LLMConfiguration." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/LLMConfiguration.html.

APA

Wolfram Language. (2023). LLMConfiguration. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/LLMConfiguration.html

BibTeX

@misc{reference.wolfram_2024_llmconfiguration, author="Wolfram Research", title="{LLMConfiguration}", year="2023", howpublished="\url{https://reference.wolfram.com/language/ref/LLMConfiguration.html}", note=[Accessed: 21-November-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_llmconfiguration, organization={Wolfram Research}, title={LLMConfiguration}, year={2023}, url={https://reference.wolfram.com/language/ref/LLMConfiguration.html}, note=[Accessed: 21-November-2024 ]}