LLMFunction

この機能には次が必要です:外部アカウント »

LLMFunction[prompt]

大規模言語モデル(LLM)プロンプトのためのテンプレートを表す.

LLMFunction[{prompt1,prompt2,}]

複数のプロンプトの組合せを表す.

LLMFunction[prompt,form]

応答に適用するイオンタープリタ form を含める.

LLMFunction[][params]

パラメータ params に適用された prompt についてのLLMサービス応答を与える,

詳細とオプション

  • LLMFunctionは大規模言語モデル(LLM)を使ったテキストの生成に使うことができる.この関数は,コンテンツの作成,文の完成,情報の抽出等が行える.
  • LLMFunctionは,外部サービスの認証,請求,インターネット接続を必要とする.
  • prompti は,以下の値をサポートする.
  • "string"静的テキスト
    LLMPrompt["name"]リポジトリのプロンプト
    StringTemplate[]テンプレートテキスト
    TemplateObject[]プロンプト作成のテンプレート
    {prompt1,}プロンプトのリスト
  • TemplateObjectで作成したプロンプトには,テキストと画像が入れられる.すべてのLLMが画像入力をサポートする訳ではない.
  • LLMFunctionは,以下のオプションをサポートする.
  • InsertionFunctionTextString式を挿入する前に適用する関数または形式
    CombinerFunctionStringJoinprompt 内の断片を繋ぎ合せるために適用する関数
    AuthenticationAutomatic明示的なユーザIDとAPIキー
    LLMEvaluator$LLMEvaluator使用するLLM設定
  • LLMEvaluatorは,LLMConfigurationオブジェクトまたは以下の任意のキーを持つ連想に設定することができる.
  • "MaxTokens"生成するトークンの最大数
    "Model"ベースモデル
    "PromptDelimiter"プロンプト間に挿入する文字列
    "Prompts"初期プロンプト
    "StopTokens"生成を中止するトークン
    "Temperature"サンプリング温度
    "ToolMethod"ツールの呼出しに使用するメソッド
    "Tools"使用可能にするLLMToolオブジェクトのリスト
    "TopProbabilities"サンプリングクラスのカットオフ
    "TotalProbabilityCutoff"サンプリング確率のカットオフ(核サンプリング)
  • "Model"の有効な形式には以下がある.
  • name名前付きのモデル
    {service,name}service からの名前付きのモデル
    <|"Service"service,"Name"name,"Task"task|>完全に指定されたモデル
  • 生成されたテキストは分布からサンプリングされる.サンプリングの詳細はLLMEvaluatorの以下の特性を使って指定できる.
  • "Temperature"tAutomatic正の温度 t を使ったサンプリング
    "TopProbabilities"kAutomatic最も可能性の高い k 個のクラスの中だけからサンプリングする
    "TopProbabilityCutoff"pAutomatic少なくとも p の累積確率で最も可能性の高い選択肢の中からサンプリングする (核サンプリング)
  • "Temperature"Automaticという設定はLLMFunction内で温度0度に解決される.その他のパラメータは指定された"Model"のデフォルトを使う.
  • 複数のプロンプトはLLMEvaluator"PromptDelimiter"特性によって分離される.
  • 次は,Authenticationの可能な値である.
  • Automatic認証スキームを自動選択する
    Environment環境変数内のキーをチェックする
    SystemCredentialシステムのキーチェーンのキーをチェックする
    ServiceObject[]サービスオブジェクトから認証を継承する
    assoc明示的なキーとユーザIDを与える
  • AuthenticationAutomaticとき,関数はEnvironmentおよびSystemCredential内の変数ToUpperCase[service]<>"_API_KEY"をチェックする.それ以外の場合はServiceConnect[service]が使われる.
  • Authenticationassoc を使うときの assoc は以下のキーを含むことができる.
  • "ID"ユーザID
    "APIKey"認証に使われたAPIキー
  • LLMFunctionは機械学習を使用する.含まれるメソッド,訓練集合,バイアスは,Wolfram言語のバージョンによって変化することがあり,結果として与えられる結果も異なることがある.

例題

すべて開くすべて閉じる

  (3)

料理手順を得るための関数を作成する:

ヘルパーツールを作成する:

この関数を使う:

都市をEntityとして返す関数を作成する:

この関数を使う:

スコープ  (3)

名前付きのパラメータを使う:

Associationを使ってこれを適用する:

パラメータのデフォルトを設定する:

画像を含む,複数部構成のプロンプトを使う:

特性と関係  (1)

パラメータがないLLMFunctionはLLMに直接プロンプトを送る:

これは,温度がゼロのLLMSynthesizeに等しい:

Wolfram Research (2023), LLMFunction, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMFunction.html.

テキスト

Wolfram Research (2023), LLMFunction, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMFunction.html.

CMS

Wolfram Language. 2023. "LLMFunction." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/LLMFunction.html.

APA

Wolfram Language. (2023). LLMFunction. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/LLMFunction.html

BibTeX

@misc{reference.wolfram_2024_llmfunction, author="Wolfram Research", title="{LLMFunction}", year="2023", howpublished="\url{https://reference.wolfram.com/language/ref/LLMFunction.html}", note=[Accessed: 21-November-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_llmfunction, organization={Wolfram Research}, title={LLMFunction}, year={2023}, url={https://reference.wolfram.com/language/ref/LLMFunction.html}, note=[Accessed: 21-November-2024 ]}