LLMSynthesize

この機能には次が必要です:外部アカウント »

LLMSynthesize[prompt]

入力 prompt に従ってテキストを生成する.

LLMSynthesize[{prompt1,}]

複数の promptiを結合する.

LLMSynthesize[,prop]

生成されたテキストの指定された特性を返す.

詳細とオプション

  • LLMSynthesizeは,大規模言語モデル(LLM)を使い,プロンプトで指定された指示に従ってテキストを生成する.この関数は,コンテンツの作成,文の完成,情報の抽出等ができる.
  • LLMSynthesizeは,外部サービスの認証,請求,インターネット接続を必要とする.
  • 以下は,prompt の可能な値である.
  • "string"静的テキスト
    LLMPrompt["name"]リポジトリプロンプト
    StringTemplate[]テンプレートテキスト
    TemplateObject[]プロンプト作成用テンプレート
    Image[]画像
    {prompt1,}プロンプトのリスト
  • テンプレートオブジェクトはTemplateObject[][]を介して自動的に文字列に変換される.
  • TemplateObjectで作成したプロンプトにはテキストと画像が入れられる.
  • すべてのLLMが画像入力をサポートする訳ではない.
  • 次は,prop のサポートされている値である.
  • "CompletionText"LLMからのテキストによる答
    "CompletionToolsText"ツールとのインタラクションを含んだテキストによる答
    "FullText""History"の文字列表現
    "History"プロンプトと完成文を含む完全な履歴
    "Prompt"LLMに送信されたコンテンツ
    "PromptText""Prompt"の文字列表現
    "ToolRequests"LLMToolRequestオブジェクトのリスト
    "ToolResponses"LLMToolResponseオブジェクトのリスト
    {prop1,prop2,}複数の特性
    Allすべての特性
  • "FullTextAnnotations""ToolRequests"および"ToolResponses"{start,end}val の形式の要素を含む連想を返す.ただし,val はオブジェクトを参照し,startend は文字列の範囲を参照する.val"FullText"で指定される.
  • 次は,指定可能なオプションである.
  • Authentication Automatic明示的なユーザIDとAPIキー
    LLMEvaluator $LLMEvaluator使用するLLM設定
    ProgressReporting$ProgressReporting計算の進捗状況の報告方法
  • LLMEvaluatorは,LLMConfigurationオブジェクトまたは以下のキーの任意のものを含む連想に設定できる.
  • "MaxTokens"生成するトークンの最大数
    "Model"ベースモデル
    "PromptDelimiter"プロンプト間に使用するデリミタ
    "Prompts"初期プロンプトまたはLLMPromptGeneratorオブジェクト
    "StopTokens"生成を止めるトークン
    "Temperature"サンプリング温度
    "ToolMethod"ツールの呼出しに使用するメソッド
    "Tools"使用可能にするLLMToolオブジェクトのリスト
    "TopProbabilities"サンプリングクラスのカットオフ
    "TotalProbabilityCutoff"サンプリング確率のカットオフ(核サンプリング)
  • 次は,"Model"の有効な形式である.
  • name名前付きのモデル
    {service,name}service からの名前付きのモデル
    <|"Service"service,"Name"name,"Task"task|>完全に指定されたモデル
  • タスクの可能な値には"Chat""Completion"がある.
  • 生成されたテキストは,配布物からサンプリングされる.サンプリングの詳細は,LLMEvaluatorの以下の特性で指定できる.
  • "Temperature"tAutomatic正の温度 t を使ったサンプリング
    "TopProbabilities"kAutomatic最もありそうな k 個のクラスのみからのサンプリング
    "TotalProbabilityCutoff"pAutomatic最低でも p の累積確率を持つ最もありそうな選択肢からのサンプリング(核サンプリング)
  • これらのパラメータの値Automaticには,指定された"Model"のデフォルト値が使われる.
  • LLMEvaluator"Prompts"特性で指定されたプロンプトは,タスクが"Chat"の場合はロール(役割)が"System"に設定されて入力 prompt の前に加えられる.
  • 複数のプロンプトはLLMEvaluator"PromptDelimiter"特性で分離される.
  • 次は,Authenticationの可能な値である.
  • Automatic認証スキームを自動選択する
    Environment環境変数のキーをチェックする
    SystemCredentialシステムキーチェーンのキーをチェックする
    ServiceObject[]サービスオブジェクトから認証を継承する
    assoc明示的なキーとユーザIDを与える
  • AuthenticationAutomaticのとき,関数はEnvironmentSystemCredentialの変数ToUpperCase[service]<>"_API_KEY"をチェックする.それ以外の場合はServiceConnect[service]が使われる.
  • Authenticationassocassoc は以下のキーを含むことができる.
  • "ID"ユーザID
    "APIKey"認証に使われるAPIキー
  • LLMSynthesizeは機械学習を使う.含まれるメソッド,訓練集合,バイアスはWolfram言語のバージョンによって異なることがあり,与えられる結果も異なる可能性がある.

例題

すべて開くすべて閉じる

  (3)

簡単な説明に基づいてテキストを合成する:

質問する:

LLMのフルコンテキストを返す:

スコープ  (3)

プロンプトに基づいてテキストを合成する:

テキストと画像があるプロンプトを使う:

返す特性を指定する:

オプション  (8)

Authentication  (4)

APIに認証キーを与える:

ユーザIDとAPIキーの両方を与える:

オペレーティングシステムのキーチェーンを使ってAPIキーを格納する:

システムのキーチェーンでキーを探す:

APIキーを環境変数に格納する:

システム環境でキーを探す:

サービスオブジェクトを介して認証する:

LLMEvaluator  (4)

デフォルトで,テキストの生成は中止トークンが生成されるまで続く:

生成するサンプル(トークン)の数を制限する:

温度0でサンプリングが実行されるように指定する:

より多くのバリエーションが生成されるようにより高い温度を指定する:

分布を切り捨てる前に最大累積確率を指定する:

生成に使用するサービスとモデルを指定する:

アプリケーション  (1)

プログラムを使ってプロンプトを構築する関数を定義する:

これを使って自然言語の同義語生成器を作成する:

これを一連の引数に適用する:

考えられる問題  (1)

テキスト生成が文字による指示に従う保証はない:

正確な計算には厳密な算術を使う:

Wolfram Research (2023), LLMSynthesize, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMSynthesize.html.

テキスト

Wolfram Research (2023), LLMSynthesize, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMSynthesize.html.

CMS

Wolfram Language. 2023. "LLMSynthesize." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/LLMSynthesize.html.

APA

Wolfram Language. (2023). LLMSynthesize. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/LLMSynthesize.html

BibTeX

@misc{reference.wolfram_2024_llmsynthesize, author="Wolfram Research", title="{LLMSynthesize}", year="2023", howpublished="\url{https://reference.wolfram.com/language/ref/LLMSynthesize.html}", note=[Accessed: 21-November-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_llmsynthesize, organization={Wolfram Research}, title={LLMSynthesize}, year={2023}, url={https://reference.wolfram.com/language/ref/LLMSynthesize.html}, note=[Accessed: 21-November-2024 ]}