ChatEvaluate

该功能需要外部账户 »

ChatEvaluate[chat,prompt]

prompt 及其后续内容追加到 ChatObject chat.

ChatEvaluate[prompt]

表示可应用于 ChatObject 的算符形式的 ChatEvaluate.

更多信息和选项

  • ChatEvaluate 被用于 ChatObject 中继续进行对话.
  • ChatEvaluate 需要外部服务认证、计费和互联网连接.
  • prompt 的可能值包括:
  • "text"静态文本
    LLMPrompt["name"]存储库提示
    StringTemplate[]模板文本
    TemplateObject[]创建文本的模板
    Image[]图像
    {prompt1,}提示列表
  • 使用 TemplateObject 创建的提示可以包含文本和图像. 并非所有 LLM 都支持图像输入.
  • 可指定以下选项:
  • Authentication Inherited明确的用户 ID 和 API 密钥
    LLMEvaluator Inherited使用的 LLM 配置
    ProgressReporting$ProgressReporting如何报告计算进度
  • 如果 LLMEvaluator 被设为 Inherited,使用 chat 指定的 LLM 配置.
  • LLMEvaluator 可被设为 LLMConfiguration 对象或含有以下键的关联:
  • "MaxTokens"生成词元的最大数量
    "Model"基础模型
    "PromptDelimiter"在提示符之间插入字符串
    "Prompts"初始提示或 LLMPromptGenerator 对象
    "StopTokens"用来指示停止生成的词元
    "Temperature"采样温度
    "ToolMethod"用于工具调用的方法
    "Tools"要提供的 LLMTool 对象列表
    "TopProbabilities"采样类型截止
    "TotalProbabilityCutoff"采样概率截止(核取样)
  • "Model" 的有效形式包括:
  • name已命名模型
    {service,name}来自 service 的已命名模型
    <|"Service"service,"Name"name|>完全指定的模型
  • "Prompts" 中指定的提示将添加到 chat 的消息中,角色设置为 "System".
  • "PromptDelimiter" 属性分隔多个提示.
  • 生成的文本采样自一个分布. 可用 LLMEvaluator 的以下属性指定采样的详细信息:
  • "Temperature"tAutomatic用正的温度 t 进行采样
    "TopProbabilities"kAutomatic仅在 k 个最高概率类别中进行采样
    "TotalProbabilityCutoff"pAutomatic在累积概率至少为 p 的最可能的选择中进行抽样(核心抽样)
  • 这些参数的 Automatic 值使用指定 "Model" 的默认值.
  • "ToolMethod" 的可能设置包括:
  • "Service"依托 service 的工具机制
    "Textual"使用基于提示的工具调用
  • Authentication 的可能的值为:
  • Automatic自动选择认证方式
    Inheritedchat 中继承设置
    Environment检查环境变量中的密钥
    SystemCredential检查系统钥匙串中的密钥
    ServiceObject[]从服务对象继承认证
    assoc给出明确的密钥和用户 ID
  • AuthenticationAutomatic 时,函数会检查 EnvironmentSystemCredential 中的变量 ToUpperCase[service]<>"_API_KEY";否则会使用 ServiceConnect[service].
  • 当使用 Authenticationassoc 时,assoc 可含有以下键:
  • "ID"用户的身份
    "APIKey"用于认证的 API 密钥
  • ChatEvaluate 使用机器学习. 在不同版本的 Wolfram 语言中,其方法、训练集和偏差可能会改变并给出不同的结果.

范例

打开所有单元关闭所有单元

基本范例  (3)

创建新的聊天:

向对话添加消息和回复:

创建指定多模式模型的聊天:

现在,文字和图像都可以在对话中使用:

使用工具创建聊天对象:

显示 LLM 答案和调用工具的步骤:

范围  (3)

开始新的对话:

继续现有对话:

将函数用作运算符:

选项  (10)

Authentication  (4)

为 API 提供身份验证密钥:

在系统钥匙串中查找密钥:

指定密钥的名称:

在系统环境中查找密钥:

通过服务对象认证:

LLMEvaluator  (6)

指定用于生成答案的服务:

同时指定服务和模型:

默认情况下,文本生成一直持续到生成终止词元为止:

限制生成的样本(词元)的数量:

指定采样应在零温度下进行:

指定高一点儿的温度,使生成的内容有更多的变化:

指定截断分布前的最大累积概率:

指定用于生成的服务和模型:

指定要自动插入的提示:

应用  (1)

工具调用  (1)

定义一个可由 LLM 调用的工具:

使用该工具实例化一个聊天对象:

提出一个可以通过该工具获得准确答案的问题:

可能存在的问题  (1)

评估特定服务的聊天会话时会嵌入身份验证信息:

使用默认设置 AuthenticationInherited,身份验证将无法在不同的服务上运行:

使用 AuthenticationAutomatic 或为新服务重新连接提供显式身份验证:

Wolfram Research (2023),ChatEvaluate,Wolfram 语言函数,https://reference.wolfram.com/language/ref/ChatEvaluate.html.

文本

Wolfram Research (2023),ChatEvaluate,Wolfram 语言函数,https://reference.wolfram.com/language/ref/ChatEvaluate.html.

CMS

Wolfram 语言. 2023. "ChatEvaluate." Wolfram 语言与系统参考资料中心. Wolfram Research. https://reference.wolfram.com/language/ref/ChatEvaluate.html.

APA

Wolfram 语言. (2023). ChatEvaluate. Wolfram 语言与系统参考资料中心. 追溯自 https://reference.wolfram.com/language/ref/ChatEvaluate.html 年

BibTeX

@misc{reference.wolfram_2024_chatevaluate, author="Wolfram Research", title="{ChatEvaluate}", year="2023", howpublished="\url{https://reference.wolfram.com/language/ref/ChatEvaluate.html}", note=[Accessed: 18-November-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_chatevaluate, organization={Wolfram Research}, title={ChatEvaluate}, year={2023}, url={https://reference.wolfram.com/language/ref/ChatEvaluate.html}, note=[Accessed: 18-November-2024 ]}