提高语言模型推理能力的chain-of-thought prompting方法
5 Questions
0 Views

提高语言模型推理能力的chain-of-thought prompting方法

Created by
@UndisputableEmerald

Questions and Answers

将以下方法与其主要用途进行匹配:

Chain-of-Thought Prompting = 提高算术、常识和符号推理任务的性能 PaLM 540B = 在数学单词问题的 GSM8K 基准测试中实现了最先进的准确性 CoT = 可以大幅度提高模型推理的性能 Standard Prompting = 可能仅代表大语言模型的性能下限

将以下模型与其特点进行匹配:

CoT = 对模型、CoT语言风格具有健壮性 小模型 = 使用 CoT 可能会产生负面效果 大模型 = 使用 CoT 效果较好 GPT-3 = 带有验证器的微调

将以下任务类型与其相关的方法进行匹配:

算术 = Chain-of-Thought Prompting 常识 = Chain-of-Thought Prompting 符号推理 = Chain-of-Thought Prompting 数学单词问题 = PaLM 540B

将以下测试与其相关的模型进行匹配:

<p>GSM8K 基准测试 = PaLM 540B 大语言模型的性能下限 = Standard Prompting 模型推理的性能 = CoT 模型、CoT语言风格的健壮性 = CoT</p> Signup and view all the answers

将以下模型与其相关的效果进行匹配:

<p>CoT = 在大模型上效果较好 小模型 = 使用 CoT 可能会产生负面效果 Standard Prompting = 可能仅代表大语言模型的性能下限 PaLM 540B = 在数学单词问题的 GSM8K 基准测试中实现了最先进的准确性</p> Signup and view all the answers

Use Quizgecko on...
Browser
Browser