【笔记】提示工程 #48

Open
opened 2024-09-11 00:19:12 +08:00 by 11704491662cs · 0 comments

提示词:

  • 概念:提供给模型的文本片段,用于指导模型输出
  • 目的:提供上下文,让模型更好的识别意图并生成回答
    提示工程:也叫「指令工程」
  • 思想:通过精心设计提示词,来显著提高模型的性能和输出质量
  • 类比:prompt -> 编程语言;prompt工程 -> 软件工程;prompt工程师 -> 程序员

管理环境变量:
pip install python-dotenv

提示工程基础
构成要素
好的prompt结构对于设计有效的AI交互至关重要(简而言之:具体、丰富、少歧义)

  • 指令:instruction,想要模型干什么
  • 上下文:context,给大模型更多的信息输入
  • 输入数据:input data,用户输入的问题
  • 输出指示器:output indicator,指定输出内容及格式

通用技巧

  • 具体性:把要求写的具体一些
  • 示例和格式:给出一些示例,以及对格式的要求
  • 避免不精确:要求大模型回答的简短精确
  • 做还是不做:明确要求大模型不要做什么

提示工程进阶
样本提示
区别的本质在于上下文的多寡,上下文越多,得到的回答越精准

  • 零样本提示:zero-shot prompts
       - 没有例子,只有任务描述
       - 虽然大型语言模型展示了惊人的零样本能力,但在使用零样本设置时,它们在更复杂的任务上仍然表现不佳
  • 少样本提示:few-shot prompts
       - 有少量的例子,上下文更丰富,回答更准确
       - 少样本提示可以作为一种技术,以启用上下文学习,我们在提示中提供演示以引导模型实现更好的性能

思维链

  • CoT:Chain of Thoughts
  • 将复杂问题拆分成一步一步的子问题,并依次逐步求解(也就是先干啥、再干啥)
  • 出现背景:GPT在处理多步骤任务的时候,容易带来误差积累,这种误差积累可以用思维链来解决
  • 主要思想:通过向大模型展示少量的样例并在样例中解释推理过程,可以让大模型的回答也显示推理过程,这种推理的解释往往会引导出更准确的结果
  • 弊端:需要手工制作有效且多样化的例子,这种手动工作可能会导致次优解决方案
  • 优化:零样本思维链(在问题里加上让我们逐步思考的字眼,强制让大模型解释推理过程)

自我一致性

  • SC:self-consistency
  • 先用少样本CoT生成多个推理路径和答案,选择出现次数最多的最为最答案(出现的多意味着更有可能是对的)
  • 是一种对抗「幻觉」的手段。就像我们做数学题,要多次验算一样。(同样的prompt跑多次,通过投票选出最终结果)

思维树

  • ToT:Tree of Thoughts
  • 将复杂问题分解为一系列子问题,子问题进一步细化分解,形成树状结构
  • 出现背景:对于需要探索或预判重要战略的复杂任务来说,传统或简单的提示技巧是不够的
  • 主要思想:基于思维链提示进行了总结,引导语言模型探索把思维作为中间步骤来解决通用问题
提示词: - 概念:提供给模型的文本片段,用于指导模型输出 - 目的:提供上下文,让模型更好的识别意图并生成回答 提示工程:也叫「指令工程」 - 思想:通过精心设计提示词,来显著提高模型的性能和输出质量 - 类比:prompt -> 编程语言;prompt工程 -> 软件工程;prompt工程师 -> 程序员 管理环境变量: pip install python-dotenv 提示工程基础 构成要素 好的prompt结构对于设计有效的AI交互至关重要(简而言之:具体、丰富、少歧义) - 指令:instruction,想要模型干什么 - 上下文:context,给大模型更多的信息输入 - 输入数据:input data,用户输入的问题 - 输出指示器:output indicator,指定输出内容及格式 通用技巧 - 具体性:把要求写的具体一些 - 示例和格式:给出一些示例,以及对格式的要求 - 避免不精确:要求大模型回答的简短精确 - 做还是不做:明确要求大模型不要做什么 提示工程进阶 样本提示 区别的本质在于上下文的多寡,上下文越多,得到的回答越精准 - 零样本提示:zero-shot prompts    - 没有例子,只有任务描述    - 虽然大型语言模型展示了惊人的零样本能力,但在使用零样本设置时,它们在更复杂的任务上仍然表现不佳 - 少样本提示:few-shot prompts    - 有少量的例子,上下文更丰富,回答更准确    - 少样本提示可以作为一种技术,以启用上下文学习,我们在提示中提供演示以引导模型实现更好的性能 思维链 - CoT:Chain of Thoughts - 将复杂问题拆分成一步一步的子问题,并依次逐步求解(也就是先干啥、再干啥) - 出现背景:GPT在处理多步骤任务的时候,容易带来误差积累,这种误差积累可以用思维链来解决 - 主要思想:通过向大模型展示少量的样例并在样例中解释推理过程,可以让大模型的回答也显示推理过程,这种推理的解释往往会引导出更准确的结果 - 弊端:需要手工制作有效且多样化的例子,这种手动工作可能会导致次优解决方案 - 优化:零样本思维链(在问题里加上让我们逐步思考的字眼,强制让大模型解释推理过程) 自我一致性 - SC:self-consistency - 先用少样本CoT生成多个推理路径和答案,选择出现次数最多的最为最答案(出现的多意味着更有可能是对的) - 是一种对抗「幻觉」的手段。就像我们做数学题,要多次验算一样。(同样的prompt跑多次,通过投票选出最终结果) 思维树 - ToT:Tree of Thoughts - 将复杂问题分解为一系列子问题,子问题进一步细化分解,形成树状结构 - 出现背景:对于需要探索或预判重要战略的复杂任务来说,传统或简单的提示技巧是不够的 - 主要思想:基于思维链提示进行了总结,引导语言模型探索把思维作为中间步骤来解决通用问题
Sign in to join this conversation.
No Milestone
No project
No Assignees
1 Participants
Notifications
Due Date
The due date is invalid or out of range. Please use the format 'yyyy-mm-dd'.

No due date set.

Dependencies

No dependencies set.

Reference: HswOAuth/llm_course#48
No description provided.