Prompt Engineering 提示词工程开发指南:一、开篇简介

  |   0 评论   |   0 浏览

ChatGPT Prompt Engineering 提示词工程研究指南-开篇介绍

  提示工程是一个相对较新的学科,它用于开发和优化提示,以便有效地使用语言模型(LMs)进行各种应用和研究主题。提示工程技能有助于更好地理解大型语言模型(LLMs)的能力和局限性。研究者使用提示工程来提高LLMs在一系列常见且复杂的任务,如问题回答和算术推理等方面的性能。开发者使用提示工程设计稳健有效的提示技术,与LLMs和其他工具接口。

  提示工程不仅是设计和开发提示。它包含了与LLMs交互和开发的广泛技巧和技术。它是一个重要的技能,用于接口、构建并理解LLMs的能力。你可以使用提示工程来提高LLMs的安全性,构建新的功能,如用领域知识和外部工具增强LLMs。

  本指南介绍了提示的基础知识,以便给出如何使用提示与LLMs进行交互和指导的大致概念。除非另有说明,所有示例均在使用OpenAI的游乐场上,通过text-davinci-003模型进行的测试。该模型使用默认配置,即temperature=0.7和top-p=1。

LLM(大语言模型)设置

  在使用提示时,您可以通过API或直接与LLMs进行交互。您可以配置几个参数,以获得不同的提示结果。

  温度(Temperature)- 简而言之,温度越低,结果越确定,即始终选择最有可能的下一个标记。增加温度可能会导致更多的随机性,从而鼓励产生更多样化或创造性的输出。本质上,您是在增加其他可能标记的权重。在应用方面,对于基于事实的问答等任务,您可能希望使用较低的温度值,以鼓励提供更准确和简练的回答。对于诗歌生成或其他创意任务,增加温度值可能会有益。

  Top-p(Top_p)- 类似地,通过设置top_p参数,您可以使用一个名为nucleus采样的技术来控制模型在生成响应时的确定性。如果您想要确切和事实性的答案,请将该值保持较低。如果您想要更多样化的回答,请增加该值。

  一般的建议是只修改其中一个参数,而不是两个参数都修改。在开始一些基本示例之前,请记住,您的结果可能会因为所使用的LLMs版本而有所不同。

提示词的基本元素

  在我们讨论更多的示例和使用提示工程的应用时,您会注意到某些元素构成了一个提示。一个提示包含以下任意一个元素:

指令(Instruction)- 您希望模型执行的特定任务或指令

背景(Context)- 外部信息或附加上下文,可以引导模型提供更好的回答

输入数据(Input Data)- 我们感兴趣的输入或问题,希望找到一个回答

输出指标(Output Indicator)- 输出的类型或格式。

  你不需要在一个提示中使用所有四个元素,格式取决于当前任务。在接下来的指南中,我们将涉及更具体的示例。

  关于提示词的介绍先到这里,下一章将介绍具体的提示词写法。


标题:Prompt Engineering 提示词工程开发指南:一、开篇简介
作者:michael
地址:https://blog.junxworks.cn/articles/2023/07/17/1689579983490.html