提示词工程(Prompt Engineering)

1.  提示词工程简介

1.1 提示词工程的定义

提示词工程(Prompt Engineering)主要围绕如何有效地与人工智能(AI)模型进行互动,尤其是在生成式人工智能(如ChatGPT、GPT-4、DeepSeek等大语言模型)中的应用。简单来说,提示词工程是指如何设计、优化、调整输入给AI模型的提示词(Prompt),从而获得最有效、最准确的输出。对于AI模型来说,提示词就像是一把钥匙,它打开了模型的思维,帮助引导模型生成特定类型的回应或解决方案。

随着人工智能技术,尤其是自然语言处理(Natural Language Processing,NLP)领域的快速发展,提示词工程逐渐成为技术工作者、产品经理和研究人员需要掌握的技能之一。在实践中,优秀的提示词能够帮助用户更好地引导模型,获得高质量、符合需求的输出,从而提升工作效率,解决复杂的问题。

1.2 提示词工程的核心内容

提示词工程的核心内容包括但不限于以下几个方面:

  1. 提示词的设计与优化: 提示词工程的核心任务是设计出能够引导AI模型生成特定输出的有效提示词。不同的提示词结构、用词、语境都会对AI模型的输出产生不同影响。为了使AI模型生成准确、符合需求的内容,提示词设计需要精确、简洁,并尽可能涵盖输入内容的所有关键要素。例如,在询问一个开放式问题时,提示词应该包含足够的背景信息和问题的方向;而在进行任务指令时,提示词则需要明确告诉AI该做什么。通过不断地优化提示词,可以提高输出结果的质量和相关性。
  2. 语境和意图: 理解并传达问题的语境和意图是提示词工程中非常重要的一部分。AI模型的理解能力在很大程度上取决于用户提供的背景信息和上下文。因此,设计提示词时要确保其能够清晰地传达问题的意图,并提供相关的背景信息。例如,假如你希望AI生成一篇关于人工智能的文章,你应该在提示词中明确说明文章的主题、风格、长度等要求,而不仅仅是简单地说“写一篇人工智能的文章”。
  3. 语言模型的特性: 不同的语言模型有不同的特点和限制。例如,GPT-4在处理长文本时具有较强的能力,但它也可能在复杂的逻辑推理任务中出现一定的偏差。因此,提示词工程不仅仅是要清楚地定义任务,还要根据AI模型的特点进行调整和优化,以便获得最好的结果。
  4. 模型训练与迭代: 在实际应用中,提示词工程并非一蹴而就的任务。随着AI技术的发展,模型不断得到改进和更新,因此,提示词的设计和使用也需要不断地迭代和调整。这是因为新的AI模型可能对提示词的响应方式发生变化,原有的设计方式可能不再有效。

1.3 提示词工程的应用场景

  1. 内容创作: 提示词工程可以帮助内容创作者生成各种类型的文本,例如博客文章、社交媒体内容、产品文案等。通过优化提示词,创作者可以更精准地引导AI生成符合品牌风格、语气和受众需求的内容。比如,你希望生成一篇关于“未来科技”的博客文章,可以通过提供详细的提示词(例如文章的结构、重点、受众群体)来帮助AI提供更具创意的内容。
  2. 数据分析与报告生成: 数据科学家和分析师常常使用AI模型来快速生成报告、分析摘要或趋势预测。通过设计清晰明确的提示词,分析师可以让AI快速从大量数据中提取出关键信息,并生成相关的分析报告。
  3. 教育与培训: 在教育领域,提示词工程可以用于生成练习题、教材内容和解题思路等。例如,教师可以根据学生的学习进度和需求,设计提示词来生成个性化的学习材料和辅导内容,帮助学生巩固知识、提高理解力。
  4. 客户服务与支持: 在客服领域,提示词工程可以帮助AI生成精准的客户支持回答。企业可以根据常见问题和服务需求,设计适合的提示词,从而使AI能够快速提供精准的解决方案,提升客户体验。在客服场景下,AI 大语言模型可以给用户一些解决方案,相对之前检索问题的方式已经优化了很多。
  5. 代码生成与开发: 对于程序员而言,可以在开发过程中利用提示词工程来生成代码片段、调试方案、撰写测试用例和完善技术文档。例如,开发者可以通过提供详细的提示词(例如编程语言、功能需求)来帮助AI生成特定的代码,减少程序员的重复劳动,提高个人的开发效率。在某些场景下,程序员甚至可以跨界编程,例如前端程序员去撰写一部分后端代码,后端程序员来处理一些数据分析,数据分析工程师还可以来撰写简单地前端代码。但这只是特殊情况下的特殊处理方式,还是专业的人士干专业的事情会比较好。

1.4 提示词工程的发展历程

从提示词工程的发展历程来看,AI 模型经历过结构化的输入等一系列过程,直到现在的提示词工程的样式。

2.  提示词工程的使用

提示词工程的方法有很多,包括但不限于零样本学习、少样本学习、思维链、思维树、RAG、ReAct等内容。本文将介绍其中的部分知识,以启发大家在与大模型交互的过程中的提示词工程方法。

2.1 简单使用

如今的提示词工程的入门也十分简单,直接就可以通过对话的方式与 AI 进行沟通和交流。形如下述格式,用户写一段文本信息或者一句简短的话,模型就可以输出相应的内容。

如果用户觉得上述内容不够完善,有两种常见的方式进行解决。第一种是提供更多的信息(A clearer and more precise prompt),包括上下文的消息、网站最新消息和更加精确的指令,当 AI 接收到这些消息和指令的时候,输出的内容就会更加完善与精确;第二种方法是角色扮演(Role prompting example),就是假设你是一个某某方向的专家,并且在输入的时候告知 AI 模型,AI 模型就会自动承担这个专家的角色并进行内容的输出。

2.2 Zero-shot、One-shot、Few-shot

Zero-shot学习指的是模型在没有见过任何与特定任务相关的示例数据的情况下,直接执行该任务。简单来说,就是零样本学习。在Zero-shot学习中,模型依赖其在预训练阶段获得的知识,能够根据输入的指令或描述,完成没有直接训练过的任务。

One-shot学习指的是模型在处理任务时,仅需一个示例来理解任务并进行执行。换句话说,模型通过一个示例就能“学会”如何完成任务,并可以在此基础上继续进行类似任务的推理,就是单样本学习。

Few-shot学习指的是模型通过少量的训练示例来完成任务。通常,few-shot学习会提供比One-shot更多的示例(通常在3到10个之间),使得模型能够更好地理解任务的规律和要求,就是少样本学习

学习方式示例数任务依赖适用场景
Zero-shot无示例无需任何任务特定的训练数据适用于任务描述明确且模型具备足够语言理解能力的情况。常见于机器翻译、情感分析等任务。
One-shot1个示例只需要一个任务相关示例适用于能够通过单个示例就能明白任务要求的情境,适合小规模示例或人脸识别等任务。
Few-shot少量示例(3-10个)需要少量示例来理解任务适用于需要一些实例来更好推理的任务,适合文字分类、图像识别等问题。

下图表示了zero-shot和one-shot的提示词工程,AI 模型输出的答案是不一样的。

2.3 思维链Chain of Thought

2.3.1 思维链的定义

Chain of Thought(思维链) 是一种在人工智能尤其是大语言模型中使用的推理方法,目的是在通过逐步展开的推理过程来帮助模型解决复杂问题,特别是需要逻辑推理或多步骤计算的问题。传统的语言模型通常依赖于直接输入问题,并立即给出回答,但这有时会导致回答不够精确或存在错误。Chain of Thought方法则通过引导模型分步骤思考,逐渐推导出答案,从而提高推理的准确性和透明度。思维链(Chain of Thought)可以理解为逐步推理,它是通过将复杂问题拆解成多个小步骤,让模型逐步生成每个步骤的思考过程,最终得出正确的结论。这个过程类似于人类在解决问题时的思维过程:首先分析问题,考虑各种可能性,然后逐步推理出答案。

2.3.2 思维链的工作原理

  1. 问题分解:Chain of Thought方法要求模型将一个复杂问题分解成多个较为简单的子问题或推理步骤。每个步骤都帮助模型理清思路,逐步逼近最终答案。
  2. 逐步推理:每一步推理的结果会作为下一步推理的依据。这种逐步展开的推理过程能帮助模型减少直接回答时可能遇到的错误或遗漏。
  3. 最终输出:通过逐步推理,模型最终得出一个合理的答案,这个答案通常更符合逻辑,也更有说服力。

2.3.3 思维链的案例

假设我们有一个数学问题,我们用思维链的方式进行输入:

问题:如果今天是星期三,那么五天后是星期几?

传统的语言模型可能会直接给出“星期一”的答案,但它的推理过程可能并不清晰。使用Chain of Thought方法时,模型会像这样逐步推理:

  1. 第一步:今天是星期三。
  2. 第二步:明天是星期四。
  3. 第三步:后天是星期五。
  4. 第四步:再过两天是星期六。
  5. 第五步:再过一天是星期天。

最终,模型得出结论:五天后是星期一

通过这种逐步推理,模型的思维过程变得更加透明,也更容易让人理解。

下面是一个标准的提示词输入模式:

下面是一个思维链(Chain of Thought)的提示词输入模式,在提示词中明确输入按步骤思考和解决

2.4 思维树Tree of Thought

2.4.1 思维树的定义

Tree of Thought(思维树) 是一种新的推理方法,它在传统的Chain of Thought(思维链)基础上进一步扩展,旨在帮助大语言模型进行更复杂的推理和决策。与线性逐步推理的Chain of Thought不同,Tree of Thought通过将推理过程分支化,允许模型在多个可能的推理路径中进行探索,并根据不同的分支选择最佳路径,从而得到更加准确和丰富的答案。

Tree of Thought可以理解为一个多分支的推理过程,它在一个问题的解决过程中产生多个并行的推理路径,并通过评估这些路径来选择最优解。这种方法特别适合于复杂的决策问题、长时间推理过程或需要考虑多个可能性的问题。

相比之下,Chain of Thought是一种线性推理方法,每一步推理依赖于前一步的结果。而Tree of Thought通过“树形”结构,在推理过程中创建多个分支,允许模型在不同的路径中进行探索和评估。这种多路径的推理方式更贴近人类解决问题时的思维过程,人类在面对复杂问题时,往往会考虑多个解决方案,并根据实际情况选择最佳的路径。

2.4.2 思维树的工作原理

  1. 分支化推理: 在Tree of Thought中,模型会为每个推理步骤生成多个候选答案或路径。例如,在解决一个问题时,模型可能会产生不同的推理路径,每个路径代表着一种不同的推理思路。
  2. 路径评估: 一旦模型生成了多个推理路径,它会评估这些路径的有效性和正确性。评估可以基于已有的知识库、上下文信息或者特定的评价标准来进行。
  3. 选择最优路径: 在所有可能的推理路径中,模型会选择最符合问题要求的路径,从而得到最终的解答。这个过程类似于“树形搜索”,通过遍历不同的路径并根据评估进行选择。
  4. 输出结果: 最终,模型会根据选择的最佳路径输出问题的解答。

2.4.3 思维树的案例

假设我们有一个问题:

问题:一个农场有20只羊和30只鸡。每只羊有4条腿,每只鸡有2条腿。农场一共有多少条腿?

使用Chain of Thought的方法,模型可能会按以下步骤逐步推理:

  1. 每只羊有4条腿,20只羊一共是20 * 4 = 80条腿。
  2. 每只鸡有2条腿,30只鸡一共是30 * 2 = 60条腿。
  3. 80 + 60 = 140条腿。

这是一个线性推理的过程,步骤是顺序进行的。

但使用Tree of Thought时,模型可能会通过多个不同的推理路径来解决问题。比如:

  • 路径一:计算所有羊的腿数:20 * 4 = 80。计算所有鸡的腿数:30 * 2 = 60。最终加总得到腿数:80 + 60 = 140。
  • 路径二:计算每种动物的腿数,并进行逐步分组:羊有20只,每只羊有4条腿,总腿数为80。鸡有30只,每只鸡有2条腿,总腿数为60。结合不同的动物类型,总结出腿数为140。

Tree of Thought方法能够同时处理多个推理路径,然后比较这些路径的效果,最终选择一个最合适的答案。在复杂的推理任务中,模型可能会根据不同的推理方向探索多个分支,最终确定最佳解答。

2.5 知识的生成和RAG技术

LLM 继续得到改进,其中一种流行的技术是能够融合知识或信息,以帮助模型做出更准确的预测。

知识生成的案例,需要明确说出2个关键分析和3个关键影响因子等指令,AI模型就可以生成以下的对话内容:

而在知识生成的过程中,提供一个知识库在很多时候就是一种必要的措施。通过构建个人或者团队的知识库,可以有效地提升回答的能力,而检索信息增强(RAG)就是一种非常有效的方式,用一句话来总结就是:

RAG(中文为检索增强生成) = 检索技术 + LLM 提示

与通用的生成式AI最大的区别,就是RAG增加了知识库的检索技术,通过检索的方式极大地提升了回答的准确率。

而RAG常见的运作方式就包括以下几步,其中资料的质量就是非常关键的一步。

Step 1:资料收集,为AI检索奠定基础:首先,收集AI所需的学习资料,例如FAQ、产品型录、新人训练手册等,为后续的资料处理和检索打好基础。

Step 2:文本分块与向量化,资料转换为AI可读格式:当资料被汇入RAG系统后,会进行文字分块(Chunk),将长文本拆分为更小的单位(如段落或句子)。接着,这些文字区块透过嵌入模型(Embedding Model)转换成向量格式,使得AI能够理解资料的语意结构。

Step 3:问题分析与检索,精准找到关联资料:当用户在应用程式中提出问题时,AI会先分析搜索意图,再从向量资料库中检索与该问题高度相关的文字区块。

Step 4:生成回答,几秒内完成资讯传递:最后,生成式 AI 根据检索到的资料生成回答,并将答案回传到应用程式中,几秒内即可提供使用者所需的资讯。

2.6 自我一致性

自我一致性本质上是一种集成学习方法,通过多次执行 CoT 得到多个推理路径,然后在多个结果中投票选择最一致的答案。Xuezhi Wang等人后来又对其进行了优化,提出了推理增强集成(Rationale-Augmented Ensembles) 方法,通过改变示例顺序或使用模型生成的思维链(CoT)来替换人工编写的推理链,在多个样本试验中引入随机性,然后通过多数投票来聚合模型输出,得到最终答案。

从上图可以看出自我一致性方法整体包括三个步骤:

  1. 构造 CoT 示例数据;
  2. 通过大模型生成多个不同的推理路径(reasoning path);
  3. 使用多数投票(majority vote)的方法选出最一致的答案;

虽然这种方式有点大力出奇迹的感觉,但是它确实可以提高思维链在算术和常识推理等任务中的性能。在具体的使用过程中,还有两个问题值得注意:

  1. 在生成多个推理路径时,一般将模型的温度值设置为0.5,因为这个值如果设置过小会导致答案基本都一样,过大又会导致答案全都不一样,都会影响到最终的效果;
  2. 需要生成多少个推理路径(也就是采样次数)也是一个问题,从论文结果来看,候选样本数越多,最终效果越好,论文中一共采样了40次,但在实际应用中不可能这做,一般采样5次以上就能超过普通的思维链提示;

2.7 自动推理并使用工具(ART)

在大模型使用的时候,如果进行数据分析或者网页分析,可能会涉及到外部工具的使用。在这种时候,交替使用思维链和工具则是一种强大且稳健的方法。因为使用程序或者查询工具可以让结果更加精准,有效避免让大模型产生幻觉的情形。

ART(Automatic Reasoning and Tool-use)的工作原理如下:

  • 接到一个新任务的时候,从任务库中选择多步推理和使用工具的示范。
  • 在测试中,调用外部工具时,先暂停生成,将工具输出整合后继续接着生成。

ART引导模型总结示范,将新任务进行拆分并在恰当的地方使用工具。ART 采用的是零样本形式。ART还可以手动扩展,只要简单地更新任务和工具库就可以修正推理步骤中的错误或是添加新的工具。这个过程如下:

下面的例子充分展示了编程、思维链推理、搜索、算数、字符串操作的全部流程,在此期间使用了搜索引擎、大模型、Python等工具来完成任务。

2.8 ReAct(Reason+Act)

ReAct是Reasoning and Acting(Reason Act)缩写,意思是LLM可以逻辑推理(Reason),构建完成系列行动(Act),从而达成期望目标。ReAct框架允许大模型与外部工具交互获取额外的信息,从而给出更可靠和实际的行动。

大模型Agent功能,大模型会自己分析问题,选择合适的工具,最终解决问题。这个功能背后的原理是ReAct框架。ReAct方式的作用就是协调LLM模型和外部的信息获取,与其他功能交互。如果说LLM模型是大脑,那ReAct框架就是这大脑的手脚和五官。同时具备帮助LLM模型获取信息、输出内容与执行决策的能力,对于一个指定的任务目标,ReAct框架会自动补齐LLM应该具备的知识和相关信息,然后再让LLM模型做成决策,并执行LLM的决策。

ReAct流程里,关键是思维、行动、观察这三个概念:

  1. Thought:由LLM模型生成,是LLM产生行为和依据。可以根据LLM的思考,来衡量他要采取的行为是否合理。这是一个可用来判断本次决策是否合理的关键依据。相较于人类,thought的存在可以让LLM的决策变得更加有可解释性和可信度。
  2. Act:Act是指LLM判断本次需要执行的具体行为。Act一般由两部分组成:行为和对象。用编程的说法就是API名称和对应的入参。LLM模型最大的优势是,可以根据Thought的判断,选择需要使用的API并生成需要填入API的参数。从而保证了ReAct框架在执行层面的可行性。
  3. Obs:LLM框架对于外界输入的获取。它就像LLM的五官,将外界的反馈信息同步给LLM模型,协助LLM模型进一步地做分析或者决策。

一个完整的ReAct的行为,包含以下3个流程:

  1. 输入目标:任务的起点。可以是用户的手动输入,也可以是依靠触发器(比如系统故障报警)。
  2. 循环(Loop):LLM模型开始分析问题需要的步骤(Thought),按步骤执行Act,根据观察到的信息(Obs),循环执行这个过程。直到判断任务目标达成。
  3. 结束(Finish):任务最终执行成功,返回最终结果。

2.9 自我反思(Reflexion)

自我反思是一个通过语言反馈来强化基于语言的智能体的框架。自我反思是一种‘口头’强化的新范例,它将策略参数化为智能体的记忆编码与 LLM 的参数选择配对。

在高层次上,自我反思将来自环境的反馈(自由形式的语言或者标量)转换为语言反馈,也被称作 self-reflection,为下一轮中 LLM 智能体提供上下文。这有助于智能体快速有效地从之前的错误中学习,进而提升许多高级任务的性能。

下图展示了自我反思的智能体学习迭代优化其行为来解决决策、编程和推理等各种人物的例子。自我反思(Refelxion)通过引入自我评估、自我反思和记忆组件来拓展 ReAct 框架。

如下图所示,自我反思由三个不同的模型组成:

  1. 参与者(Actor):根据状态观测量生成文本和动作。参与者在环境中采取行动并接受观察结果,从而形成轨迹。思维链和ReAct被用作参与者模型。此外,还添加了记忆组件为智能体提供额外的上下文信息。
  2. 评估者(Evaluator):对参与者的输出进行评价。具体来说,它将生成的轨迹(也被称作短期记忆)作为输入并输出奖励分数。根据人物的不同,使用不同的奖励函数(决策任务使用LLM和基于规则的启发式奖励)。
  3. 自我反思(Self-Reflection):生成语言强化线索来帮助参与者实现自我完善。这个角色由大语言模型承担,能够为未来的试验提供宝贵的反馈。自我反思模型利用奖励信号、当前轨迹和其持久记忆生成具体且相关的反馈,并存储在记忆组件中。智能体利用这些经验(存储在长期记忆中)来快速改进决策。

自我反思的关键步骤是:

  1. 定义任务
  2. 生成轨迹
  3. 评估
  4. 执行自我反思
  5. 生成下一条轨迹。

3. 提示词的应用

3.1 生成数据

提示词(Prompt)在数据生成中的应用,极大地扩展了数据资源的灵活性与可获取性。通过精心设计的自然语言提示,大语言模型可以自动合成各类结构化与非结构化数据,例如问答对、用户评论、摘要文本、表格内容等,广泛用于数据增强、少样本学习和训练集扩充等场景。这种方式不仅节省了人工标注成本,还能够模拟罕见场景或边界样本,从而提升模型在实际环境中的泛化能力与鲁棒性。例如,输入“生成一些汽车售后的案例,表格输出即可。”,就可以得到以下的表格内容:

案例编号问题类型客户描述处理过程结果费用承担方
001发动机故障客户反映车辆启动困难,发动机抖动严重。检查点火系统、燃油泵和火花塞,发现点火线圈老化导致缺缸。更换点火线圈和火花塞。车辆恢复正常启动,抖动消失。厂商保修期内,费用全免
002电子系统故障中控屏幕频繁黑屏,倒车影像无法显示。升级车载系统软件并检测线路,确认屏幕主板故障。更换全新中控屏幕。电子系统功能恢复正常。保修期内,厂商承担
003事故维修车辆左前侧碰撞导致保险杠和大灯损坏。拆解检查后更换保险杠、大灯总成,校正前梁。车身结构恢复,外观和功能正常。保险公司理赔
004保养纠纷客户投诉保养后油耗异常升高,怀疑机油型号错误。重新检测机油标号,确认使用符合规格的机油;清洗节气门并重置ECU。油耗恢复正常,客户撤销投诉。4S店承担检测费用
005配件更换延迟订购的进口变速箱配件到货时间超过1个月,客户不满。协调厂商加急发货,提供代步车并补偿两次免费保养。配件更换完成,客户满意度提升。厂商承担物流和补偿费用
006召回服务厂商发布刹车助力泵召回通知。主动联系客户预约检修,免费更换改进版助力泵组件。安全隐患消除,客户对主动服务表示认可。厂商全额承担
007客户投诉服务态度客户投诉售后接待人员态度冷淡,未及时解决问题。核实后向客户道歉,对涉事员工培训,并赠送保养优惠券。客户接受解决方案,后续服务评分提高。4S店承担补偿费用
008保修争议客户车辆过保3天,厂商拒绝免费维修变速箱故障。协商后按保修期延长政策承担70%维修费,客户支付剩余30%。争议解决,客户认可处理方案。厂商与客户按比例分担
009软件升级失败车载系统升级后导致动力模式异常。回滚软件版本并重新升级,同步修复兼容性问题。系统运行正常,动力模式恢复。免费服务(厂商责任)
010混合动力电池故障车辆纯电模式续航骤降,电池组报警。检测确认单体电池损坏,更换整个电池组模块。续航恢复至标准值,故障码消除。电池质保期内,厂商承担

3.2 生成代码

在代码生成方面,提示词技术已成为智能编程助手的核心能力之一。开发者可通过自然语言描述需求,模型生成相应的函数、脚本、接口文档甚至是测试用例。例如,“用 Python 实现快速排序”这样的简单提示词,就能引导模型生成完整、可运行的排序程序。这种能力不仅适用于初学者的学习辅助,也在资深开发者的代码补全与重构工作中提供了高效支持,尤其在 API 使用、跨语言翻译和单元测试生成等任务中效果显著。

例如,我们要求LLM输出一段简单的Python代码,就可以得到如下的案例:

def fibonacci(n):
    # 生成斐波那契数列
    sequence = []
    a, b = 0, 1
    for _ in range(n):
        sequence.append(a)
        a, b = b, a + b
    return sequence

# 输入要生成的项数
n = int(input("请输入斐波那契数列的项数: "))
result = fibonacci(n)

# 打印结果
print(f"前 {n} 项斐波那契数列:")
print(result)

3.3 生成图片

生成图片是多模态提示词应用的典型代表。通过将文本提示转化为视觉内容,模型可以根据语义描述合成风格化或写实的图像。例如,输入“一个在夕阳下奔跑的机器人”,生成模型(如 DALL·E、Stable Diffusion)便能输出与该描述相符的图像。这类技术广泛应用于广告创意、角色设计、虚拟场景构建以及艺术创作等领域,同时也促进了图文协同理解的发展,使文本与图像之间的信息表达更加紧密和高效。

3.4 案例分析

提示词的高效应用往往依赖于上下文、格式和任务目标的精细控制,案例分析是理解其应用机制的重要方法。通过对实际应用场景中的提示词设计策略进行剖析,如 few-shot prompting、chain-of-thought prompting 或 instruction tuning,可以深入理解模型响应的形成逻辑与效果差异。案例往往涵盖从简单任务(如摘要生成)到复杂任务(如法律文书撰写或多轮对话)的提示设计,通过对比实验进一步揭示如何通过微调提示词优化输出质量,是推动提示工程从经验走向系统化设计的关键路径。

例如,输入“写一个简答的案例分析的例子,例如某一个职场人力划分的案例,帮忙写一个分析。”然后就可以得到如下的内容:

4.  参考资料

  1. 提示工程指南:https://www.promptingguide.ai/zh
  2. 提示词工程指南:https://github.com/yunwei37/Prompt-Engineering-Guide-zh-CN
  3. 提示词工程维基百科:https://en.wikipedia.org/wiki/Prompt_engineering
  4. 文生文Prompt指南:https://help.aliyun.com/zh/model-studio/use-cases/prompt-engineering-guide
  5. 提示工程概述:https://docs.anthropic.com/zh-CN/docs/build-with-claude/prompt-engineering/overview
  6. 提示工程指南:https://www.promptingguide.ai/zh
  7. 自动推理并使用工具:Paranjape, Bhargavi, et al. “Art: Automatic multi-step reasoning and tool-use for large language models.” arXiv preprint arXiv:2303.09014 (2023).
  8. ReAct:Yao, Shunyu, et al. “React: Synergizing reasoning and acting in language models.” International Conference on Learning Representations (ICLR). 2023.
  9. Reflexion:Shinn, Noah, et al. “Reflexion: Language agents with verbal reinforcement learning.” Advances in Neural Information Processing Systems 36 (2023): 8634-8652.

Leave a comment