作为微软的首席科学家,我的任务是开展让工作变得更好的研究。拥有这份工作是一个令人难以置信的激动时刻。一项又一项研究表明,最近的AI进步将使人们能够以全新、更高效的方式工作,我们还在探索AI可能性的开始阶段。在微软工作的17年里,我从未像现在这样对计算机改善工作的机会更加乐观。
最新一代AI工具之所以前景广阔,原因之一是它们现在可以让我们用几千年来与他人互动的方式与计算机互动:自然语言。这是一个巨大的变化。之前与计算机交流复杂想法的唯一方式,是用专为计算机设计的语言准确无误地填写电子表格公式、记住电子邮件搜索的准确关键词,或学习编程。现在很多限制都消失了,你可以通过简单的自然语言提示,告诉AI你想做什么。
虽然总体而言,使用提示与AI进行交流的能力是一个巨大进步,但研究表明,这也引入了一个可理解的学习曲线。即使对我而言,能用简单的英语与计算机交谈也是一件新奇事。全世界的科学家正在努力缩短这种学习曲线,并取得了很大进展(例如,在“提示优化”方面的工作)。然而,研究清楚地表明,如果能就如何编写好的提示语进行培训,就可以从AI中收获更多。例如,BCG最近对管理咨询师进行的一项研究发现,接受过提示培训的咨询师比没有接受培训的咨询师更擅长使用AI工具。
幸运的是,微软和学术界的研究已经有了早期发现,可以帮助我们加速提示之旅。这些研究结果大多可以归结为一个关键见解:即便使用自然语言,也要记得AI系统需要的东西与人类不同。
掌握AI语言
计算机在提示中需要知道哪些人类可能不知道的信息?如何利用这些信息来改进提示?以下科学文献中的理论和结果有助于回答这个问题。
提供更多背景信息。心理语言学长期以来一直教导我们在所有交流中介绍背景的核心作用,即通过对话互相理解的过程,也就是保证大家说的是一回事。例如,如果参加会议的人对会议结束时需要采取的行动有共同理解,并且知道自己有这种共同理解,那可能是因为他们花了很多时间来讨论下一步怎么做。
与大语言模型(LLM)进行基础训练的过程,和与他人进行基础训练不同,因为人类与该模型的共同语境通常较少。在提示中明确上下文有助于获得更好结果。例如,当我与团队中的研究人员交谈时,我们都知道过去关于这个主题的所有头脑风暴会议,彼此拥有的技能等等,但是LLM不知道,至少现在还不行。因此,如果我用AI给这个人写电子邮件,那么提供我知道而LLM可能不知道的所有重要背景信息,就会很有帮助。一个人可能认为告诉他们所需的所有背景信息有些冒犯,但LLM不会。
得益于“检索增强生成”(RAG)等技术和其他最近的技术进步,需要提供的上下文数量将大大减少。例如,AI可以搜索你过去的电子邮件和文档,以查找有用信息。当前语境也能提供基础材料。例如,有些系统会将你就会议提出的问题记录在会议纪要中。尽管如此,考虑到基础信息对有效合作的重要性,为LLM提供正确语境依然至关重要。
运用“群众智慧”。研究表明,人们可以通过从不同角度处理问题来捕捉“群众的智慧”,现在我们可以利用AI做到这一点。我发现,可以至少要求对方给出三个回复(例如,“至少生成三个标题”或“告诉我你重写这一段的三种方法”),有时甚至可以要求它为想法提供一部分结构(“至少做出一个有趣,一个正式的”)。清楚知道自己想从模型中得到什么时,给它举几个例子。这个过程被称为“小样本学习”(FSL),将有助于LLM根据你想要的内容做出回复。
依赖识别,而不是回忆。计算机交互的一个核心原则是,人们识别想要发出的命令要比回忆命令容易得多。想想看,从列表中进行选择,比从头开始想一个命令要容易得多。所以几乎我们所有人都会使用图形界面,而不是DOS这样的“命令”;例如,双击图标打开应用程序,要比记住打开应用程序的特定命令再记住应用程序的正式名称要容易得多。
帮助人们识别他们可能需要的提示,而不是从头开始编写,是许多AI新功能背后的驱动因素。在一些先进的AI系统中,你可以访问大量预先编写好的提示语库,并保存喜欢的提示等等。这些都会体现在用户体验中,时间久了,你和组织使用的最佳提示也将开始包含在内。同时我还保留了一个文件,包含一些我最喜欢的个人提示,而这些提示尚未包含在库中。例如我常使用的一个是:我是一名研究员,正在向合作的团队发送这封邮件。请告诉我发邮件的注意事项。
让它成为对话,而不是单个要求。文献中的一个关键发现是,将复杂请求分解为多个步骤,可以帮助人们更成功地从LLM中获得想要的东西。有更正式的方法来做到这一点(例如,“大模型思维链”提示),不过非正式的方法也能成功。例如,我发现最好先要我想理解的文章的摘要,再分别要求观点。例如:
·请用提纲概述文章内容,重点关注微软高管(对研究特别感兴趣)可能感兴趣的内容。
·这位高管会对这篇文章提出哪些问题?请附上答案,尽量引用文章内容。如果文中没有参考,请回答:“文中无答案”,或“只有部分答案”,并描述部分答案以及提供完整答案所需的其他信息。
不成功时,换种方式。LLM是相对较新的技术,还有很多我们不了解的地方。这意味着有时我们无法解释为什么一种措辞的提示效果好,而另一种措辞的提示效果不好,这在同一AI模型的不同版本和应用中可能就有所不同。因此,如果你尝试了一个提示却不起作用,试着重新措辞,找出哪些内容有效。你甚至可以直接问它如何向LLM提问。与一个人从头开始并不容易,但和AI可以。可以多试几次,看看不同策略可能产生什么效果。
利用提示支持。如果说LLM代表了与计算机交互的新模式,那么良好的提示支持就像Word和Excel等可以让人们解锁更多功能的命令“纽带”。例如,我们正在研究如何自动推荐个性化提示,帮助用户在工作流程中采取下一步行动,或处理待办列表中的某个项目。还有很多有趣的研究等着我们。随着新功能的出现,最佳提示策略也将随着时间改变,我们将开始解锁把LLM整合到工作中的独特用处。例如,增加个性化将降低语境的重要程度,而提示支持将会更加重要。
现在许多最好的提示策略都是由研究人员开发的。他们的研究表明,一个好的提示可以带来的好处不只是改进底层模型。例如,微软最近的一篇论文表明,在医疗领域,只需改变提示策略,一个人就能通过LLM获得巨大提升,这对需要新模型训练过程的假设提出了挑战。不过,尽管研究人员都很聪明,可以探索的空间依然相对有限。我们将越来越能够从数百万使用LLM的用户那里学习最佳策略。随着更多人使用这些工具,以及工具的不断发展,我们会学习更多。
自然语言对话是工作方式的基础。从历史上看,这适用于我们的合作方式,现在也适用于我们使用计算机的方式。对话中包含着许多LLM将会解锁的知识,例如,你与PowerPoint的对话现在可以成为一个精彩的演示文稿。但对话不仅是关于事实和数据,基础和结构也很重要。这就是提示工程。随着我们开始发现LLM解锁的新工作方式,这种结构也将随之发展。我很高兴实践和学习仍在继续,希望你也是。
杰米·特文(Jaime Teevan)| 文  
杰米·特文是微软公司的首席科学家,负责推动微软产品的研究创新。她在微软的早期工作重点是利用AI帮助人们实现目标,开发了必应使用的首个个性化搜索算法,并将microproductivity引入了Microsoft Office。杰米曾担任微软CEO的技术顾问,目前领导微软了解后疫情时代工作实践的相关工作。
飞书、DeepL | 译   孙燕 | 编辑
推荐阅读
《哈佛商业评论》中文版 联系方式
投稿、广告、内容和商务合作
↓点击阅读原文进入哈评中文网,获取更多精品内容
继续阅读
阅读原文