大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

阿齐莫阿齐莫 炉石传说 2023-10-21 207 0

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

图片来源@视觉中国

文|追问NextQuestion

文|追问NextQuestion

自然语言处理(NLP)曾被誉为“人工智能皇冠上的明珠”,现如今,随着大语言模型(LLM)变得愈发智能和自主,NLP模型似乎已“王气黯然”炉石传说

通过广泛的对齐训练,LLM不仅掌握了传统的NLP任务,如问答、自然语言推理和文该摘要,在理解人类意图和执行指令方面也展示出了令人印象深刻的实力炉石传说。这外,LLM也被用于社交和游戏语境中的各类实验,这些研究引发了公众的广泛兴趣和热烈讨论。人们对智能体LLM寄予厚望,期待它能超越传统的NLP模型、解决现实世界的种种实际任务。那么,LLM在交互式环境中实际完成挑战性任务的实力究竟怎么呢?

最近,来自清华大学、俄亥俄州立大学和加州大学伯克利分校的研究者设计了一个测试工具——AgentBench,用于评估LLM在多维度开放式生成环境中的推理实力和决策实力炉石传说。研究者对25个LLM进行了全面评估,包括基于API的商业模型和开源模型。她们发现,顶级商业LLM在复杂环境中表现出强大的实力,像GPT-4这样的顶级模型能够处理宽泛的现实任务,明显优于开源模型。研究者还表示,AgentBench是一个多维动态基准测试,现在由8个不同的测试场景组成,将来将覆盖更广的范围,更深入地对LLM进行系统性评估。

▷图源_arXiv官网

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

展开全部

▷图注_AgentBench上不同LLM的表现炉石传说。虽LLM开始表现出其愈发成熟的实力,但模型之间的差距蛮大,要实现实际应用还是任重而道远。左图,几种常见的LLM在AgentBench提供的8种场景中的表现。右图,AgentBench在8种场景中的总得分。虚线表示开源LLM(绿色)和基于API的LLM(橙色)的平均得分。图源_来自论文

AgentBench评估哪些场景炉石传说?

AgentBench包含8个不同的环境,其中5个是首次使用的环境_操作系统、数据库、知识图谱、数字卡牌游戏、横向思维谜题(即所谓的“海龟汤”游戏)炉石传说。其余3个环境是依据已发布的数据集重新编译的,包括家务、网购、网络浏览。

上述全部数据集都经过设计和调整,来模拟交互式环境,使纯文该LLM能作为自主的智能体运行炉石传说。这外,AgentBench能系统地评估LLM的核心实力,包括执行指令、编码、获取知识和逻辑推理实力。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench基该构需要示意图炉石传说。图源_来自论文

和现有的其她基准测试相比,AgentBench专注于通过思需要链(Chain-of-Thought,CoT)对LLM进行以实际应用为导向的评估炉石传说。而这些数据集大多也代表了LLM将来可能的应用前景和发展方向。

1. 操作系统

允许LLM会见和操作终端(terminal)来控制操作系统是一项颇具挑战性的任务炉石传说。尽管已有研究尝试将自然语言翻译为Shell命令,但少有研究对真实的可执行环境进行评估。在这数据集中,研究者的目标是在真实操作系统的交互式bash环境(即Ubuntu Docker)中,针对有确定性答案的人类问题或一系列实现实际目标的操作来评估LLM。

该项研究中,约一半的指令是由人类创建或收集自人类的炉石传说。而另一半主要是由GPT-4生成的,并通过模块测试进行严格过滤。对人工指令,研究者首先从Stack Overflow上收集bash或shell标签下的约6000个真实问题和解决方案,然后按网站读者的评分对它们进行排序,并邀请编程专家挑选出有挑战性的问题。研究者最后统计LLM在执行中解决问题的胜利率。每个问题最后只包含错误或正确两种状态。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench场景示例炉石传说。图源_来自论文

操作系统

任务_“查找‘/etc’目录中非空目录的总数炉石传说。”

动作空间_任何有效的bash命令

观测结果_系统标准败出

2. 数据库

数据库是另一类典型的系统,蛮多用户都有利用人工智能自动和之交互的需求炉石传说。因这,检查LLM通过SQL操作真实数据库的实力极为重要。先前的研究特别重视SQL和自然语言之间的转换,或回答给定单个小型数据库表格中的问题。不过在AgentBench中,研究者则是在真实的SQL接口和数据库上评估LLM,来模拟现实世界中的场景。

研究者通过合并几个已有的数据库(WikiSQL、WikiTableQuestions、SQA、HybridaQA和FeTaQA)来获取查询(query)及数据库相关信息,从而确保指令和数据的多样性炉石传说。为了更深入丰富数据集并避免发生泄漏(leakage),研究者使用gpt-3.5-turbo来执行数据增强。在提供表头信息和原始行后,gpt-3.5-turbo会新生成10行数据。使用名称、表头信息和一些SQL示例,研究者要求gpt-3.5-turbo生成5个额外的SQL查询。然后,将获取的SQL语句依这败入gpt-3.5-turbo中,并要求其在不改变原始含义的基础上重写这些语句。最后的数据集包含1599个条目,包含3种基该的数据库操作_挑选、插入或更新。研究者最后统计LLM完成指令的胜利率。总体胜利率是上述3种操作胜利率的平均值。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench场景示例炉石传说。图源_来自论文

数据库

任务_已知奥运奖牌表炉石传说,提问“美国的奖牌总数是多少?”

动作空间_任何有效的SQL命令

观测结果_MySQL命令行界面败出

3. 知识图谱

智能体需要准备广泛的技能才能处理知识图谱炉石传说。首先,它需要理解自然语言及其复杂和微妙之处。它还该当能够将复杂的任务分解为更简单、更易于管理的模块。这外,智能体还需要有实力制定计划、制定策略并依据需要进行调整。现在的知识图谱通常规模巨大,致使智能体不能完全感知整个图谱。在这种部分感知的环境下运行,就要求智能体能够利用不完整的信息做出决策并管理不确定性。这就更加需要智能体在决策中表现出足够的灵活性和适应性。考虑到上述挑战,知识图谱能作为代表性的测试场来评估人工智能体在复杂的现实环境中的决策实力。

为了衡量LLM的决策实力,特别是其在长期规划方面的熟练程度,研究者精心编制了一个数据集,该数据集源自FREEBASE上现有的知识库问答(KBQA)数据集,藉这为LLM配置了一系列知识图谱查询工具炉石传说。通过借助文献(参考文献18)中给出的方法,研究者能为每个问题建立相对应的最好应用工具序列。同时,为了保证任务的高难度,研究者仅保留那些至少需要调用5个工具的问题,最后积疲劳了一个包含1663个问题的数据集,用以测试智能体。

研究者使用 F1赛车赛车赛事分数作为主要评估指标炉石传说,通过比较模型的预测答案和标准答案得出_

除了 F1赛车赛车赛事分数外,研究者还评估了结果的精确匹配率,和模型生成的动作序列的可执行性炉石传说。若是模型的动作序列在执行时可产生任意一组答案,则其可执行性得分为1.0;若是不能给出答案,则得分为0。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench场景示例炉石传说。图源_来自论文

知识图谱

任务_“查找和飓风玛丽类似并影响北美东部的热带气旋炉石传说。”

动作空间_基该知识图谱查询工具

观测结果_查询结果

4. 数字卡牌游戏

游戏,尤其是那些需要策略和规划的游戏,能作为智能体开发的模拟环境炉石传说。不过前研究中广泛使用的是基于文该的游戏,其主要侧重点在于基础常识。最近的一些研究转而采用现实世界的游戏(例如,MineDojo,一个基于游戏Minecraft的开放式通用人工智能体学习平台)作为环境,但大多数需要超出现有LLM的多模式功能。相反,数字卡牌游戏(例如炉石传说)则是纯文该 LLM 评估的理需要挑选。数字卡牌游戏通常涉及丰富的卡牌文字描述、回合制赛事和深思熟虑的获胜策略,这些都在考验模型对游戏规则的理解、操作的逻辑性,和依据当前情况和过去的游戏经验形成策略决策的实力。在这项工作中,研究者采用了2021年清华大学智能体大赛(THUAC)中使用的简化数字卡牌游戏系统(鱼洋陷役,Aquawar),来评估LLM智能体。在“鱼洋陷役”中,智能体作为玩者,管理一支有不同天赋的鱼组成的队伍,以回合制形式和另一队玩者(由基准智能体控制)作战。

研究者的评估指标包括对游戏规则的理解,如完成率和平均非法行为次数,也包括更高级别的战略指标,如打败敌方鱼的平均数量、造成的总伤害,还包括最重要的指标——游戏获胜率炉石传说。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench场景示例炉石传说。图源_来自论文

数字卡牌游戏

任务_“在鱼洋陷役中使用四张‘鱼’卡打败其她玩者炉石传说。”

动作空间_四张“鱼”卡和断言

观测结果_战斗过程、“鱼”的状态

5. 横向思维谜题

横向思维谜题,即情境谜题、海龟汤,是一种风靡全球的集体游戏炉石传说。游戏通常由一个人主持谜题,其她人通过提出和谜语相关的问题来猜测。主持人只能回答“是”、“否”或“无关”。当其中一名玩者恢复谜题的重要情节时,游戏就会终止。它的名字来源于心理学术语“横向思维”,指的是从非传统角度推论事实并促进新需要法探索的实力。

在这数据集中,研究者首先设计了一个基于gpt-3.5-turbo的横向思维谜题主持系统,用于自动操作游戏炉石传说。为了评估LLM的横向推理实力,研究者从网络上整理了一个多样化的谜题数据集。每个样该都由一则故事(即一个谜题。例如,一个男人走进一家餐馆,点了一碗甲鱼汤,吃完后自杀了。她为啥这么做?)和对应的真相组成。研究者将样该分为四个难度级别_简单、中等、艰难和专家。对LLM的评估主要围绕衡量LLM智能体推断的结论和事实的的接近程度,和其发现这些事实的速度。通过这种评估,研究者旨在深入了解LLM横向推理实力的深度和敏捷性。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench场景示例炉石传说。图源_来自论文

横向思维谜题

任务_“某人关灯睡觉炉石传说,翌日清早开窗后自杀了,为啥?”

动作空间_任何二元问题

观测结果_“是”、“否”或“不相关”

6. 家务

完成日常家务劳动需要蛮强的常识知识作为基础,现有的研究已为语言智能体的评估构建了完备的环境炉石传说。在AgentBench中,研究者利用经典的ALFWorld物理家庭环境,依据模型在这环境中完成任务的实力对其进行评估。ALFWorld基准测试由旨在模仿家庭场景的文该环境组成,提供了一个交互式环境,智能体能通过基于文该的界面执行决策任务。

给定家庭环境描述和目标指令后,智能体的目标是将复杂的高级目标分解为一系列简单行动炉石传说。每个步骤后,智能体都会收到环境反馈,从而允许智能体动态调整计划并继续执行后续任务,最后完成主要的目标。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench场景示例炉石传说。图源_来自论文

家务

任务_“清理肥皂并将其放在台面上炉石传说。”

动作空间_房间内允许的动作列表炉石传说,或其她无障碍房间

观测结果_行动后的效果

7. 网购

现在网上购物已当上现代生活的重要组成部分炉石传说。网购行为主要包括在真实的电子商务网站上搜索、查看和挑选用户需要要的商品,需要智能体有强大的推理和决策实力。研究人员利用Webshop——一个模拟的在线购物环境——来评估语言智能体。该测试环境显示网页的文该观测信息和智能体可用的操作。智能体能自由地探索网站并通过可点击的按钮浏览项目,就像在现实世界中一样。

研究人员从亚马逊网站上抓取了大约100万种商品,形成网站的数据库炉石传说。该测试环境同时收集了12087条人类指令,并将其和目标和预期属性联系起来(更多数据集构建细节请参阅参考文献20)。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench场景示例炉石传说。图源_来自论文

网购

任务_“寻找一套大号床罩,颜色是红木色,价格小于70元炉石传说。”

动作空间_搜索(生成重要字)并(从可点击按钮中)点击

观测结果_产品描述;网页

8. 网页浏览

互联网环境是训练和评估智能体的理需要沙盒炉石传说。Mind2Web是一个最近发布的通用基准测试,用于开发和评估能够依据高级用户指令跨各种网站域执行复杂任务的Web智能体。它设计了可行的网站交互动作,例如点击、挑选和文字败入,有利于对网页版LLM智能体进行全面评估。Mind2Web涵盖了旅游、信息、服务、购物和娱乐等领域,并参考SimilarWeb上的排名对网页进行整合。同时,Mind2Web聘请注释者依据当前网站提出任务目标,然后将她们的互动痕迹记录为专家演示。

在该研究中,研究人员主要利用Mind2Web进行跨环境的泛化,跨域测试集包含来自73个网站的912个任务,涵盖住房、工作、社交媒体、教育、健康、政府、家庭服务等领域炉石传说。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_AgentBench场景示例炉石传说。图源_来自论文

网页浏览

任务_“在社区中找到一篇最近点赞量超10k的帖子并给它点赞炉石传说。”

动作空间_1)从网页全部的HTML元素中挑选一个;2)单击、键入或挑选选项

观测结果_网页HTML(可选_屏幕截图)

评估结果

为了对现有LLM智能体的实力进行系统性评估,研究人员广泛评估了25个常见的LLM,包括基于API的商业LLM和开源LLM炉石传说。各种模型在AgentBench中的总体得分及在特定环境中的得分如下图所示。

大模型能代替你刷知乎、打炉石传说、解谜“海龟汤”吗?清华、伯克利的科学家一口气测评了这25个LLM

▷图注_不同模型在AgentBench上的测试结果炉石传说。顶级商业LLM(例如gpt-4)和中型开源LLM相比优势明显。“VER”代表模型版该;“OA”代表基于全部测试环境的加权平均值得出的整体分数。图源_来自论文

在这个有挑战性的基准测试中,研究人员惊奇地发现,一些顶级LLM在处理现实世界的环境交互方面有强大的实力炉石传说。例如,在AgentBench的7个数据集中,gpt-4出现出最好性能;在“家务”环境中,其胜利率达到了78%,表明它在该场景下已有实际的可用性。到其她基于API的LLM,尽管它们的性能相对较差,但也可解决部分问题。

不过对开源LLM而言,在一些有挑战性的任务(例如知识图谱、数字卡牌游戏和家务)中,蛮多模型不能解决任何问题炉石传说。一般而言,大多数开源LLM在AgentBench中的表现相较于基于API的LLM差距特别明显,再说表现得最好的开源模型openchat-13b-v3.2,相较于gpt-3.5-turbo,也存在明显的性能差距。虽最近很多团队声称其开源LLM已达到了gpt-3.5-turbo和gpt-4的性能,但实际测试结果显示,开源LLM还需继续奋斗。

挑战和展望

在评估中,研究者发现当下LLM智能体普遍面临以下几个挑战,这也许能作为智能体发展中值得关注的方向炉石传说。

1.行动的有效性

在研究过程中,研究人员发现模型并不总是遵循指令行事炉石传说。换言之,模型的预期败出可能并不在能接受的动作集合之内。而这其中有几个常见错误_首先,模型可能并不能理解任务指令,所以也不尝试败出操作。其次,模型败出一个动作,但这个动作不正确或不完整(例如缺少参数),因这被测试环境拒绝。有些模型还会在一回合内败出多个动作,这也是规则不允许的。确保LLM智能体能采取有效的行动是一个亟需改进的领域。

2. 可处理的文该长度

一些开源模型能处理的上下文长度过短,这影响了其在处理相关交互任务上的性能炉石传说。若是任务有超出其可处理文该容量的冗长指令和反馈,会导致模型忽略部分潜在有用的信息。因这,扩大可处理上下文的长度能提高模型的性能。

3. 多轮一致性

有些任务虽每轮对话都蛮简洁,但对话轮数较多(例如,家务处理)炉石传说。一些模型往往会在多轮对话中忘记自己的角色。一个常见的错误是,尽管被要求以智能体的身份进行交互,但却败出抱歉并表示不能控制环境,例如“特别抱歉,我对指令感到困惑。作为语言模型,我不能控制操作系统……但我能提供……”。对某些模型而言,链接多轮对话过程中的一致性还是十分艰难。

总而言之,虽顶级LLM已能够处理复杂的现实世界任务,但对其开源争斗对手而言,还有蛮长的路要走炉石传说。将来以AgentBench为基石,有可能开发出更好、更适用的LLM智能体。

参考文献_

[1] Liu, X., Yu, H., Zhang, H., Xu, Y., Lei, X., Lai, H., ... & Tang, J. (2023). AgentBench: Evaluating LLMs as Agents. arXiv preprint arXiv:2308.03688.

[2] AgentBench, Python.

[3] P. Maes. Agents that reduce work and information overload. Commun. ACM, 37:30–40, 1994.

[4] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770–778, 2016.

[5] A. Ramesh, M. Pavlov, G. Goh, S. Gray, C. Voss, A. Radford, M. Chen, and I. Sutskever. Zero-shot text-to-image generation. In International Conference on Machine Learning, pages 8821–8831. PMLR, 2021.

[6] J. D. M.-W. C. Kenton and L. K. Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT, pages 4171–4186, 2019.

[7] Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. Advances in neural information processing systems, 33, 1877-1901.

[8] R. OpenAI. Gpt-4 technical report. arXiv, pages 2303–08774, 2023.

[9] T. B. Richards. Auto-gpt: An autonomous gpt-4 experiment, 2023.

[10] Y. Nakajima. Babyagi. Python.

[11] Agentgpt. Python.

[12] J. S. Park, J. C. O’Brien, C. J. Cai, M. R. Morris, P. Liang, and M. S. Bernstein. Generative agents: Interactive simulacra of human behavior. ArXiv, abs/2304.03442, 2023.

[13] G. Wang, Y. Xie, Y. Jiang, A. Mandlekar, C. Xiao, Y. Zhu, L. J. Fan, and A. Anandkumar. Voyager: An open-ended embodied agent with large language models. ArXiv, abs/2305.16291, 2023.

[14] Zhu, X., Chen, Y., Tian, H., Tao, C., Su, W., Yang, C., ... & Dai, J. (2023). Ghost in the Minecraft: Generally Capable Agents for Open-World Enviroments via Large Language Models with Text-based Knowledge and Memory. arXiv preprint arXiv:2305.17144.

[15] M. Shridhar, X. Yuan, M.-A. Cote, Y. Bisk, A. Trischler, and M. Hausknecht. Alfworld: Aligning text and embodied environments for interactive learning. In International Conference on Learning Representations, 2020.

[16] S. Yao, H. Chen, J. Yang, and K. Narasimhan. Webshop: Towards scalable real-world web interaction with grounded language agents. Advances in Neural Information Processing Systems, 35:20744–20757, 2022.

[17] M.-A. Côté, A. Kádár, X. Yuan, B. Kybartas, T. Barnes, E. Fine, J. Moore, M. Hausknecht, L. El Asri, M. Adada, et al. Textworld: A learning environment for text-based games. In Computer Games: 7th Workshop, CGW 2018, Held in Conjunction with the 27th International Conference on Artificial Intelligence, IJCAI 2018, Stockholm, Sweden, July 13, 2018, Revised Selected Papers 7, pages 41–75. Springer, 2019.

[18] Y. Gu and Y. Su. ArcaneQA: Dynamic program induction and contextualized encoding for knowledge base question answering. In Proceedings of the 29th International Conference on Computational Linguistics, pages 1718–1731, Gyeongju, Republic of Korea, Oct. 2022. International Committee on Computational Linguistics.

[19] M. Shridhar, X. Yuan, M.-A. Cote, Y. Bisk, A. Trischler, and M. Hausknecht. Alfworld: Aligning text and embodied environments for interactive learning. In International Conference on Learning Representations, 2020.

[20] S. Yao, H. Chen, J. Yang, and K. Narasimhan. Webshop: Towards scalable real-world web interaction with grounded language agents. Advances in Neural Information Processing Systems, 35:20744–20757, 2022.

[21] X. Deng, Y. Gu, B. Zheng, S. Chen, S. Stevens, B. Wang, H. Sun, and Y. Su. Mind2web: Towards a generalist agent for the web. arXiv preprint arXiv:2306.06070, 2023.

喜欢0发布评论

评论列表

发表评论

  • 昵称(必填)
  • 邮箱
  • 网址