经由人类评估试验 ,字少T钻钻研者发现,信息当 GPT-4 将「稿子」改到第三版的手把手教时候,「信息密度」以及「语言精辟度」两个因素抵达了一种最佳失调形态。字少T钻
近些年来 ,信息自动摘要技术取患了长足的手把手教后退 ,这主要归功于范式的字少T钻转变 —— 从在标注数据集上妨碍有把守微调转变为运用狂语言模子(LLM)妨碍零样本 prompt ,好比 GPT-4 。信息不需要格外的手把手教磨炼,详尽的字少T钻 prompt 就能实现对于摘要长度、主题 、信息气焰等方面特色的手把手教详尽操作。
但一个方面每一每一被轻忽 :摘要的字少T钻信息密度 。从实际上讲,信息作为对于另一个文本的手把手教缩短,摘要理当比源文件更密集,也便是搜罗更多的信息 。思考到 LLM 解码的高延迟,用更少的字数涵盖更多的信息颇为紧张,特意是对于实时运用而言。
可是,信息量密度是一个凋谢式的下场 :假如摘要搜罗的细节缺少 ,那末至关于不信息量;假如搜罗的信息过多,又不削减总长度,就会变患上难以清晰 。要在牢靠的 token 估算内传递更多信息 ,就需要将抽象、缩短 、融会三者散漫起来。
在最近的一项钻研中,来自 Salesforce 、MIT 等机构的钻研者试图经由收罗人类对于 GPT-4 天生的一组密度越来越高的摘要的偏好来判断这一限度。对于提升 GPT-4 等狂语言模子的「表白能耐」,这一措施提供了良多开辟 。

论文链接 :https://arxiv.org/pdf/2309.04269.pdf
数据集地址 :https://huggingface.co/datasets/griffin/chain_of_density
详细来说 ,他们将每一个 token 的平均实体数目作为密度的代表 ,天生为了一个初始的、实体浓密的摘要,而后在不削减总长度(总长度为 5 倍)的情景下,一再识别并融会前一个摘要中缺失的 1-3 个实体,每一个摘要的实体与 token 比例都高于前一个摘要。凭证人类的偏好数据 ,作者最终判断 ,人类更喜爱简直与人类编写的摘要同样密集的摘要 ,而且比艰深 GPT-4 prompt 天生的摘要更密集。
总体来说 ,该钻研的贡献搜罗:
开拓一种基于 prompt 的迭代措施 (CoD),使患上摘要的实体密度越来越高;
对于 CNN/《逐日邮报》文章中越来越密集的摘要妨碍家养以及自动评估 ,以更好地清晰信息量(倾向于更多实体)以及清晰度(倾向于更少的实体)之间的掂量;
开源了 GPT-4 摘要、诠释以及一组 5000 篇未诠释的 CoD 摘要,用于评估或者提炼 。

甚么是 CoD
作者拟订了一个繁多的密度链(CoD)Prompt,即天生一个初始摘要,并使着实体密度不断削减。详细来说 ,在一个牢靠的交互次数中,源文本中一组配合的突出实体被识别进去,并在不削减长度的情景下融会到以前的摘要中。
图 2 展现了 Prompt 以及输入示例 。作者不纪律实体的规范 ,而是将缺属实体界说为:
相关:与主要故事相关;
详细:形貌性的但简洁(5 个字或者更少);
别致:未出如今以前的摘要中;
忠实:存在于文章中;
任何中间:位于文章的任何中间 。

作者从 CNN/DailyMail 摘要测试会集随机抽取了 100 篇文章,为其天生 CoD 摘要。为便于参考 ,他们将 CoD 摘要统计数据与人类撰写的要点式参考摘要以及 GPT-4 在艰深 Prompt 下天生的摘要妨碍比力:「写一篇颇为杂乱的文章摘要。请勿逾越 70 个字 。」
统计情景
在钻研中,作者从直接统计数据以及直接统计数据两方面妨碍了总结。直接统计数据(token、实体 、实体密度)由 CoD 直接操作,而直接统计数据则是密集化的预期副产物。
直接统计数据 。如表 1 所示 ,由于从最后杂乱的摘要中删除了不用要的词语 ,第二步平均削减了 5 个 token(从 72 到 67)的长度。实体密度从 0.089 开始,最后低于人类以及 Vanilla GPT-4(0.151 以及 0.122) ,经由 5 步密集化后,最终回升到 0.167 。

直接统计 。抽象度理当会随着每一步 CoD 的妨碍而削减,由于每一削减一个实体,摘要就会被一再改写以腾出空间 。作者用提取密度来掂量抽象性 :提取片断的平均平方长度 (Grusky et al., 2018) 。同样 ,跟着实体被削减到牢靠长度的摘要中,意见融会度也应随之干燥削减 。作者用与每一个摘要句子对于齐的源句子的平均数目来展现融会度。在对于齐上 ,作者运用相对于 ROUGE 增益法 (Zhou et al., 2018),,该措施将源句与目的句对于齐