论文
以下是关于大型语言模型(LLMs)提示工程的最新论文(按发布日期排序)。我们会每日/每周更新论文列表。
概述
- 提示设计与工程:介绍与高级方法(2024年1月)
- 大型语言模型中的幻觉调查:原则、分类、挑战和开放问题(2023年11月)
- 强化学习视角下的RLHF、提示和更多(2023年10月)
- 少样本微调 vs. 上下文学习:公平比较与评估(2023年5月)
- 通过提示工程越狱ChatGPT:一项实证研究(2023年5月)
- 实践中利用LLMs的力量:关于ChatGPT及更多的调查(2023年4月)
- 基于基础模型的工具学习(2023年4月)
- 生成式人工智能的一小步,通向通用人工智能的一大步:AIGC时代ChatGPT的完整调查(2023年4月)
- 2017年至2023年大型语言模型研究的文献计量回顾(2023年4月)
- 大型语言模型调查(2023年4月)
- 自然语言推理,一项调查(2023年3月)
- 增强型语言模型:一项调查(2023年2月)
- 上下文学习调查(2022年12月)
- 通向大型语言模型推理:一项调查(2022年12月)
- 语言模型提示推 理:一项调查(2022年12月)
- 大型语言模型的新兴能力(2022年6月)
- 文本到图像生成的提示修饰符分类(2022年4月)
- 预训练、提示和预测:自然语言处理中提示方法的系统调查(2021年7月)
方法
- 通过逻辑增强大型语言模型的零样本思维链推理(2024年2月)
- 原则指导是你在质疑LLaMA-1/2、GPT-3.5/4时所需要的一切(2023年12月)
- 走进记忆迷宫:通过交互阅读超越上下文限制(2023年10月)
- 大型语言模型作为类比推理者(2023年10月)
- LLMLingua:压缩提示以加速大型语言模型的推理(2023年10月)
- 查询相关提示评估与离线逆强化学习优化(2023年9月)
- 链式验证减少大型语言模型中的幻觉(2023年9月)
- 将大型语言模型与进化算法连接起来产生强大的提示优化器(2023年9月)
- 从稀疏到密集:GPT-4通过密度提示链摘要(2023年9月)
- 重新阅读改善语言模型推理(2023年9月)
- 思维图:利用大型语言模型解决复杂问题(2023年8月)
- 思维骨架:大型语言模型可以进行并行解码(2023年7月)
- 聚焦前缀调优用于可控文本生成(2023年6月)
- 探索预训练语言模型的抽奖提示(2023年5月)
- Less Likely Brainstorming:使用语言模型生成替代假设(2023年5月)
- 一步一步验证(2023年5月)
- 提示调优的普遍性与局限性(2023年5月)
- MultiTool-CoT:GPT-3可以使用多个外部工具进行思维链提示(2023年5月)
- PEARL:大型语言模型提示计划并执行长文档中的动作(2023年5月)
- 语言模型 推理即世界模型规划(2023年5月)
- 自我批判提示与大型语言模型用于归纳指令(2023年5月)
- 通过自适应提示实现更好的零样本推理(2023年5月)
- 分层提示有助于大型语言模型进行网络导航(2023年5月)
- 交互式自然语言处理(2023年5月)
- 我们能通过上下文学习来编辑事实知识吗?(2023年5月)
- 将大型语言模型的上下文学习解释为核回归(2023年5月)
- 计划和解决提示:通过大型语言模型改进零-shot思维链推理(2023年5月)
- 大型语言模型中的元上下文学习(2023年5月)
- 一步一步采样:自适应一致性用于大型语言模型的高效推理(2023年5月)
- 后事解释:语言模型的事后解释可以改进语言模型(2023年5月)
- 压缩,然后提示:通过可转移提示改进LLM推理的准确性和效率权衡(2023年5月)
- TreePrompt:学习组合树提示以实现可解释的视觉定位(2023年5月)
- TELeR:用于基准复杂任务的LLM提示的通用分类法(2023年5月)
- 通过动态上下文学习实现高效提示(2023年5月)
- 网络可以成为改进大型语言模型的利器(2023年5月)
- 平坦感知提示选择改进准确性和样本效率(2023年5月)
- 思维树:通过大型语言模型进行有意识的问题解决(2023年5月)
- ZeroPrompt:流式声学编码器是零-shot掩码LM(2023年5月)
- 符号链提示引发大型语言模型的规划(2023年5月)
- CooK:通过模块化和协作知识增强通用语言模型(2023年5月)
- 上下文学习“学习”上下文中的内容:解开任务识别和任务学习的区别(2023年5月)
- 重新提示:通过吉布斯采样自动推断思维链提示(2023年5月)
- 利用声明性提示的可满足性辅助语言模型(2023年5月)
- 预训练以学习上下文(2023年5月)
- 通过提示调整提升大型语言模型的集成(2023年4月)
- 全局提示单元:用于有效提示的便携式控制模块(2023年4月)
- 为什么要逐步思考?推理源自经验的局部性(2023年4月)
- 重新审视自动提示:我们真的做得更好了吗?(2023年4月)
- REFINER:中间表示的推理反馈(2023年4月)
- Reflexion:具有动态记忆和自我反思的自主代理(2023年3月)
- CAMEL:用于大规模语言模型社会“心智”探索的交际代理(2023年3月)
- Self-Refine:通过自我反馈进行迭代细化(2023年3月)
- kNN提示:无需校准即可进行超文本学习(2023年3月)
- 具有知识引导的上下文优化的视觉-语言提示调整(2023年3月)
- 面向公平性的少样本提示用于大型语言模型(2023年3月)
- 大型语言模型的上下文忠实提示(2023年3月)
- 提示是你所需的全部吗?不是。对指导学习的全面和更广泛视角(2023年3月)
- UPRISE:用于改进零-shot评估的通用提示检索(2023年3月)
- 通过提示调整使NLP模型具有对抗鲁棒性(2023年3月)
- 结构预训练和提示调整用于知识图传输(2023年3月)
- CoTEVer:用于解释验证的思维链提示注释工具包(2023年3月)
- 更大的语言模型以不同方式进行上下文学习(2023年3月)
- OpenICL:用于上下文学习的开源框架(2023年3月)
- 动态提示:用于提示调整的统一框架(2023年3月)
- ART: Automatic multi-step reasoning and tool-use for large language models (2023年3月)
- Multitask Prompt Tuning Enables Parameter-Efficient Transfer Learning (2023年3月)
- Effectiveness of Data Augmentation for Prefix Tuning with Limited Data (2023年3月)
- Mixture of Soft Prompts for Controllable Data Generation (2023年3月)
- Prompt, Generate, then Cache: Cascade of Foundation Models makes Strong Few-shot Learners (2023年3月)
- How Robust is GPT-3.5 to Predecessors? A Comprehensive Study on Language Understanding Tasks (2023年3月)
- Can ChatGPT Understand Too? A Comparative Study on ChatGPT and Fine-tuned BERT (2023年2月)
- EvoPrompting: Language Models for Code-Level Neural Architecture Search (2023年2月)
- In-Context Instruction Learning (2023年2月)
- Chain of Hindsight Aligns Language Models with Feedback (2023年2月)
- Language Is Not All You Need: Aligning Perception with Language Models (2023年2月)
- Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data (2023年2月)
- Active Prompting with Chain-of-Thought for Large Language Models (2023年2月)
- More than you've asked for: A Comprehensive Analysis of Novel Prompt Injection Threats to Application-Integrated Large Language Models (2023年2月)
- A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT (2023年2月)
- Guiding Large Language Models via Directional Stimulus Prompting (2023年2月)
- How Does In-Context Learning Help Prompt Tuning? (2023年2月)
- Scalable Prompt Generation for Semi-supervised Learning with Language Models (2023年2月)
- Bounding the Capabilities of Large Language Models in Open Text Generation with Prompt Constraints (2023年2月)
- À-la-carte Prompt Tuning (APT): Combining Distinct Data Via Composable Prompting (2023年2月)
- GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph Neural Networks (2023年2月)
- The Capacity for Moral Self-Correction in Large Language Models (2023年2月)
- SwitchPrompt: Learning Domain-Specific Gated Soft Prompts for Classification in Low-Resource Domains (2023年2月)
- Evaluating the Robustness of Discrete Prompts (2023年2月)
- Compositional Exemplars for In-context Learning (2023年2月)
- Hard Prompts Made Easy: Gradient-Based Discrete Optimization for Prompt Tuning and Discovery (2023年2月)
- Multimodal Chain-of-Thought Reasoning in Language Models (2023年2月)
- Large Language Models Can Be Easily Distracted by Irrelevant Context (2023年2月)
- Synthetic Prompting: Generating Chain-of-Thought Demonstrations for Large Language Models (2023年2月)
- Progressive Prompts: Continual Learning for Language Models (2023年1月)
- Batch Prompting: Efficient Inference with LLM APIs (2023年1月)
- Demonstrate-Search-Predict: Composing retrieval and language models for knowledge-intensive NLP (2022年12月)
- On Second Thought, Let's Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning (2022年12月)
- Constitutional AI: Harmlessness from AI Feedback (2022年12月)
- Successive Prompting for Decomposing Complex Questions (2022年12月)
- Large Language Models are reasoners with Self-Verification (2022年12月)
- Discovering Language Model Behaviors with Model-Written Evaluations (2022年12月)
- Structured Prompting: Scaling In-Context Learning to 1,000 Examples (2022年12月)
- PAL: Program-aided Language Models (2022年11月)
- Large Language Models Are Human-Level Prompt Engineers (2022年11月)
- 忽略之前的提示:语言模型的攻击技术(2022年11月)
- 机器生成文本:威胁模型和检测方法的综合调查(2022年11月)
- 通过上下文学习教授算法推理(2022年11月)
- 通过自然语言推理增强预训练语言模型的自一致性和性能(2022年11月)
- 问我任何事:提示语言模型的简单策略(2022年10月)
- 通过朗诵增强的语言模型(2022年10月)
- ReAct:在语言模型中协同推理和行动(2022年10月)
- 提示 GPT-3 成为可靠的方法(2022年10月)
- 分解提示:解决复杂任务的模块化方法(2022年10月)
- 大型语言模型中的自动思维链提示(2022年10月)
- 语言模型是贪婪推理者:链式思维的系统形式分析(2022年10月)
- 通过手工制作的对抗性示例评估预训练语言模型的易感性(2022年9月)
- 通过策略梯度进行半结构化数学推理的动态提示学习(2022年9月)
- Promptagator:从8个示例中进行少样本密集检索(2022年9月)
- Atlas:检索增强语言模型进行少样本学习(2022年11月)
- DocPrompting:通过检索文档生成代码(2022年7月)
- 重新思考使语言模型成为更好推理者的作用(2022年6月)
- 大型语言模型是零样本推理者(2022年5月)
- 助产提示:具有递归解释的逻辑一致推理(2022年5月)
- MRKL 系统:结合大型语言模型、外部知识源和离散推 理的模块化神经符号架构(2022年5月)
- PPT:用于少样本学习的预训练提示调整(2022年5月)
- 使用生成式提示推断检测有害内容(2022年5月)
- 学习将提示转移用于文本生成(2022年5月)
- 少样本推理中解释的不可靠性(2022年5月)
- 文本到图像生成的提示修饰符分类法(2022年4月)
- PromptChainer:通过可视化编程链接大型语言模型提示(2022年3月)
- 自一致性改善语言模型的思维链推理(2022年3月)
- 训练语言模型遵循人类反馈的指示
- 重新思考演示的作用:上下文学习成功的关键是什么?(2022年2月)
- 思维链提示引发大型语言模型的推理(2022年1月)
- 展示你的工作:与语言模型进行中间计算的草稿本(2021年11月)
- AI 链:通过链接大型语言模型提示实现透明可控的人机交互(2021年10月)
- 生成知识提示用于常识推理(2021年10月)
- 多任务提示训练实现零样本任务泛化(2021年10月)
- 重新构思 GPTk 语言的指示提示(2021年9月)
- 用于文本到图像生成模型的提示工程设计准则(2021年9月)
- 使预训练语言模型成为更好的少样本学习者(2021年8月)
- 奇妙有序的提示及其发现之处:克服少样本提示顺序敏感性(2021年4月)
- BERTese:学习与 BERT 对话(2021年4月)
- 规模的力量:用于参数高效提示调整的规模(2021年4月)
- 大型语言模型的提示编程:超越少样本范式 (2021年2月)
- 使用前校准:提高语言模型的少样本性能 (2021年2月)
- 前缀调优:优化生成的连续提示 (2021年1月)
- 从任务描述中学习生成任务特定的适配器 (2021年1月)
- 使预训练语言模型成为更好的少样本学习者 (2020年12月)
- 从任务描述中学习 (2020年11月)
- 自动提示:使用自动生成的提示从语言模型中引出知识 (2020年10月)
- 语言模型是少样本学习者 (2020年5月)
- 我们如何知道语言模型知道什么? (2020年7月)
- 神经语言模型的缩放定律 (2020年1月)
应用
- PromptRE: 通过基于提示的数据编程改进弱监督文档级关系抽取 (2023年10月)
- 使用思维链为少样本知识库问题生成引导大型语言模型 (2023年10月)
- 谁写了这篇文章以及为什么?为作者验证提示大型语言模型 (2023年10月)
- Promptor:用于智能文本输入技术的对话式自主提示生成代理 (2023年10月)
- 思维传播:大型语言模型进行复杂推理的类比方法 (2023年10月)
- 从稀疏到密集:使用密度提示链的GPT-4摘要 (2023年9月)
- 自学习优化器(STOP):递归自我改进的代码生成 (2023年10月)
- 三思而后言:使用暂停标记训练语言模型 (2023年10月)
- (动态)提示也许是修复压缩LLM所需的全部内容 (2023年10月)
- 大型语言模型中的上下文学习:对表示的神经科学启发式分析 (2023年9月)
- 从重复中学习上下文学习 (2023年9月)
- 通过思维链提示增强大型语言模型在反思评估方法中的零样本推理 (2023年9月)
- 个性化文本生成的自动提示重写 (2023年9月)
- 具有关注汇的高效流式语言模型 (2023年9月)
- LMM的黎明:与GPT-4V(ision)的初步探索 (2023年9月)
- 使用大型语言模型进行图神经提示 (2023年9月)
- 大型语言模型对齐:一项调查 (2023年9月)
- 通过逻辑增强大型语言模型中的零样本思维链推理 (2023年9月)
- 关于上下文学习的零样本提示设计的实用调查 (2023年9月)
- EchoPrompt:指导模型重新表达查询以改善上下文学习 (2023年9月)
- 提示、条件和生成:使用上下文学习对不支持的主张进行分类 (2023年9月)
- PolicyGPT:使用大型语言模型自动分析隐私政策 (2023年9月)
- LLM4Jobs:利用大型语言模型进行无监督职业提取和标准化 (2023年9月)
- 摘要生成已死(几乎) (2023年9月)
- 在事实验证中调查零样本和少样本泛化 (2023年9月)
- 预训练大型语言模型GPT-4在自动短答案评分上的性能 (2023年9月)
- 对比解码改善大型语言模型的推理能力 (2023年9月)
- Struc-Bench:大型语言模型在生成复杂结构化数据方面真的表现良好吗? (2023年9月)
- 神经机器翻译模型可以学习成为少样本学习者 (2023年9月)
- 链式思维推理是一种策略改进操作符 (2023年9月)
- ICLEF:利用专家反馈的上下文学习进行可解释风格迁移 (2023年9月)
- 生成式查询和文档扩展何时失败?跨方法、检索器和数据集的综合研究 (2023年9月)
- 使用大型语言模型进行知识工程 (LLMKE):维基数据案例研究 (2023年9月)
- 自洽叙事提示在溯因自然语言推理中的应用 (2023年9月)
- 探讨大型语言模型在长篇问答中的可回答性 (2023年9月)
- PromptTTS++:使用自然语言描述控制提示文本到语音的说话人身份 (2023年9月)
- 大语言模型在零样本临床自然语言处理中的提示策略实证评估 (2023年9月)
- 利用上下文信息进行有效的实体显著性检测 (2023年9月)
- Prompting4Debugging:通过查找问题提示对文本到图像扩散模型进行红队测试 (2023年9月)
- PACE:通过提示和增强校准GPT-4在云事件根本原因分析中的置信度估计 (2023年9月)
- 从稀疏到密集:使用链式密度提示进行GPT-4摘要生成 (2023年9月)
- 测量和改进视觉语言模型中的链式思维推理 (2023年9月)
- 大型语言模型的零资源幻觉预防 (2023年9月)
- 认证大型语言模型安全性以防对抗性提示 (2023年9月)
- 通过动态温度采样提高代码生成 (2023年9月)
- 提示大型语言模型生成多样化的激励消息:与人类编写消息的比较 (2023年8月)
- 使用微调Llama 2 GPT模型进行金融新闻分析 (2023年8月)
- 大型语言模型代码生成的稳健性和可靠性研究 (2023年8月)
- 大型语言模型投票:提示识别罕见疾病 (2023年8月)
- WizardMath:通过强化进化指令增强大型语言模型的数学推理能力 (2023年8月)
- 混合思维树:结合快思考和慢思考进行多跳视觉推理 (2023年8月)
- 思维图:用大型语言模型解决复杂问题 (2023年8月)
- 使用链式话语对大型语言模型进行红队测试以实现安全对齐 (2023年8月)
- 通过新框架提升大型语言模型的逻辑推理能力:思维图 (2023年8月)
- 一次提示:提示学习在大型语言模型上处理有毒内容的能力 (2023年8月)
- 大型语言模型作为数据库管理员 (2023年8月)
- 通过逐步规划生成可解释的数学词问题解决方案 (2023年6月)
- 面向任务导向对话系统的上下文学习用户模拟器 (2023年6月)
- SQL-PaLM:改进的大型语言模型适配文本到SQL (2023年6月)
- 通过元学习和代表性词化器实现有效的结构化提示 (2023年6月)
- 布局和任务感知的指令提示用于零样本文档图像问答 (2023年6月)
- 流式批处理下的链式思维提示:案例研究 (2023年6月)
- 使用语言模型对语言模型检测器进行红队测试 (2023年5月)
- Gorilla:与大量API连接的大型语言模型 (2023年5月)
- 深思熟虑后生成:增强的文本生成提示框架 (2023年5月)
- 未能在零/少样本设置中使用“分别”进行推理告诉我们关于语言模型的什么? (2023年5月)
- ScoNe:通过微调和上下文学习对语言模型的否定推理进行基准测试 (2023年5月)
- SheetCopilot:通过大型语言模型提升软件生产力到新水平 (2023年5月)
- 领域特定语言生成的语法提示 (2023年5月)
- 通过上下文学习减轻标签偏见 (2023年5月)
- 使用单次提示和文本相似度评分模型进行简短答案评分 (2023年5月)
- 使用语言模型进行战略推理 (2023年5月)
- 解析链式思维:多层感知器的组成式上下文学习研究 (2023年5月)
- 标记人格:使用自然语言提示测量语言模型中的刻板印象 (2023年5月)
- 通过少样本提示进行数值推理的训练数据利用 (2023年5月)
- 探索GPT-3在语法错误校正中的有效性:提示方法的性能和可控性研究 (2023年5月)
- NOTABLE:针对基于提示的自然语言处理模型的可迁移后门攻击 (2023年5月)
- Tab-CoT:零样本表格链式思维 (2023年5月)
- 评估GPT-3生成的仇恨内容审核解释 (2023年5月)
- 面向非知识密集型任务的提示引导检索增强 (2023年5月)
- 通过基于提示的元学习实现零样本和少样本事件检测 (2023年5月)
- 思维链枢纽:持续衡量大型语言模型推理性能的努力 (2023年5月)
- 大型语言模型可以是懒惰学习者:分析上下文学习中的捷径 (2023年5月)
- 大型语言模型的异质价值评估 (2023年5月)
- PromptNER: 提示定位和命名实体识别 (2023年5月)
- 小型语言模型通过重写其输出来改善巨型模型 (2023年5月)
- 对大型语言模型规划能力的关键调查 (2023年5月)
- 超越思维链,在大型语言模型中实现有效的思维图推理 (2023年5月)
- PRODIGY:在图上实现上下文学习 (2023年5月)
- 大型语言模型是少样本健康学习者 (2023年5月)
- 与大型语言模型角色扮演 (2023年5月)
- 通过不完全示例衡量上下文学习的归纳偏差 (2023年5月)
- 通过程序引导推理对复杂声明进行事实核查 (2023年5月)
- 大型语言模型作为工具制造者 (2023年5月)
- 迭代前向调优提升语言模型的上下文学习 (2023年5月)
- SwiftSage: 具有快思维和慢思维的生成代理,用于复杂的交互任务 (2023年5月)
- 交互自然语言处理 (2023年5月)
- 自动发现的思维链提示可以推广到新模型和数据集 (2023年5月)
- 大型语言模型引导的思维树 (2023年5月)
- 主动检索增强生成 (2023年5月)
- 一名博士生对大型语言模型时代自然语言处理研究的看法 (2023年5月)
- 视觉思维链:通过多模态填充弥补逻辑空隙 (2023年5月)
- 海市蜃楼:对话系统中的拟人化 (2023年5月)
- 极端风险的模型评估 (2023年5月)
- 语言模型并不总是说出它们的想法:思维链提示中的不忠实解释 (2023年5月)
- 通过人机互动重新构建消极思想 (2023年5月)
- PromptClass: 通过增强的提示自训练实现弱监督文本分类 (2023年5月)
- 通过参数化知识引导增强大型语言模型 (2023年5月)
- 通过合成反馈对齐大型语言模型 (2023年5月)
- 概念感知训练提升语言模型的上下文学习能力 (2023年5月)
- FrugalGPT: 如何在减少成本并提高性能的同时使用大型语言模型 (2023年5月)
- 通过基于提示的数据增强提升黑盒少样本文本分类 (2023年5月)
- 自动检测临床文档布局以增强后续自然语言处理的性能 (2023年5月)
- "教宗是天主教徒吗?" 应用思维链推理理解对话含义 (2023年5月)
- 逐帧思考:通过视频填充和预测评估视频思维链 (2023年5月)
- 用大型语言模型生成符号语言的数据 (2023年5月)
- 做出选择! 基于上下文学习的知识库问答 (2023年5月)
- 通过即插即用检索反馈改进语言模型 (2023年5月)
- 多粒度提示用于对话中的主题转换检测 (2023年5月)
- CoT集合:通过思维链微调提升语言模型的零样本和少样本学习 (2023年5月)
- 语言模型能理解物理概念吗? (2023年5月)
- 用大型语言模型评估摘要的事实一致性 (2023年5月)
- Dr.ICL:示范检索上下文学习 (2023年5月)
- 在上下文中探测:通过探测大型语言模型构建鲁棒分类器 (2023年5月)
- 基于技能的少样本选择用于上下文学习 (2023年5月)
- 探索思维链风格提示用于文本到SQL (2023年5月)
- 通过扩展高质量的教学对话提升聊天语言模型 (2023年5月)
- 通过大型语言模型作为参考学习生成新的科学方向 (2023年5月)
- 用上下文化文献发现生成新的科学方向 (2023年5月)
- 上下文学习的主动学习原则 (2023年5月)
- 大型语言模型多步推理中的两个自一致性失败 (2023年5月)
- 通过多代理辩论提升语言模型的事实性和推理能力 (2023年5月)
- ChatCoT: 基于工具增强的链式思维推理\ 基于聊天的大语言模型 (2023年5月)
- WikiChat: 基于维基百科的少量示例大语言模型聊天机器人 (2023年5月)
- 检索增强大语言模型的查询重写 (2023年5月)
- 离散提示优化通过约束生成用于零样本重新排序 (2023年5月)
- 大语言模型的元素感知总结:与专家对齐的评估和链式思维方法 (2023年5月)
- 小语言模型通过重写其输出提升巨型模型 (2023年5月)
- 促进对话的大语言模型提示与评估:澄清、目标导向和非协作 (2023年5月)
- 用于目标导向对话策略规划的基于提示的蒙特卡罗树搜索 (2023年5月)
- 通过互动问题与知识对齐缓解语言模型幻觉 (2023年5月)
- 通过执行反馈使语言模型成为更好的工具学习者 (2023年5月)
- 使用代码语言模型进行Text-to-SQL错误纠正 (2023年5月)
- 使用大语言模型的分解提示进行相关语言之间的机器翻译 (2023年5月)
- SPARSEFIT:通过稀疏微调联合生成预测与自然语言解释的少量示例提示 (2023年5月)
- "根据..." 提示语言模型提高引用预训练数据的能力 (2023年5月)
- 基于提示的方法可能低估大语言模型的语言泛化能力 (2023年5月)
- 知识链:用结构化知识库为大语言模型提供基础的框架 (2023年5月)
- 通过不充分的示例测量上下文学习的归纳偏差 (2023年5月)
- 使用指令微调语言模型的自动少样本分类 (2023年5月)
- 增强大语言模型的少量示例Text-to-SQL能力:关于提示设计策略的研究 (2023年5月)
- MvP:多视图提示改进方面感情元组预测 (2023年5月)
- 通过提示语言模型学习可解释风格嵌入 (2023年5月)
- 通过隐私保护的上下文提示增强小型医疗学习者 (2023年5月)
- 使用程序引导推理进行复杂声称的事实检查 (2023年5月)
- 极度弱监督文本分类基准:调和种子匹配和提示方法 (2023年5月)
- 此提示在测量<MASK>:评估语言模型中的偏差测量 (2023年5月)
- 通过具有多语种口述器的软提示增强跨语言自然语言推理 (2023年5月)
- 评估基于提示的问题回答,预测开放研究知识图中的对象 (2023年5月)
- 解释Transformer如何使用上下文构建预测 (2023年5月)
- PiVe:通过迭代验证的提示提高大语言模型的图生成能力 (2023年5月)
- PromptNER:通过k近邻搜索进行少样本命名实体识别提示方法 (2023年5月)
- Logic-LM:为大语言模型赋能符号求解器以进行忠实的逻辑推理 (2023年5月)
- 通过提示排序的数据增强提升少样本命名实体识别 (2023年5月)
- 链式思维提示响应大语言模型中的深度对话问题 (2023年5月)
- 如何提示LLM进行Text-to-SQL:零样本、单域和跨域设置研究 (2023年5月)
- 中大型语言模型在零样本闭卷生成问题回答中的评估 (2023年5月)
- 通过骨架辅助的提示转移进行少样本对话摘要 (2023年5月)
- NLP模型能否正确推理打破常见假设的上下文? (2023年5月)
- 通过链式思维提示推理隐含情感 (2023年5月)
- 写你自己的书:从闭卷到开卷的问答方法,提高小型LLM的稳健性和性能 (2023年5月)
- AutoTrial:为临床试验设计提示语言模型 (2023年5月)
- CRITIC:大语言模型可以通过工具互动自我纠正 (2023年5月)
- 通过提示调优控制从大语言模型中提取记忆数据 (2023年5月)
- 使用伪代码指令进行提示 (2023年5月)
- TrueTeacher:通过大语言模型学习事实一致性评估 (2023年5月)
- 对齐指令任务解锁大语言模型作为零样本关系提取器 (2023年5月)
- 利用有偏见模型去偏文本:一种性别公平的重写模型 (2023年5月)
- 为命名实体识别学习上下文学习 (2023年5月)
- 在中途休息:调查分目标以实现分层脚本生成 (2023年5月)
- TEPrompt:面向隐含话语关系识别的任务启发提示学习 (2023年5月)
- 大语言模型可以被引导躲避AI生成文本检测 (2023年5月)
- 使用上下文学习进行无知识的时间知识图预测 (2023年5月)
- 提示网络规模语音模型隐藏的才能以进行零样本任务泛化 (2023年5月)
- 跳出代码思维:头脑风暴提升大语言模型的代码生成 (2023年5月)
- 通过自我博弈和基于AI反馈的上下文学习改进语言模型谈判 (2023年5月)
- ConvXAI:通过对话提供异构AI解释以支持人机协作科学写作 (2023年5月)
- StructGPT:大语言模型推理结构化数据的通用框架 (2023年5月)
- 使用大语言模型朝着专家级医学问答努力 (2023年5月)
- 大语言模型是内置的自回归搜索引擎 (2023年5月)
- MsPrompt: 多步骤提示学习去偏少样本事件检测 (2023年5月)
- 研究层归一化对零样本神经机器翻译的影响 (2023年5月)
- SGP-TOD: 通过模式引导的LLM提示轻松构建任务机器人 (2023年5月)
- 多模态视觉理解提示用于图像语义信息解耦 (2023年5月)
- 多语言密集检索的软提示解码 (2023年5月)
- PaLM 2 技术报告 (2023年5月)
- 大语言模型(LLM)是面向任务对话所需要的一切吗? (2023年4月)
- HiPrompt:通过层次性提示进行少样本生物医学知识融合 (2023年4月)
- 通过提示近似社会聊天机器人的人类评价 (2023年4月)
- 使用OpenAI大型语言模型进行自动阅读段落生成 (2023年4月)
- WebBrain:通过基于大型网络语料库生成正确的查询文章 (2023年4月)
- 具有二万类的提示预训练用于开放词汇视觉识别 (2023年4月)
- GPT检测器对非母语英语写作者存在偏见 (2023年4月)
- 使用大型预训练语言模型进行 零样本下一项推荐 (2023年4月)
- 大型语言模型作为万能钥匙:使用GPT解锁材料科学的奥秘 (2023年4月)
- 使用提示调优高效对齐的跨语言迁移学习用于对话任务 (2023年4月)
- 通过自我改进提升代码语言模型 (2023年4月)
- PromptORE —— 全无监督关系抽取的一种新方法 (2023年4月)
- 使用气候资源增强大型语言模型 (2023年3月)
- BloombergGPT:一个面向金融的大型语言模型 (2023年3月)
- 使用医学提示的语言增强Transformer编码器进行医疗干预时长估计 (2023年3月)
- 使用软提示调优预测初级护理自由文本荷兰医学笔记中的肺癌 (2023年3月)
- TaskMatrix.AI:通过连接基础模型与数百万API完成任务 (2023年3月)
- 较大探针讲述不同的故事:通过上下文学习扩展心理语言学数据集 (2023年3月)
- 使用语言学启发的ChatGPT提示提高日汉机器翻译:以定语从句为案例研究 (2023年3月)
- 使用混合提示调优的知识增强框架语义解析 (2023年3月)
- 通过去偏2D扩散的评分和提示实现稳健的文本到3D生成 (2023年3月)
- 零样本模型诊断 (2023年3月)
- 提示大型语言模型生成代码混合文本:以东南亚语言为例 (2023年3月)
- SPeC:在临床笔记摘要中缓解性能波动的软提示校准 (2023年3月)
- 大型语言模型与简单、愚蠢的错误 (2023年3月)
- 生成预训练Transformer(GPT)能通过高等教育编程课程的评估吗? (2023年3月)
- SelfCheckGPT:用于生成大型语言模型的零资源黑盒幻觉检测 (2023年3月)
- 职场中的大型语言模型:关于职位分类提示工程的案例研究 (2023年3月)
- ICL-D3IE:通过多样化示例更新的文档信息提取之上下文学习 (2023年3月)
- MathPrompter:使用大型语言模型进行数学推理 (2023年3月)
- 用于网 络安全论坛中的线程结构预测的提示学习 (2023年3月)
- 选择胜于控制:用户使用叙述和非叙述提示与大型语言模型写作 (2023年3月)
- 使用答案启发式的提示大型语言模型进行基于知识的视觉问答 (2023年3月)
- 通过软提示引导的联合学习进行跨域情感分析 (2023年3月)
- SpeechPrompt v2:用于语音分类任务的提示调优 (2023年3月)
- 通过语言描述发现分布差异 (2023年2月)
- 在灰色地带中导航:语言模型中过度自信和不确定性的表达 (2023年2月)
- TabGenie:表格到文本生成工具包 (2023年2月)
- SGL-PT:具有图提示调优的强图学习者 (2023年2月)
- 通过提示适配器进行少样本表格到文本生成 (2023年2月)
- 语言模型是少样本学习者用于预后预测 (2023年2月)
- STA:自控文本增强以改进文本分类 (2023年2月)
- 检查您的事实并重试:通过外部知识和自动反馈改进大型语言模型 (2023年2月)
- 生成式AI模型如ChatGPT在SPC实践、教育和研究中的(误)用?一个探索性研究 (2023年2月)
- 在仙境中的格林童话:使用Midjourney进行童话插图的提示工程 (2023年2月)
- LabelPrompt:用于关系分类的有效提示学习 (2023年2月)
- 语言模型的交叉:通过少样本提示进行变异 (2023年2月)
- 深度神经网络的提示调优用于自适应视觉语音识别 (2023年2月)
- 大型语言模型的道德自我修正能力 (2023年2月)
- 用于多模态仇恨模因分类的提示 (2023年2月)
- PLACES:提示语言模型进行社交对话合成 (2023年2月)
- Toolformer:语言模型可以自学使用工具 (2023年2月)
- 具有常识感知的提示用于可控的同理心对话生成 (2023年2月)
- 爬取语言模型的内部知识库 (2023年1月)
- 多语言法律判决预测的法律提示工程 (2022年12月)
- 扩散模型中的提示工程研究 (2022年11月)
- 学习解释:通过思维链进行的多模态推理,用于科学问答 (2022年9月)
- 与Copilot对话:探索通过自然语言解决CS1问题的提示工程 (2022年10月)
- 驾驶Copilot和Codex:高温、冷提示,还是黑魔法? (2022年10月)
- 从预训练语言模型中编写情节 (2022年7月)
- 自然语言生成中的幻觉调查 (2022年2月)