内容导航
- 内容导航
- 提示工程指南
- 数据集
- 提示工程笔记
- 工具与库
- 关于
- 阅读推荐
- 论文
- 检索增强生成(RAG)用于LLMs
- 通过 RAG 减少结构化输出中的虚构现象
- 用中间修订和搜索进行LLMs推理
- RAG 模型的可靠性有多高?
- LLM 分词
- LLM 推理
- 什么是 Groq?
- 大型语言模型的可信度
- 高效的无限上下文变压器
- LLM 在上下文中的回忆受提示影响
- LM引导的思维链
- 语言模型合成数据的最佳实践和经验教训
- LLM 代理
- 提示示例
- 提示的要素
- 提示的基础
- LLM 设置
- 设计提示建议
- Mixtral
- Mistral 7B LLM
- Gemini
- Llama 3
- OLMo
- Gemini 1.5 Pro
- Gemini Advanced
- Mixtral 8x22B
- Claude 3
- Mistral Large
- Grok-1
- #LLaMA:开放高效的基础语言模型
- GPT-4
- ChatGPT
- Flan
- LLM 集合
- Sora
- Phi-2
- Gemma
- Code Llama
- LLM 中的对抗提示
- 真实性
- 偏见
- 使用LLM进行函数调用
- 提示功能
- 应对生成数据集的多样性
- 代码生成
- 数据生成
- 为 RAG 生成合成数据集
- 研究生工作分类案例研究
- 使用LLMs进行少样本情感分类
- 使用大型语言模型进行情感分类
- 使用LLMs回答封闭域问题
- 使用LLMs回答开放域问题
- 使用LLMs回答科学问题
- 跨学科任务与LLM
- 押韵的证明
- 用莎士比亚风格证明素数无穷多
- 发明新词
- 使用字母画一个人
- 提取论文中的模型名称
- 评估复合函数
- 使用LLMs加法奇数
- 使用LLMs进行间接推理
- 使用LLMs进行物理推理
- 在LLM回复中识别幻觉
- 评估柏拉图的对话
- 使用LLM生成代码片段
- 绘制 TiKZ 图
- 使用 LLM 生成 MySQL 查询
- LLM 中的提示注入
- 破解语言模型
- 提示泄露 (Prompt Leaking) 在大语言模型中的问题
- 用LLMs解释概念
- 自洽性
- 思维链提示
- 生成知识引导
- 图谱提示
- 自动提示工程师(APE)
- 思维树(ToT)
- 检索增强生成(RAG)
- 少样本提示
- 提示链
- Zero-Shot 提示
- 主动提示
- 方向性刺激提示
- 自动推理与工具使用(ART)
- 反思
- 程序辅助的语言模型(PAL)
- 多模态 CoT 提示
- ReAct提示