上下文相关
上下文相关 #
基础类: OpenAILike
使用Contextual的Grounded Language Model (GLM)生成响应,这是一个专门设计的LLM,旨在优先考虑对上下文检索的忠实度而非参数化知识,以减少检索增强生成中的幻觉现象。
总请求不能超过32,000个token。如有任何反馈或问题,请发送邮件至[email protected]。
示例:
pip install llama-index-llms-contextual
from llama_index.llms.contextual import Contextual
# Set up the Contextual class with the required model and API key
llm = Contextual(model="contextual-clm", api_key="your_api_key")
# Call the complete method with a query
response = llm.complete("Explain the importance of low latency LLMs")
print(response)
Source code in llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 |
|
class_name
classmethod
#
class_name() -> str
获取类名。
Source code in llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
82 83 84 85 |
|
完成 #
complete(prompt: str, knowledge: Optional[List[str]] = None, **kwargs) -> CompletionResponse
为给定的提示生成补全内容。
参数:
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
prompt
|
str
|
用于生成补全的输入提示。 |
required |
**kwargs
|
API请求的额外关键字参数。 |
{}
|
返回:
名称 | 类型 | 描述 |
---|---|---|
str |
CompletionResponse
|
生成的文本补全。 |
Source code in llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 |
|
聊天 #
chat(messages: List[ChatMessage], **kwargs) -> ChatResponse
为给定的消息生成聊天回复。
Source code in llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 |
|
stream_chat #
stream_chat(messages: List[ChatMessage], **kwargs) -> ChatResponseGen
为给定的消息生成聊天回复。
Source code in llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
132 133 134 135 136 137 |
|
stream_complete #
stream_complete(prompt: str, **kwargs) -> ChatResponseGen
为给定的消息生成聊天回复。
Source code in llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
139 140 141 142 143 144 |
|