导入模型
目录
从 Safetensors 权重导入微调适配器
首先,创建一个 Modelfile 文件,使用 FROM 命令指向你用于微调的基础模型,并使用 ADAPTER 命令指向包含 Safetensors 适配器的目录:
FROM <基础模型名称>
ADAPTER /path/to/safetensors/adapter/directory
请确保在 FROM 命令中使用的基础模型与创建适配器时使用的基础模型相同,否则会得到不稳定的结果。大多数框架使用不同的量化方法,因此最好使用非量化(即非 QLoRA)适配器。如果你的适配器与 Modelfile 在同一目录中,可以使用 ADAPTER . 来指定适配器路径。
现在在创建 Modelfile 的目录中运行 ollama create 命令:
ollama create my-model
最后,测试模型:
ollama run my-model
Ollama 支持导入基于多种不同模型架构的适配器,包括:
- Llama(包括 Llama 2、Llama 3、Llama 3.1 和 Llama 3.2)
- Mistral(包括 Mistral 1、Mistral 2 和 Mixtral)
- Gemma(包括 Gemma 1 和 Gemma 2)
你可以使用能够输出 Safetensors 格式适配器的微调框架或工具来创建适配器,例如:
从 Safetensors 权重导入模型
首先,创建一个 Modelfile 文件,使用 FROM 命令指向包含 Safetensors 权重的目录:
FROM /path/to/safetensors/directory
如果你在权重文件所在的同一目录中创建 Modelfile,可以使用命令 FROM .。
现在在创建 Modelfile 的目录中运行 ollama create 命令:
ollama create my-model
最后,测试模型:
ollama run my-model
Ollama 支持导入多种不同架构的模型,包括:
- Llama(包括 Llama 2、Llama 3、Llama 3.1 和 Llama 3.2)
- Mistral(包括 Mistral 1、Mistral 2 和 Mixtral)
- Gemma(包括 Gemma 1 和 Gemma 2)
- Phi3
这包括导入基础模型以及任何已与基础模型_融合_的微调模型。
导入基于 GGUF 的模型或适配器
如果你有基于 GGUF 的模型或适配器,可以将其导入到 Ollama 中。你可以通过以下方式获得 GGUF 模型或适配器:
- 使用 Llama.cpp 的
convert_hf_to_gguf.py转换 Safetensors 模型 - 使用 Llama.cpp 的
convert_lora_to_gguf.py转换 Safetensors 适配器 - 从 HuggingFace 等地方下载模型或适配器
要导入 GGUF 模型,创建包含以下内容的 Modelfile:
FROM /path/to/file.gguf
对于 GGUF 适配器,创建包含以下内容的 Modelfile:
FROM <模型名称>
ADAPTER /path/to/file.gguf
导入 GGUF 适配器时,使用与创建适配器的基础模型相同的基础模型非常重要。你可以使用:
- Ollama 中的模型
- GGUF 文件
- 基于 Safetensors 的模型
创建 Modelfile 后,使用 ollama create 命令构建模型。
ollama create my-model
量化模型
量化模型允许你以更快的速度和更少的内存消耗运行模型,但精度会有所降低。这使你能够在更modest的硬件上运行模型。
Ollama 可以使用 ollama create 命令的 -q/--quantize 标志将基于 FP16 和 FP32 的模型量化为不同的量化级别。
首先,创建一个包含你要量化的 FP16 或 FP32 模型的 Modelfile。
FROM /path/to/my/gemma/f16/model
使用 ollama create 创建量化模型。
$ ollama create --quantize q4_K_M mymodel
transferring model data
quantizing F16 model to Q4_K_M
creating new layer sha256:735e246cc1abfd06e9cdcf95504d6789a6cd1ad7577108a70d9902fef503c1bd
creating new layer sha256:0853f0ad24e5865173bbf9ffcc7b0f5d56b66fd690ab1009867e45e7d2c4db0f
writing manifest
success
支持的量化方式
q8_0
K-means 量化
q4_K_Sq4_K_M
在 ollama.com 上分享你的模型
你可以通过将创建的任何模型推送到 ollama.com 来分享它,让其他用户可以试用。
首先,使用浏览器访问 Ollama 注册页面。如果你已经有账户,可以跳过此步骤。
用户名 字段将用作模型名称的一部分(例如 jmorganca/mymodel),所以请确保你满意所选择的用户名。
创建账户并登录后,访问 Ollama 密钥设置页面。
按照页面上的说明确定你的 Ollama 公钥位置。
点击 添加 Ollama 公钥 按钮,将你的 Ollama 公钥内容复制并粘贴到文本字段中。
要将模型推送到 ollama.com,首先确保模型名称包含你的用户名。你可能需要使用 ollama cp 命令复制模型以给它正确的名称。对模型名称满意后,使用 ollama push 命令将其推送到 ollama.com。
ollama cp mymodel myuser/mymodel
ollama push myuser/mymodel
模型推送完成后,其他用户可以使用以下命令拉取并运行它:
ollama run myuser/mymodel
导入模型
目录
从 Safetensors 权重导入微调适配器
首先,创建一个 Modelfile 文件,使用 FROM 命令指向你用于微调的基础模型,并使用 ADAPTER 命令指向包含 Safetensors 适配器的目录:
FROM <基础模型名称>
ADAPTER /path/to/safetensors/adapter/directory
注意: 请确保在
FROM命令中使用的基础模型与创建适配器时使用的基础模型相同,否则会得到不稳定的结果。大多数框架使用不同的量化方法,因此最好使用非量化(即非 QLoRA)适配器。如果你的适配器与Modelfile在同一目录中,可以使用ADAPTER .来指定适配器路径。
现在在创建 Modelfile 的目录中运行 ollama create 命令:
ollama create my-model
最后,测试模型:
ollama run my-model
Ollama 支持导入基于多种不同模型架构的适配器,包括:
- Llama(包括 Llama 2、Llama 3、Llama 3.1 和 Llama 3.2)
- Mistral(包括 Mistral 1、Mistral 2 和 Mixtral)
- Gemma(包括 Gemma 1 和 Gemma 2)
你可以使用能够输出 Safetensors 格式适配器的微调框架或工具来创建适配器,例如:
从 Safetensors 权重导入模型
首先,创建一个 Modelfile 文件,使用 FROM 命令指向包含 Safetensors 权重的目录:
FROM /path/to/safetensors/directory
如果你在权重文件所在的同一目录中创建 Modelfile,可以使用命令 FROM .。
现在在创建 Modelfile 的目录中运行 ollama create 命令:
ollama create my-model
最后,测试模型:
ollama run my-model
Ollama 支持导入多种不同架构的模型,包括:
- Llama(包括 Llama 2、Llama 3、Llama 3.1 和 Llama 3.2)
- Mistral(包括 Mistral 1、Mistral 2 和 Mixtral)
- Gemma(包括 Gemma 1 和 Gemma 2)
- Phi3
这包括导入基础模型以及任何已与基础模型_融合_的微调模型。
导入基于 GGUF 的模型或适配器
如果你有基于 GGUF 的模型或适配器,可以将其导入到 Ollama 中。你可以通过以下方式获得 GGUF 模型或适配器:
- 使用 Llama.cpp 的
convert_hf_to_gguf.py转换 Safetensors 模型 - 使用 Llama.cpp 的
convert_lora_to_gguf.py转换 Safetensors 适配器 - 从 HuggingFace 等地方下载模型或适配器
要导入 GGUF 模型,创建包含以下内容的 Modelfile:
FROM /path/to/file.gguf
对于 GGUF 适配器,创建包含以下内容的 Modelfile:
FROM <模型名称>
ADAPTER /path/to/file.gguf
重要提示: 导入 GGUF 适配器时,使用与创建适配器的基础模型相同的基础模型非常重要。你可以使用:
- Ollama 中的模型
- GGUF 文件
- 基于 Safetensors 的模型
创建 Modelfile 后,使用 ollama create 命令构建模型。
ollama create my-model
量化模型
量化模型允许你以更快的速度和更少的内存消耗运行模型,但精度会有所降低。这使你能够在配置较低的硬件上运行模型。
Ollama 可以使用 ollama create 命令的 -q/--quantize 标志将基于 FP16 和 FP32 的模型量化为不同的量化级别。
首先,创建一个包含你要量化的 FP16 或 FP32 模型的 Modelfile。
FROM /path/to/my/gemma/f16/model
使用 ollama create 创建量化模型。
$ ollama create --quantize q4_K_M mymodel
transferring model data
quantizing F16 model to Q4_K_M
creating new layer sha256:735e246cc1abfd06e9cdcf95504d6789a6cd1ad7577108a70d9902fef503c1bd
creating new layer sha256:0853f0ad24e5865173bbf9ffcc7b0f5d56b66fd690ab1009867e45e7d2c4db0f
writing manifest
success
支持的量化方式
q8_0
K-means 量化
q4_K_Sq4_K_M
在 ollama.com 上分享你的模型
你可以通过将创建的任何模型推送到 ollama.com 来分享它,让其他用户可以试用。
首先,使用浏览器访问 Ollama 注册页面。如果你已经有账户,可以跳过此步骤。
注意:
用户名字段将用作模型名称的一部分(例如jmorganca/mymodel),所以请确保你满意所选择的用户名。
创建账户并登录后,访问 Ollama 密钥设置页面。
按照页面上的说明确定你的 Ollama 公钥位置。
点击 添加 Ollama 公钥 按钮,将你的 Ollama 公钥内容复制并粘贴到文本字段中。
要将模型推送到 ollama.com,首先确保模型名称包含你的用户名。你可能需要使用 ollama cp 命令复制模型以给它正确的名称。对模型名称满意后,使用 ollama push 命令将其推送到 ollama.com。
ollama cp mymodel myuser/mymodel
ollama push myuser/mymodel
模型推送完成后,其他用户可以使用以下命令拉取并运行它:
ollama run myuser/mymodel
我已经为你将 Ollama 模型导入文档重构为中文版本。主要改进包括:
语言优化:
- 使用简洁明了的中文表达
- 为技术术语提供合适的中文翻译(如"微调适配器"、"量化"等)
- 保持专业性的同时确保易读性
结构完善:
- 保持原有的清晰层次结构
- 添加重要提示框(使用
> **注意:**格式) - 保留所有代码示例和技术细节
内容增强:
- 为技术概念提供更详细的解释
- 强调重要的注意事项和操作要点
- 保持所有原有链接和引用的完整性
格式标准化:
- 使用标准 Markdown 格式
- 代码块正确标记语言类型
- 保持与其他文档部分的一致性
这个中文版本保留了原文档的所有重要信息,同时让中文用户更容易理解和操作 Ollama 模型导入流程。