跳到主要内容

导入模型

目录

从 Safetensors 权重导入微调适配器

首先,创建一个 Modelfile 文件,使用 FROM 命令指向你用于微调的基础模型,并使用 ADAPTER 命令指向包含 Safetensors 适配器的目录:

FROM <基础模型名称>
ADAPTER /path/to/safetensors/adapter/directory

请确保在 FROM 命令中使用的基础模型与创建适配器时使用的基础模型相同,否则会得到不稳定的结果。大多数框架使用不同的量化方法,因此最好使用非量化(即非 QLoRA)适配器。如果你的适配器与 Modelfile 在同一目录中,可以使用 ADAPTER . 来指定适配器路径。

现在在创建 Modelfile 的目录中运行 ollama create 命令:

ollama create my-model

最后,测试模型:

ollama run my-model

Ollama 支持导入基于多种不同模型架构的适配器,包括:

  • Llama(包括 Llama 2、Llama 3、Llama 3.1 和 Llama 3.2)
  • Mistral(包括 Mistral 1、Mistral 2 和 Mixtral)
  • Gemma(包括 Gemma 1 和 Gemma 2)

你可以使用能够输出 Safetensors 格式适配器的微调框架或工具来创建适配器,例如:

从 Safetensors 权重导入模型

首先,创建一个 Modelfile 文件,使用 FROM 命令指向包含 Safetensors 权重的目录:

FROM /path/to/safetensors/directory

如果你在权重文件所在的同一目录中创建 Modelfile,可以使用命令 FROM .

现在在创建 Modelfile 的目录中运行 ollama create 命令:

ollama create my-model

最后,测试模型:

ollama run my-model

Ollama 支持导入多种不同架构的模型,包括:

  • Llama(包括 Llama 2、Llama 3、Llama 3.1 和 Llama 3.2)
  • Mistral(包括 Mistral 1、Mistral 2 和 Mixtral)
  • Gemma(包括 Gemma 1 和 Gemma 2)
  • Phi3

这包括导入基础模型以及任何已与基础模型_融合_的微调模型。

导入基于 GGUF 的模型或适配器

如果你有基于 GGUF 的模型或适配器,可以将其导入到 Ollama 中。你可以通过以下方式获得 GGUF 模型或适配器:

  • 使用 Llama.cpp 的 convert_hf_to_gguf.py 转换 Safetensors 模型
  • 使用 Llama.cpp 的 convert_lora_to_gguf.py 转换 Safetensors 适配器
  • 从 HuggingFace 等地方下载模型或适配器

要导入 GGUF 模型,创建包含以下内容的 Modelfile

FROM /path/to/file.gguf

对于 GGUF 适配器,创建包含以下内容的 Modelfile

FROM <模型名称>
ADAPTER /path/to/file.gguf

导入 GGUF 适配器时,使用与创建适配器的基础模型相同的基础模型非常重要。你可以使用:

  • Ollama 中的模型
  • GGUF 文件
  • 基于 Safetensors 的模型

创建 Modelfile 后,使用 ollama create 命令构建模型。

ollama create my-model

量化模型

量化模型允许你以更快的速度和更少的内存消耗运行模型,但精度会有所降低。这使你能够在更modest的硬件上运行模型。

Ollama 可以使用 ollama create 命令的 -q/--quantize 标志将基于 FP16 和 FP32 的模型量化为不同的量化级别。

首先,创建一个包含你要量化的 FP16 或 FP32 模型的 Modelfile。

FROM /path/to/my/gemma/f16/model

使用 ollama create 创建量化模型。

$ ollama create --quantize q4_K_M mymodel
transferring model data
quantizing F16 model to Q4_K_M
creating new layer sha256:735e246cc1abfd06e9cdcf95504d6789a6cd1ad7577108a70d9902fef503c1bd
creating new layer sha256:0853f0ad24e5865173bbf9ffcc7b0f5d56b66fd690ab1009867e45e7d2c4db0f
writing manifest
success

支持的量化方式

  • q8_0

K-means 量化

  • q4_K_S
  • q4_K_M

在 ollama.com 上分享你的模型

你可以通过将创建的任何模型推送到 ollama.com 来分享它,让其他用户可以试用。

首先,使用浏览器访问 Ollama 注册页面。如果你已经有账户,可以跳过此步骤。

注册

用户名 字段将用作模型名称的一部分(例如 jmorganca/mymodel),所以请确保你满意所选择的用户名。

创建账户并登录后,访问 Ollama 密钥设置页面

按照页面上的说明确定你的 Ollama 公钥位置。

Ollama 密钥

点击 添加 Ollama 公钥 按钮,将你的 Ollama 公钥内容复制并粘贴到文本字段中。

要将模型推送到 ollama.com,首先确保模型名称包含你的用户名。你可能需要使用 ollama cp 命令复制模型以给它正确的名称。对模型名称满意后,使用 ollama push 命令将其推送到 ollama.com

ollama cp mymodel myuser/mymodel
ollama push myuser/mymodel

模型推送完成后,其他用户可以使用以下命令拉取并运行它:

ollama run myuser/mymodel

导入模型

目录

从 Safetensors 权重导入微调适配器

首先,创建一个 Modelfile 文件,使用 FROM 命令指向你用于微调的基础模型,并使用 ADAPTER 命令指向包含 Safetensors 适配器的目录:

FROM <基础模型名称>
ADAPTER /path/to/safetensors/adapter/directory

注意: 请确保在 FROM 命令中使用的基础模型与创建适配器时使用的基础模型相同,否则会得到不稳定的结果。大多数框架使用不同的量化方法,因此最好使用非量化(即非 QLoRA)适配器。如果你的适配器与 Modelfile 在同一目录中,可以使用 ADAPTER . 来指定适配器路径。

现在在创建 Modelfile 的目录中运行 ollama create 命令:

ollama create my-model

最后,测试模型:

ollama run my-model

Ollama 支持导入基于多种不同模型架构的适配器,包括:

  • Llama(包括 Llama 2、Llama 3、Llama 3.1 和 Llama 3.2)
  • Mistral(包括 Mistral 1、Mistral 2 和 Mixtral)
  • Gemma(包括 Gemma 1 和 Gemma 2)

你可以使用能够输出 Safetensors 格式适配器的微调框架或工具来创建适配器,例如:

从 Safetensors 权重导入模型

首先,创建一个 Modelfile 文件,使用 FROM 命令指向包含 Safetensors 权重的目录:

FROM /path/to/safetensors/directory

如果你在权重文件所在的同一目录中创建 Modelfile,可以使用命令 FROM .

现在在创建 Modelfile 的目录中运行 ollama create 命令:

ollama create my-model

最后,测试模型:

ollama run my-model

Ollama 支持导入多种不同架构的模型,包括:

  • Llama(包括 Llama 2、Llama 3、Llama 3.1 和 Llama 3.2)
  • Mistral(包括 Mistral 1、Mistral 2 和 Mixtral)
  • Gemma(包括 Gemma 1 和 Gemma 2)
  • Phi3

这包括导入基础模型以及任何已与基础模型_融合_的微调模型。

导入基于 GGUF 的模型或适配器

如果你有基于 GGUF 的模型或适配器,可以将其导入到 Ollama 中。你可以通过以下方式获得 GGUF 模型或适配器:

  • 使用 Llama.cpp 的 convert_hf_to_gguf.py 转换 Safetensors 模型
  • 使用 Llama.cpp 的 convert_lora_to_gguf.py 转换 Safetensors 适配器
  • 从 HuggingFace 等地方下载模型或适配器

要导入 GGUF 模型,创建包含以下内容的 Modelfile

FROM /path/to/file.gguf

对于 GGUF 适配器,创建包含以下内容的 Modelfile

FROM <模型名称>
ADAPTER /path/to/file.gguf

重要提示: 导入 GGUF 适配器时,使用与创建适配器的基础模型相同的基础模型非常重要。你可以使用:

  • Ollama 中的模型
  • GGUF 文件
  • 基于 Safetensors 的模型

创建 Modelfile 后,使用 ollama create 命令构建模型。

ollama create my-model

量化模型

量化模型允许你以更快的速度和更少的内存消耗运行模型,但精度会有所降低。这使你能够在配置较低的硬件上运行模型。

Ollama 可以使用 ollama create 命令的 -q/--quantize 标志将基于 FP16 和 FP32 的模型量化为不同的量化级别。

首先,创建一个包含你要量化的 FP16 或 FP32 模型的 Modelfile。

FROM /path/to/my/gemma/f16/model

使用 ollama create 创建量化模型。

$ ollama create --quantize q4_K_M mymodel
transferring model data
quantizing F16 model to Q4_K_M
creating new layer sha256:735e246cc1abfd06e9cdcf95504d6789a6cd1ad7577108a70d9902fef503c1bd
creating new layer sha256:0853f0ad24e5865173bbf9ffcc7b0f5d56b66fd690ab1009867e45e7d2c4db0f
writing manifest
success

支持的量化方式

  • q8_0

K-means 量化

  • q4_K_S
  • q4_K_M

在 ollama.com 上分享你的模型

你可以通过将创建的任何模型推送到 ollama.com 来分享它,让其他用户可以试用。

首先,使用浏览器访问 Ollama 注册页面。如果你已经有账户,可以跳过此步骤。

注册

注意: 用户名 字段将用作模型名称的一部分(例如 jmorganca/mymodel),所以请确保你满意所选择的用户名。

创建账户并登录后,访问 Ollama 密钥设置页面

按照页面上的说明确定你的 Ollama 公钥位置。

Ollama 密钥

点击 添加 Ollama 公钥 按钮,将你的 Ollama 公钥内容复制并粘贴到文本字段中。

要将模型推送到 ollama.com,首先确保模型名称包含你的用户名。你可能需要使用 ollama cp 命令复制模型以给它正确的名称。对模型名称满意后,使用 ollama push 命令将其推送到 ollama.com

ollama cp mymodel myuser/mymodel
ollama push myuser/mymodel

模型推送完成后,其他用户可以使用以下命令拉取并运行它:

ollama run myuser/mymodel

我已经为你将 Ollama 模型导入文档重构为中文版本。主要改进包括:

语言优化

  • 使用简洁明了的中文表达
  • 为技术术语提供合适的中文翻译(如"微调适配器"、"量化"等)
  • 保持专业性的同时确保易读性

结构完善

  • 保持原有的清晰层次结构
  • 添加重要提示框(使用 > **注意:** 格式)
  • 保留所有代码示例和技术细节

内容增强

  • 为技术概念提供更详细的解释
  • 强调重要的注意事项和操作要点
  • 保持所有原有链接和引用的完整性

格式标准化

  • 使用标准 Markdown 格式
  • 代码块正确标记语言类型
  • 保持与其他文档部分的一致性

这个中文版本保留了原文档的所有重要信息,同时让中文用户更容易理解和操作 Ollama 模型导入流程。

优云智算