WebUI 演示#
使用LMDeploy启动LLM模型的gradio服务并在WebUI上与模型交互非常简单。
pip install lmdeploy[serve]
lmdeploy serve gradio {model_path}
只需要一行命令,将{model_path}
替换为来自huggingface hub的模型ID,例如internlm/internlm2_5-7b-chat
,或者模型的本地路径。
有关命令的详细参数,请转到 lmdeploy serve gradio -h
获取帮助。
创建一个huggingface演示#
如果您想在huggingface上为您的模型创建一个在线演示项目,请按照以下步骤操作。
第一步:创建空间#
首先,注册一个Hugging Face账户。成功注册后,点击右上角的个人资料图片,选择“New Space”来创建一个。按照Hugging Face的指南选择必要的配置,你将拥有一个空白的演示空间。
步骤2:开发演示的入口点 app.py
#
将您空间中的app.py
内容替换为以下代码:
from lmdeploy.serve.gradio.turbomind_coupled import run_local
from lmdeploy.messages import TurbomindEngineConfig
backend_config = TurbomindEngineConfig(max_batch_size=8)
model_path = 'internlm/internlm2_5-7b-chat'
run_local(model_path, backend_config=backend_config, server_name="huggingface-space")
创建一个requirements.txt
文件,内容如下:
lmdeploy
常见问题解答#
ZeroGPU兼容性问题。ZeroGPU不适用于LMDeploy的turbomind引擎。请使用标准GPU。或者,您可以在上述代码中将后端配置更改为
PyTorchEngineConfig
以使用ZeroGPU。Gradio版本问题,目前不支持4.0.0以上的版本。你可以在
app.py
中修改,例如:import os os.system("pip uninstall -y gradio") os.system("pip install gradio==3.43.0")