本指南解释了如何从您的gradio应用程序运行后台任务。 后台任务是您希望在应用程序的请求-响应生命周期之外执行的操作,可以是一次性的,也可以是定期执行的。 后台任务的示例包括定期将数据同步到外部数据库或通过电子邮件发送模型预测报告。
我们将创建一个简单的“Google表单风格”应用程序,用于收集gradio库用户的反馈。 我们将使用本地sqlite数据库来存储我们的数据,但我们会定期将数据库的状态与HuggingFace数据集同步,以确保我们的用户评论始终有备份。 同步将在每60秒运行的后台任务中进行。
在演示结束时,您将拥有一个完全可用的应用程序,如下所示:
我们的应用程序将存储评论者的姓名、他们对gradio的评分(1到5分),以及他们想要分享的关于该库的任何评论。让我们编写一些代码来创建一个数据库表来存储这些数据。我们还将编写一些函数来将评论插入该表并获取最新的10条评论。
我们将使用sqlite3库来连接我们的sqlite数据库,但gradio可以与任何库一起工作。
代码将如下所示:
DB_FILE = "./reviews.db"
db = sqlite3.connect(DB_FILE)
# Create table if it doesn't already exist
try:
db.execute("SELECT * FROM reviews").fetchall()
db.close()
except sqlite3.OperationalError:
db.execute(
'''
CREATE TABLE reviews (id INTEGER PRIMARY KEY AUTOINCREMENT NOT NULL,
created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP NOT NULL,
name TEXT, review INTEGER, comments TEXT)
''')
db.commit()
db.close()
def get_latest_reviews(db: sqlite3.Connection):
reviews = db.execute("SELECT * FROM reviews ORDER BY id DESC limit 10").fetchall()
total_reviews = db.execute("Select COUNT(id) from reviews").fetchone()[0]
reviews = pd.DataFrame(reviews, columns=["id", "date_created", "name", "review", "comments"])
return reviews, total_reviews
def add_review(name: str, review: int, comments: str):
db = sqlite3.connect(DB_FILE)
cursor = db.cursor()
cursor.execute("INSERT INTO reviews(name, review, comments) VALUES(?,?,?)", [name, review, comments])
db.commit()
reviews, total_reviews = get_latest_reviews(db)
db.close()
return reviews, total_reviews让我们也编写一个函数,在gradio应用程序加载时加载最新的评论:
def load_data():
db = sqlite3.connect(DB_FILE)
reviews, total_reviews = get_latest_reviews(db)
db.close()
return reviews, total_reviews既然我们已经定义了数据库逻辑,我们可以使用gradio创建一个动态网页来向用户征求反馈!
with gr.Blocks() as demo:
with gr.Row():
with gr.Column():
name = gr.Textbox(label="Name", placeholder="What is your name?")
review = gr.Radio(label="How satisfied are you with using gradio?", choices=[1, 2, 3, 4, 5])
comments = gr.Textbox(label="Comments", lines=10, placeholder="Do you have any feedback on gradio?")
submit = gr.Button(value="Submit Feedback")
with gr.Column():
data = gr.Dataframe(label="Most recently created 10 rows")
count = gr.Number(label="Total number of reviews")
submit.click(add_review, [name, review, comments], [data, count])
demo.load(load_data, None, [data, count])我们可以在步骤2之后调用demo.launch(),并拥有一个完全功能的应用程序。然而,我们的数据将存储在本地机器上。如果sqlite文件意外删除,我们将丢失所有的评论!让我们将数据备份到HuggingFace hub上的一个数据集中。
在继续之前,请在此处here创建一个数据集。
现在在我们的脚本的顶部,我们将使用huggingface hub client library来连接我们的数据集并拉取最新的备份。
TOKEN = os.environ.get('HUB_TOKEN')
repo = huggingface_hub.Repository(
local_dir="data",
repo_type="dataset",
clone_from="<name-of-your-dataset>",
use_auth_token=TOKEN
)
repo.git_pull()
shutil.copyfile("./data/reviews.db", DB_FILE)请注意,您需要从HuggingFace的“设置”选项卡中获取访问令牌,以使上述代码正常工作。 在脚本中,令牌通过环境变量安全地访问。

现在我们将创建一个后台任务,每60秒将我们的本地数据库同步到数据集中心。 我们将使用AdvancedPythonScheduler来处理调度。 然而,这并不是唯一可用的任务调度库。请随意使用您觉得舒适的任何库。
备份我们数据的函数将如下所示:
from apscheduler.schedulers.background import BackgroundScheduler
def backup_db():
shutil.copyfile(DB_FILE, "./data/reviews.db")
db = sqlite3.connect(DB_FILE)
reviews = db.execute("SELECT * FROM reviews").fetchall()
pd.DataFrame(reviews).to_csv("./data/reviews.csv", index=False)
print("updating db")
repo.push_to_hub(blocking=False, commit_message=f"Updating data at {datetime.datetime.now()}")
scheduler = BackgroundScheduler()
scheduler.add_job(func=backup_db, trigger="interval", seconds=60)
scheduler.start()你可以使用HuggingFace的Spaces平台免费部署这个应用程序 ✨
如果您之前没有使用过Spaces,请按照之前的指南这里操作。
您将需要在指南中使用HUB_TOKEN环境变量作为秘密。
恭喜!您知道如何按计划从您的gradio应用程序运行后台任务⏲️。