- 原文地址:Asynchronous Tasks with Flask and Redis Queue
- 原文作者:Michael Herman
- 译文出自:掘金翻译计划
- 本文永久链接:github.com/xitu/gold-m…
- 译者:刘嘉一
- 校对者:kasheemlew
如果你的应用中存在长执行任务,你应当把它们从普通流程中剥离并置于后台执行。
可能你的 web 应用会要求用户在注册时上传头像(图片可能需要被裁剪)和进行邮箱验证。如果你直接在请求处理函数中去加工图片和发送验证邮件,那么终端用户不得不等待这些执行的完成。相反,你更希望把这些任务放到任务队列中,并由一个 worker 线程来处理,这种情况下应用就能立刻响应客户端的请求了。由此一来,终端用户可以在客户端继续其他的操作,你的应用也能被释放去响应其他用户的请求。
这篇文章讲了如何在 Flask 应用中配置 Redis Queue(RQ)来处理长执行任务。
当然 Celery 也是一个不错的解决方案。不过相比于 Redis Queue,它会稍显复杂并引入更多的依赖项。
目录
本文目标
阅读完本文后,你应当学会:
- 在 Flask 应用中集成 Redis Queue 并创建相应任务。
- 使用 Docker 镜像化包含 Flask 和 Redis 的应用。
- 使用独立的 worker 线程在后台处理长执行任务。
- 配置 RQ Dashboard 用于监控任务队列、作业和 worker 线程。
- 使用 Docker 扩展 worker 线程的数量。
工作流程
在本文中,我们的目标是借助 Redis Queue 的能力开发一个能处理长执行任务的 Flask 应用,其中长执行任务的执行独立于普通请求、响应的执行。
- 终端用户通过 POST 请求服务端创建一个新任务
- 如图所示,任务队列会增加一个新任务,之后服务端再把任务 id 返回给客户端
- 创建好的任务会在服务端后台执行,客户端只需使用 AJAX 不断轮询任务状态即可
最终我们将实现一个如下所示的应用:
项目配置
想要继续看下去吗?clone 下面的仓库来看看里面的代码和结构吧:
$ git clone https://github.com/mjhea0/flask-redis-queue --branch base --single-branch
$ cd flask-redis-queue
复制代码
因为我们一共需要管理三个进程(Flask、Redis 和 worker),为了简化这一系列工作流,这里我们选择了使用 Docker 来部署,最终我们仅需在一个终端里就可以运行整个应用了。
像这样就能将应用跑起来:
$ docker-compose up -d --build
复制代码
使用你的浏览器访问 http://localhost:5004,你应该能看到如下页面:
任务触发
当 project/client/static/main.js 里的监听器监听到按键的点击后,它会获取按键对应的任务类型 — 1
、2
或 3
,并把得到的任务类型当作参数通过 AJAX POST 请求发到服务端。
$('.btn').on('click', function() {
$.ajax({
url: '/tasks',
data: { type: $(this).data('type') },
method: 'POST'
})
.done((res) => {
getStatus(res.data.task_id)
})
.fail((err) => {
console.log(err)
});
});
复制代码
在服务端,project/server/main/views.py 会负责处理客户端发来的请求:
@main_blueprint.route('/tasks', methods=['POST'])
def run_task():
task_type = request.form['type']
return jsonify(task_type), 202
复制代码
下面我们来装配 Redis Queue。
Redis Queue
首先我们需要在 docker-compose.yml 中添加配置以启动两个新的进程 — Redis 和 worker:
version: '3.7'
services:
web:
build: .
image: web
container_name: web
ports:
- '5004:5000'
command: python manage.py run -h 0.0.0.0
volumes:
- .:/usr/src/app
environment:
- FLASK_DEBUG=1
- APP_SETTINGS=project.server.config.DevelopmentConfig
depends_on:
- redis
worker:
image: web
command: python manage.py run_worker
volumes:
- .:/usr/src/app
environment:
- APP_SETTINGS=project.server.config.DevelopmentConfig
depends_on:
- redis
redis:
image: redis:4.0.11-alpine
复制代码
在 "project/server/main" 目录中添加一个新的任务 tasks.py:
# project/server/main/tasks.py
import time
def create_task(task_type):
time.sleep(int(task_type) * 10)
return True
复制代码
更新我们的视图代码,让它能连接 Redis 并把任务放入队列,最后再把任务的 id 返回给客户端:
@main_blueprint.route('/tasks', methods=['POST'])
def run_task():
task_type = request.form['type']
with Connection(redis.from_url(current_app.config['REDIS_URL'])):
q = Queue()
task = q.enqueue(create_task, task_type)
response_object = {
'status': 'success',
'data': {
'task_id': task.get_id()
}
}
return jsonify(response_object), 202
复制代码
别忘了正确地引入上面用到的库:
import redis
from rq import Queue, Connection
from flask import render_template, Blueprint, jsonify, \
request, current_app
from project.server.main.tasks import create_task
复制代码
更新 BaseConfig
文件:
class BaseConfig(object):
"""基础配置"""
WTF_CSRF_ENABLED = True
REDIS_URL = 'redis://redis:6379/0'
QUEUES = ['default']
复制代码
细心的读者可能发现了,我们在引用 redis
服务(在 docker-compose.yml 中引入的)的地址时,使用了 REDIS_URL
而非 localhost
或是某个特定 IP。在 Docker 中如何通过 hostname 连接其他服务,可以在 Docker Compose 官方文档 中找到答案。
最终,我们便可以使用 Redis Queue 的 worker 来处理放在队首的任务了。
@cli.command('run_worker')
def run_worker():
redis_url = app.config['REDIS_URL']
redis_connection = redis.from_url(redis_url)
with Connection(redis_connection):
worker = Worker(app.config['QUEUES'])
worker.work()
复制代码
在这里,我们通过自定义的 CLI 命令来启动 worker。
需要注意的是,通过装饰器 @cli.command()
启动的代码可以访问到应用的上下文,以及访问到在 project/server/config.py 中定义的配置变量。
同样需要引入正确的库:
import redis
from rq import Connection, Worker
复制代码
在 requirements 文件中添加应用的依赖信息:
redis==2.10.6
rq==0.12.0
复制代码
构建并启动新的 Docker 容器:
$ docker-compose up -d --build
复制代码
让我们试试触发一个任务:
$ curl -F type=0 http://localhost:5004/tasks
复制代码
你应该会得到类似的返回:
{
"data": {
"task_id": "bdad64d0-3865-430e-9cc3-ec1410ddb0fd"
},
"status": "success"
}
复制代码
任务状态
让我们回头看看客户端的按键监听器:
$('.btn').on('click', function() {
$.ajax({
url: '/tasks',
data: { type: $(this).data('type') },
method: 'POST'
})
.done((res) => {
getStatus(res.data.task_id)
})
.fail((err) => {
console.log(err)
});
});
复制代码
每当创建任务的 AJAX 请求返回后,我们便会取出其中的任务 id 继续调用 getStatus()
。若 getStatus()
也成功返回,那么我们便在表格 DOM 中新增一行记录。
function getStatus(taskID) {
$.ajax({
url: `/tasks/${taskID}`,
method: 'GET'
})
.done((res) => {
const html = `
<tr>
<td>${res.data.task_id}</td>
<td>${res.data.task_status}</td>
<td>${res.data.task_result}</td>
</tr>`
$('#tasks').prepend(html);
const taskStatus = res.data.task_status;
if (taskStatus === 'finished' || taskStatus === 'failed') return false;
setTimeout(function() {
getStatus(res.data.task_id);
}, 1000);
})
.fail((err) => {
console.log(err);
});
}
复制代码
更新视图层代码:
@main_blueprint.route('/tasks/<task_id>', methods=['GET'])
def get_status(task_id):
with Connection(redis.from_url(current_app.config['REDIS_URL'])):
q = Queue()
task = q.fetch_job(task_id)
if task:
response_object = {
'status': 'success',
'data': {
'task_id': task.get_id(),
'task_status': task.get_status(),
'task_result': task.result,
}
}
else:
response_object = {'status': 'error'}
return jsonify(response_object)
复制代码
调用下面命令在队列中新增一个任务:
$ curl -F type=1 http://localhost:5004/tasks
复制代码
然后再用上面返回体中的 task_id
来请求新增的任务详情接口:
$ curl http://localhost:5004/tasks/5819789f-ebd7-4e67-afc3-5621c28acf02
{
"data": {
"task_id": "5819789f-ebd7-4e67-afc3-5621c28acf02",
"task_result": true,
"task_status": "finished"
},
"status": "success"
}
复制代码
同样让我们在浏览器中试试效果:
任务控制台
RQ Dashboard 是一个 Redis Queue 的轻量级 web 端监控系统。
为了集成 RQ Dashboard,首先你需要在 "project" 下新建一个 "dashboard" 文件夹,然后再在其中新建一个 Dockerfile:
FROM python:3.7.0-alpine
RUN pip install rq-dashboard
EXPOSE 9181
CMD ["rq-dashboard"]
复制代码
接着把上面的模块作为 service 添加到 docker-compose.yml 中:
version: '3.7'
services:
web:
build: .
image: web
container_name: web
ports:
- '5004:5000'
command: python manage.py run -h 0.0.0.0
volumes:
- .:/usr/src/app
environment:
- FLASK_DEBUG=1
- APP_SETTINGS=project.server.config.DevelopmentConfig
depends_on:
- redis
worker:
image: web
command: python manage.py run_worker
volumes:
- .:/usr/src/app
environment:
- APP_SETTINGS=project.server.config.DevelopmentConfig
depends_on:
- redis
redis:
image: redis:4.0.11-alpine
dashboard:
build: ./project/dashboard
image: dashboard
container_name: dashboard
ports:
- '9181:9181'
command: rq-dashboard -H redis
复制代码
构建并启动新的容器:
$ docker-compose up -d --build
复制代码
打开 http://localhost:9181 来看看整个控制台:
可以尝试启动一些任务来试试控制台功能:
你也可以通过增加 worker 的数量来观察应用的变化:
$ docker-compose up -d --build --scale worker=3
复制代码
结语
这是一篇在 Flask 中配置 Redis Queue 用于处理长执行任务的基础指南。你可以利用该队列来执行任何可能阻塞或拖慢用户体验的进程。
还想继续挑战自己?
- 注册 Digital Ocean 并利用 Docker Swarm 把这个应用部署到多个节点。
- 为接口增加单元测试。(可以使用 fakeredis 来模拟 Redis 实例)
- 利用 Flask-SocketIO 把客户端的轮询改为 websocket 连接。
可以在 此仓库 找到本文代码。
如果发现译文存在错误或其他需要改进的地方,欢迎到 掘金翻译计划 对译文进行修改并 PR,也可获得相应奖励积分。文章开头的 本文永久链接 即为本文在 GitHub 上的 MarkDown 链接。
掘金翻译计划 是一个翻译优质互联网技术文章的社区,文章来源为 掘金 上的英文分享文章。内容覆盖 Android、iOS、前端、后端、区块链、产品、设计、人工智能等领域,想要查看更多优质译文请持续关注 掘金翻译计划、官方微博、知乎专栏。