文章详情页
python - celery 如何解决worker和client代码同步问题
浏览:186日期:2022-08-31 11:17:47
问题描述
我的celery worker在A机器, client在B机器, 这样每次代码更新我都必须同时更新A和B,并且依次停掉client, celery worker, 再依次开启celery worker和client, 这样不就非常麻烦吗? 有什么好的解决方案?
问题解答
回答1:第一,celery更新了代码是必须要重启的,因为脚本都已经加载到内存,你要更新只能重启了。
第二,同步代码的办法,那就有很多了,比如:rsync或者其它的部署系统fabric,Ansible等等都可以达到你的要求。
处理逻辑都是你这样的,只不过可以做成自动化。
相关文章:
1. 关docker hub上有些镜像的tag被标记““This image has vulnerabilities””2. docker gitlab 如何git clone?3. dockerfile - 为什么docker容器启动不了?4. docker - 各位电脑上有多少个容器啊?容器一多,自己都搞混了,咋办呢?5. debian - docker依赖的aufs-tools源码哪里可以找到啊?6. nignx - docker内nginx 80端口被占用7. node.js - webpack required打包问题8. javascript - weex和node,js到底是怎样一个关系呢?9. java - 解决 类似“%22%3A%22”这样的字符串怎么解码?10. javascript - 修改表单多选项时和后台同事配合的问题。
排行榜

网公网安备