# # Celery配置
# # from kombu import Exchange, Queue
# # 设置任务接受的类型，默认是{'json'}
# CELERY_ACCEPT_CONTENT = ['application/json']
# # 设置task任务序列列化为json
# CELERY_TASK_SERIALIZER = 'json'
# # 请任务接受后存储时的类型
# CELERY_RESULT_SERIALIZER = 'json'
# # 时间格式化为中国时间
# CELERY_TIMEZONE = 'Asia/Shanghai'
# # 是否使用UTC时间
# CELERY_ENABLE_UTC = False
# # 指定borker为redis 如果指定rabbitmq CELERY_BROKER_URL = 'amqp://guest:guest@localhost:5672//'
# CELERY_BROKER_URL = 'redis://:123456@127.0.0.1:6379/10'
# # 指定存储结果的地方，支持使用rpc、数据库、redis等等，具体可参考文档 # CELERY_RESULT_BACKEND = 'db+mysql://scott:tiger@localhost/foo' # mysql 作为后端数据库
# CELERY_RESULT_BACKEND = 'redis://:123456@127.0.0.1:6379/11'
# # 设置任务过期时间 默认是一天，为None或0 表示永不过期
# CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24
# # 设置worker并发数，默认是cpu核心数
# # CELERYD_CONCURRENCY = 12
# # 设置每个worker最大任务数
# CELERYD_MAX_TASKS_PER_CHILD = 100
# # 指定任务的位置
# CELERY_IMPORTS = (
#     "mycelery.all_task.task",
# )

# 使用beat启动Celery定时任务
# schedule时间的具体设定参考：https://docs.celeryproject.org/en/stable/userguide/periodic-tasks.html
# CELERYBEAT_SCHEDULE = {
#     'getbaidu-1-seconds': {
#         'task': 'mycelery.all_task.task.idcard',
#         'schedule': 3,
#     },
# }

# 配置celery的任务队列--消息队列
broker_url = "redis://:123456@127.0.0.1:6379/0"


# 配置celery的结果队列
result_backend = "redis://:123456@127.0.0.1:6379/0"




