直接先贴代码吧:
for result in nminfo['scan'].values():
if result['status']['state'] == "up":
ip = result['addresses']['ipv4']
host_os = "xxx"
# 位置 1
host_assets_id = db.session.query(HostAsset.host_id).filter(HostAsset.host_ip == ip).first()
if host_assets_id:
query_host_id = host_assets_id[0]
# 位置 2
HostAsset.query.filter_by(host_id=query_host_id).update({'host_os': host_os})
HostAssetsHistory.query.filter_by(host_id=query_host_id, task_stream_id=self.task_stream_id).update({'host_os': host_os})
db.session.commit()
else:
pass
我这个 for 是循环一个特别大的 json 文件内容,跟数据库的操作主要是位置 1 和位置 2。
位置 1 是一个根据条件查询 id 的操作,为了在位置 2 中入其他库。
数据量少的时候没问题,但是当 for 循环的数据非常多(几千条)的时候,就报错了:
sqlalchemy.exc.OperationalError: (mysql.connector.errors.OperationalError)
在网上查解决方法,也尝试更改了 SQLALCHEMY_POOL_RECYCLE 等配置(改成与 mysql 的 wait_time 一致,或小于 wait_time ),但还是一样报错。
1
awanabe 2019-11-13 10:25:27 +08:00
设置下 expire_on_commit=False
当年我自问自答的链接 https://stackoverflow.com/questions/27403006/in-the-loop-of-large-quantity-query-result-update-operation-costs-strange-time/27413943#27413943 |
2
Raul7 OP @awanabe 我是 flask 是在 db 初始化的时候设置吗? db = SQLAlchemy(session_options={"expire_on_commit": False})
|
5
wangyzj 2019-11-13 12:32:41 +08:00
是不是数据库最大提交那个参数
|