我有一个 200M 的 sql 文件,同事使用 navicat 导入文件功能导入很快,速度大概是下面 run sql script 速度好多倍
我自己使用了 datagrip 的 Run SQL Script ,挺慢的,1000 条一次 https://stackoverflow.com/questions/61005200/import-sql-file-with-datagrip
请问大佬们对 datagrip 导入大 sql 文件有什么快速方案吗,,还是只能使用 navicat
1
ppllss 2022-01-24 11:37:41 +08:00
同求。。其实导出也慢的
|
2
kiripeng 2022-01-24 11:40:19 +08:00
反馈给 datagrip 吧,那他们提供解决方案
|
3
Mogugugugu 2022-01-24 11:46:06 +08:00
导入导出大表传输,navicat 是强项、不建议使用 datagrip ,导出还好,导入表再大点就 OOM 了,而且进度条的支持也极其不友好。
|
4
onhao 2022-01-24 13:47:10 +08:00
|
5
RedBeanIce OP @ppllss
@kiripeng @Mogugugugu 可以试试 vscode 链接 MySQL 导入导出,我导入了一个 100MB 的 sql 文件,几秒就好了。。。。离谱 作者是 ,publisher:"cweijan" |
6
version0 2022-01-24 16:30:18 +08:00
额,不管 navicat 还是 datagrip 导入导出 sql 文件不都用的是 mysql.exe 吗? datagrip 需要加参数禁用事务,不然慢的很,navicat 应该是默认做了这个操作的
|
7
ihipop 2022-01-24 16:40:24 +08:00
@version0 还真不是,这里面有很多优化技巧,比如大文件分段读取优化,每次批量插入 /更新的数据块大小。
据我所观察,navicat 的数据插入代码里面还是有很多选项可以组合的(自己的客户的实现的),而且也是手头工具里面速度相对较快的。 |
8
ipwx 2022-01-24 16:42:16 +08:00
@version0 各个数据库都有比 INSERT 快得多的批量导入命令啊,开着事务都无所谓的那种命令。
https://dev.mysql.com/doc/refman/8.0/en/load-data.html https://www.postgresql.org/docs/9.2/sql-copy.html |