想要把某个 mysql 数据库 A,copy 一份得到 A_copy,A_copy 和 A 还是在一台机器上,只不过数据已经隔离了。
我自己的办法是用 Navicat 导出数据库 A 的结构+数据的 sql 文件,但是数据库有上千万条数据,导出的 sql 文件肯定特别大,且重放到 A_copy 的时候应该也很慢。
各位有什么好办法吗?直接快速在机器上创建一个数据库的备份(数据库名会有修改),数据库不在本地,在云服务器上,无法直接进入云服务器的终端,最多只能进入云服务器的 mysql 终端
1
chinafengzhao Oct 24, 2020 via iPhone
进不到数据库所在云服务器的终端,那还能怎么办?只能 select outfile 一个表一个表导了
|
2
chinafengzhao Oct 24, 2020 via iPhone
还是想办法进到数据库所在服务器的终端吧,控制不了服务器那可太难了
|
3
EricXuu Oct 24, 2020 via Android
navicat 数据传输,试一试
|
4
ackoly Oct 24, 2020 via iPhone
开一台同个网络的 ecs,然后再 mysqldump 出来,然后加载到新数据库,这样是走内网,速度快。如果要拉回本地,可以压缩后下载。
对了,ecs 可以按需购买,用完就释放,不用多少钱 |
5
fengpan567 Oct 24, 2020
Navicat 有备份恢复功能
|
6
binbinbbb Oct 24, 2020 via iPhone
navicat 大数据慢
|
7
masterjoess Oct 24, 2020
内网 ECS
mysqldump db_name | mysql new_db_name |
8
998This Oct 24, 2020
SQLBackupAndFTP - SQL Server, MySQL and PostgreSQL Backups
https://sqlbackupandftp.com/ |
9
noahzh Oct 24, 2020
mysqldump 不就解决了.
|
10
vindurriel Oct 24, 2020 via iPhone
预算充足的话用 Amazon RDS
|
11
liaojl Oct 24, 2020 via iPhone
mydumper
|
12
Huelse Oct 24, 2020
复制数据库文件,然后慢慢搞
|
13
akira Oct 24, 2020
上千万条数据 一般二十分钟左右完全足够了
|
16
palmerkay316 Oct 26, 2020
转移
|
17
kaopuyunluzh Oct 26, 2020
腾讯云新政策 @
1 、累计预付费订单金额大于等于 6600 元且月均预付费订单分摊金额累计大于等于 550 元,可赠送元 5000 代金券 2 、累计预付费订单金额大于等于 38800 元且月均预付费订单分摊金额累计大于等于 3300 元,可赠送 2 万元代金券 |