.Net Core导入千万级数据至Mysql的步骤
订单测试表
CREATE TABLE `trade` ( `id` VARCHAR(50) NULL DEFAULT NULL COLLATE ’utf8_unicode_ci’, `trade_no` VARCHAR(50) NULL DEFAULT NULL COLLATE ’utf8_unicode_ci’, UNIQUE INDEX `id` (`id`), INDEX `trade_no` (`trade_no`))COMMENT=’订单’COLLATE=’utf8_unicode_ci’ENGINE=InnoDB;
测试环境
操作系统:Window 10 专业版
CPU:Inter(R) Core(TM) i7-8650U CPU @1.90GHZ 2.11 GHZ
内存:16G
MySQL版本:5.7.26
实现方法:1、单条数据插入这是最普通的方式,通过循环一条一条的导入数据,这个方式的缺点很明显就是每一次都需要连接一次数据库。
实现代码:
//开始时间var startTime = DateTime.Now;using (var conn = new MySqlConnection(connsql)){ conn.Open(); //插入10万数据 for (var i = 0; i < 100000; i++) {//插入var sql = string.Format('insert into trade(id,trade_no) values(’{0}’,’{1}’);', Guid.NewGuid().ToString(), 'trade_' + (i + 1) );var sqlComm = new MySqlCommand();sqlComm.Connection = conn;sqlComm.CommandText = sql;sqlComm.ExecuteNonQuery();sqlComm.Dispose(); } conn.Close();}//完成时间var endTime = DateTime.Now;//耗时var spanTime = endTime - startTime;Console.WriteLine('循环插入方式耗时:' + spanTime.Minutes + '分' + spanTime.Seconds + '秒' + spanTime.Milliseconds + '毫秒');
10万条测试耗时:
上面的例子,我们是批量导入10万条数据,需要连接10万次数据库。我们把SQL语句改为1000条拼接为1条,这样就能减少数据库连接,实现代码修改如下:
//开始时间var startTime = DateTime.Now;using (var conn = new MySqlConnection(connsql)){ conn.Open(); //插入10万数据 var sql = new StringBuilder(); for (var i = 0; i < 100000; i++) {//插入sql.AppendFormat('insert into trade(id,trade_no) values(’{0}’,’{1}’);', Guid.NewGuid().ToString(), 'trade_' + (i + 1) );//合并插入if (i % 1000 == 999){ var sqlComm = new MySqlCommand(); sqlComm.Connection = conn; sqlComm.CommandText = sql.ToString(); sqlComm.ExecuteNonQuery(); sqlComm.Dispose(); sql.Clear();} } conn.Close();}//完成时间var endTime = DateTime.Now;//耗时var spanTime = endTime - startTime;Console.WriteLine('循环插入方式耗时:' + spanTime.Minutes + '分' + spanTime.Seconds + '秒' + spanTime.Milliseconds + '毫秒');
10万条测试耗时:
通过优化后,原本需要10万次连接数据库,只需连接100次。从最终运行效果看,由于数据库是在同一台服务器,不涉及网络传输,性能提升不明显。
2、合并数据插入在MySQL同样也支持,通过合并数据来实现批量数据导入。实现代码:
//开始时间var startTime = DateTime.Now;using (var conn = new MySqlConnection(connsql)){ conn.Open(); //插入10万数据 var sql = new StringBuilder(); for (var i = 0; i < 100000; i++) {if (i % 1000 == 0){ sql.Append('insert into trade(id,trade_no) values');}//拼接sql.AppendFormat('(’{0}’,’{1}’),', Guid.NewGuid().ToString(), 'trade_' + (i + 1));//一次性插入1000条if (i % 1000 == 999){ var sqlComm = new MySqlCommand(); sqlComm.Connection = conn; sqlComm.CommandText = sql.ToString().TrimEnd(’,’); sqlComm.ExecuteNonQuery(); sqlComm.Dispose(); sql.Clear();} } conn.Close();}//完成时间var endTime = DateTime.Now;//耗时var spanTime = endTime - startTime;Console.WriteLine('合并数据插入方式耗时:' + spanTime.Minutes + '分' + spanTime.Seconds + '秒' + spanTime.Milliseconds + '毫秒');
10万条测试耗时:
通过这种方式插入操作明显能够提高程序的插入效率。虽然第一种方法通过优化后,同样的可以减少数据库连接次数,但第二种方法:合并后日志量(MySQL的binlog和innodb的事务让日志)减少了,降低日志刷盘的数据量和频率,从而提高效率。同时也能减少SQL语句解析的次数,减少网络传输的IO。
3、MySqlBulkLoader插入MySQLBulkLoader也称为LOAD DATA INFILE,它的原理是从文件读取数据。所以我们需要将我们的数据集保存到文件,然后再从文件里面读取。
实现代码:
//开始时间var startTime = DateTime.Now;using (var conn = new MySqlConnection(connsql)){ conn.Open(); var table = new DataTable(); table.Columns.Add('id', typeof(string)); table.Columns.Add('trade_no', typeof(string)); //生成10万数据 for (var i = 0; i < 100000; i++) {if (i % 500000 == 0){ table.Rows.Clear();}//记录var row = table.NewRow();row[0] = Guid.NewGuid().ToString();row[1] = 'trade_' + (i + 1);table.Rows.Add(row);//50万条一批次插入if (i % 500000 != 499999 && i < (100000 - 1)){ continue;}Console.WriteLine('开始插入:' + i);//数据转换为csv格式var tradeCsv = DataTableToCsv(table);var tradeFilePath = System.AppDomain.CurrentDomain.BaseDirectory + 'trade.csv';File.WriteAllText(tradeFilePath, tradeCsv);#region 保存至数据库var bulkCopy = new MySqlBulkLoader(conn){ FieldTerminator = ',', FieldQuotationCharacter = ’'’, EscapeCharacter = ’'’, LineTerminator = 'rn', FileName = tradeFilePath, NumberOfLinesToSkip = 0, TableName = 'trade'};bulkCopy.Columns.AddRange(table.Columns.Cast<DataColumn>().Select(colum => colum.ColumnName).ToList());bulkCopy.Load();#endregion } conn.Close();}//完成时间var endTime = DateTime.Now;//耗时var spanTime = endTime - startTime;Console.WriteLine('MySqlBulk方式耗时:' + spanTime.Minutes + '分' + spanTime.Seconds + '秒' + spanTime.Milliseconds + '毫秒');
10万条测试耗时:
注意:MySQL数据库配置需开启:允许文件导入。配置如下:
secure_file_priv=
性能测试对比针对上面三种方法,分别测试10万、20万、100万、1000万条数据记录,最终性能入如下:
最后通过测试数据看,随着数据量的增大,MySqlBulkLoader的方式表现依旧良好,其他方式性能下降比较明显。MySqlBulkLoader的方式完全可以满足我们的需求。
以上就是.Net Core导入千万级数据至Mysql的步骤的详细内容,更多关于导入千万级数据至Mysql的资料请关注好吧啦网其它相关文章!
相关文章: