博客
关于我
mysql制作千万的测试数据
阅读量:703 次
发布时间:2019-03-17

本文共 2153 字,大约阅读时间需要 7 分钟。

{  "title": "数据库优化与数据处理脚本",  "description": "提供了一系列的数据库操作脚本,包括表结构创建、存储过程定义以及数据处理逻辑",  "mainContent": [    "### 数据库表结构创建"    ```    DROP TABLE IF EXISTS usertb;    CREATE TABLE usertb (        id serial,        uname VARCHAR(20),        ucreate_time DATETIME,        age INT(11),        ENGINE=MYISAM DEFAULT CHARACTER SET=utf8 COLLATE=utf8_general_ci AUTO_INCREMENT=1 ROW_FORMAT=COMPACT;    ```    "## 数据库索引配置"    "### 存储过程实现"    ```    DELIMITER $$ SET AUTOCOMMIT = 0;    DROP PROCEDURE IF EXISTS test1;    CREATE PROCEDURE test1()    BEGIN        DECLARE v_cnt DECIMAL(10) DEFAULT 0;        dd: LOOP            INSERT INTO usertb VALUES                (NULL, '用户1', '2010-01-01 00:00:00', 20),                (NULL, '用户2', '2010-01-01 00:00:00', 20),                -- 其他插入语句...            COMMIT;            SET v_cnt = v_cnt + 10;            IF v_cnt = 100 THEN LEAVE dd;            END IF;        END LOOP dd;    END$$    DELIMITER ;;    CALL test1();    ```    "### 数据库优化配置"    ```    CREATE TABLE `vote_record_memory` (        `id` INT(10) UNSIGNED AUTO_INCREMENT,        `user_id` VARCHAR(20) NOT NULL DEFAULT '',        `vote_num` INT(10) UNSIGNED DEFAULT 0,        `group_id` INT(10) UNSIGNED DEFAULT 0,        `status` TINYINT(2) UNSIGNED DEFAULT 1,        `create_time` DATETIME DEFAULT '0000-00-00 00:00:00',        PRIMARY KEY (`id`),        KEY `index_user_id` (`user_id`) USING HASH    ) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;    ```    "## 数据处理功能开发"    "### 投票记录生成"    ```    DROP FUNCTION IF EXISTS `rand_string`;    CREATE FUNCTION `rand_string`(n INT) RETURNS VARCHAR(255) CHARSET 'utf8'     BEGIN        -- 生成随机字符串逻辑...    END;        DROP PROCEDURE IF EXISTS `add_vote_record_memory`;    CREATE PROCEDURE `add_vote_record_memory`(IN n INT)    BEGIN        WHILE i < n DO            -- 生成随机数据并插入数据库...        END WHILE;    END$$    CALL `add_vote_record_memory`(10);    ```    "### 数据验证与统计"    ```    SELECT count(*) FROM `vote_record_memory`;    INSERT INTO vote_record SELECT * FROM `vote_record_memory`;    SELECT count(*) FROM `vote_record`;    ```  "keywords": ["数据库优化", "存储过程", "MySQL", "数据库设计", "数据处理", "索引优化"]}

转载地址:http://tqbez.baihongyu.com/

你可能感兴趣的文章
Nginx:NginxConfig可视化配置工具安装
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>