开发者社区> 问答> 正文

mysql大数据查询优化的问题

最近的一个项目,用的是MySQL,其中一个表里面存储的是设备的实时参数信息,一个月一张表,一个月大概有超过五百万低于一千万的数据记录,我在管理工具上查询了一下,八十万的数据,查询时间都无法让人接受。
现在想要对这些数据进行统计分析,请问这么大的数据量,该怎么进行查询优化?

展开
收起
落地花开啦 2016-02-20 15:51:54 3135 0
1 条回答
写回答
取消 提交回答
  • 喜欢技术,喜欢努力的人

    1.适当调整mysql一些参数
    2.若此表不需要事务,可以把此表存储引擎设置为myisam
    3.建立合适索引(索引优化可以去百度),索引设置之后怎么应用与查询sql
    4.用explain[show] sql 查询一下sql利用索引情况,已经查询记录情况(详细可以百度)
    5.根据表结构情况,进行适当拆分。
    6.存储(能优化的话,尽量别用)
    基本我这边一张表一秒数据大概是2000条入库、表实时查询,先数据库 已经有了3000W,但是查询速度很快。(后期会根据情况拆分,会更加优化)

    2019-07-17 18:45:25
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
大数据AI一体化的解读 立即下载
极氪大数据 Serverless 应用实践 立即下载
大数据&AI实战派 第2期 立即下载

相关镜像