哦,我也不太懂。 想问下这样的数据量会不会很卡,mysql/data文件夹里文件是不是会太多了

解决方案 »

  1.   

    这个应该根据业务设计,  如果每天5000W的话.  应该是流水日志类似.
    我没有经历这么大数据量的项目. 以下仅供参考:
      按天分表.  索引不要太多. 因为5000W的索引维护也是很困难的.
      
      数据可以使用batch 插入.  攒500-1000连一次库.
      如果有读取的需求.  应该读写分离.  具体就是 一个群写入 一个读取.
      对于频繁读取的数据.  使用缓存   (memcache  redis mongdb..)  
    然后. 我感觉也可以按时间段分表.  5000W 一天中 按 0-6 6-12 12-18 18-24.分表. 或者自己维护一个数量. 1000W 切表.  维护一个时间 对应表的索引小表.  也是可以的.