V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
MySQL 5.5 Community Server
MySQL 5.6 Community Server
Percona Configuration Wizard
XtraBackup 搭建主从复制
Great Sites on MySQL
Percona
MySQL Performance Blog
Severalnines
推荐管理工具
Sequel Pro
phpMyAdmin
推荐书目
MySQL Cookbook
MySQL 相关项目
MariaDB
Drizzle
参考文档
http://mysql-python.sourceforge.net/MySQLdb.html
hoythan
V2EX  ›  MySQL

统计每个用户的每个文章的阅读数和时间,如何设计数据表比较合适?通过 mysql

  •  
  •   hoythan · 2019-03-20 10:47:57 +08:00 · 4211 次点击
    这是一个创建于 2062 天前的主题,其中的信息可能已经有所发展或是发生改变。
    5 条回复    2019-03-25 09:22:00 +08:00
    Andata
        1
    Andata  
       2019-03-20 10:55:50 +08:00
    Emmm,序号,文章 id,用户名,开始时间,结束时间 这样子吧
    hoythan
        2
    hoythan  
    OP
       2019-03-20 11:10:40 +08:00
    @Andata 一千个用户阅读一千个文章就有 100 万条记录,我担心这样设计会不会造成性能问题。
    baojiweicn2
        3
    baojiweicn2  
       2019-03-20 11:42:05 +08:00 via Android
    elk 不就可以了,明天定时脚本拉一下数据。如果是实时的话,数据允许可丢的风险的话,数据缓存一下,周期性入库就成,查询也是,热点查询放到缓存。
    Andata
        4
    Andata  
       2019-03-20 11:48:25 +08:00
    @hoythan 看你要怎么用,如果是生产要插入数据,怕数据太多影响性能的话,可以定时归档数据,几天归档一份这样子。
    cs8814336
        5
    cs8814336  
       2019-03-25 09:22:00 +08:00
    可以采用 hash(id) 进行分表或者分区, 分区的话开发容易. 这样尽管 1000 个用户 1000 个文章 100w 条还可以实现.

    假如你单纯只是用来统计总阅读数和总时间,是否可以加上通过定时脚本定时合并数据库的数据, 例如你 mysql:
    创建时间 文章 id 用户 id 阅读数 阅读时间
    18 号 1 2 1 2m
    19 号 2 2 1 7m
    20 号 3 2 1 6m

    定时脚本 20 号合并后产生汇总数据:
    创建时间 文章 id 用户 id 阅读数 阅读时间
    20 号 -1 2 3 15m
    21 号 5 2 1 30m


    这样类似定时清理旧数据. 类似 elasticsearch 之类的数据库都有隐藏后台合并数据的操作,elasticsearch 的是每个 index segement 是不可变的,然后会有很多,后台进程会自动错峰合并. 或者说是 lsm tree?
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2750 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 08:57 · PVG 16:57 · LAX 00:57 · JFK 03:57
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.