现在有3个表 内容表 内容主题表 内容主题关键字表
大概的DDL如下:
CREATE TABLE `book` (
`id` bigint NOT NULL,
`content` varchar(255) DEFAULT NULL,
`title` varchar(255) DEFAULT NULL,
`sale_time` datetime DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;
INSERT INTO `book` VALUES (1, '内容', '标题', '2023-05-16 18:01:41');
CREATE TABLE `book_theme` (
`id` bigint NOT NULL,
`book_id` bigint DEFAULT NULL,
`theme` varchar(255) DEFAULT NULL,
`num` int DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;
INSERT INTO `book_theme` VALUES (1, 1, '恐怖', 2);
INSERT INTO `book_theme` VALUES (2, 1, '玄幻', 1);
CREATE TABLE `book_theme_word` (
`id` bigint NOT NULL,
`book_id` bigint DEFAULT NULL,
`book_theme_id` bigint DEFAULT NULL,
`word` varchar(255) DEFAULT NULL,
`num` int DEFAULT NULL,
`type` tinyint DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;
INSERT INTO `book_theme_word` VALUES (1, 1, 1, '鬼怪', 2, 0);
INSERT INTO `book_theme_word` VALUES (2, 1, 2, '天使', 1, 1);
大概说下关系 一个内容对应多个主题,每个主题有自己的数量
一个主题对应多个主题关键字 每个关键字有自己的数量,且有个type(0,1)区分是好的还是坏的
需求:现在要统计一些书中出现最多的主题数量top10
同时要取出top10中前3主题的下 出现最多得好的和坏的关键词前10
我现在的做法是
select group_concat(t.id) as idList,t.theme,sum(t.num) as num
from book_theme t left join book b on t.book_id=b.id
where b.id in (1)
group by t.theme
order by num desc limit 10
先取出主题的前10条记录 然后拿到book_theme表的id集合 再去找book_theme_word分别统计出好的和坏的前10的关键词
这样写有个不好的地方,group_concat有数量限制 虽然可以修改 但是这个数量会越来越大
再用group_concat的结果去book_theme表查 用in也会有限制的问题影响
请问该怎么处理好
1.保持book表不变。
2.在book_theme表中增加一个theme_type字段,用来区分主题关键字是好词还是坏词(0表示好词,1表示坏词)。
修改后的book_theme表DDL:
CREATE TABLE `book_theme` (
`id` bigint NOT NULL,
`book_id` bigint DEFAULT NULL,
`theme` varchar(255) DEFAULT NULL,
`num` int DEFAULT NULL,
`theme_type` tinyint DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;
修改后的book_theme表插入数据:
INSERT INTO `book_theme` VALUES (1, 1, '恐怖', 2, 0);
INSERT INTO `book_theme` VALUES (2, 1, '玄幻', 1, 1);
修改book_theme_word表,删除type字段。
修改后的book_theme_word表DDL:
CREATE TABLE `book_theme_word` (
`id` bigint NOT NULL,
`book_id` bigint DEFAULT NULL,
`book_theme_id` bigint DEFAULT NULL,
`word` varchar(255) DEFAULT NULL,
`num` int DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;
修改后的book_theme_word表插入数据:
INSERT INTO `book_theme_word` VALUES (1, 1, 1, '鬼怪', 2);
INSERT INTO `book_theme_word` VALUES (2, 1, 2, '天使', 1);
最后SQL查询看看:
WITH ranked_themes AS (
SELECT bt.*,
ROW_NUMBER() OVER (PARTITION BY bt.book_id ORDER BY bt.num DESC) AS rn
FROM book_theme bt
WHERE bt.book_id = 1
),
top_themes AS (
SELECT * FROM ranked_themes WHERE rn <= 10
),
ranked_words AS (
SELECT btm.*,
ROW_NUMBER() OVER (PARTITION BY btm.book_theme_id ORDER BY btm.num DESC) AS rn
FROM book_theme_word btm
JOIN top_themes tt ON btm.book_theme_id = tt.id
),
top_words AS (
SELECT * FROM ranked_words WHERE rn <= 10
)
SELECT tt.theme, tt.num AS theme_num, bw.word, bw.num AS word_num, tt.theme_type
FROM top_themes tt
JOIN top_words bw ON tt.id = bw.book_theme_id
ORDER BY tt.rn, bw.rn;
你的思路是正确的,但是使用 group_concat 确实会存在数量限制的问题,不利于大规模的数据处理。
说一下我的思路:
首先从 book_theme 表中查询出内容 id 为 1 的主题及数量,并排序取 top 10,得到主题 id 列表 theme_ids。
SELECT id, theme, num
FROM book_theme
WHERE book_id = 1
ORDER BY num DESC
LIMIT 10
然后分别统计出这 10 个主题对应的好词(type = 1)和坏词(type = 0)的数量。
好词:
SELECT book_theme_id, word, SUM(num) AS num
FROM book_theme_word
WHERE book_theme_id IN (theme_ids) AND type = 1
GROUP BY book_theme_id, word
ORDER BY num DESC
LIMIT 10
坏词:
SELECT book_theme_id, word, SUM(num) AS num
FROM book_theme_word
WHERE book_theme_id IN (theme_ids) AND type = 0
GROUP BY book_theme_id, word
ORDER BY num DESC
LIMIT 10
最后 outer join 三个查询的结果,得到内容 id 为 1 的主题 top 10,以及其前 3 个主题的好词和坏词 top 10。
SELECT
t.id AS theme_id,
t.theme,
t.num AS theme_num,
g.word AS good_word,
g.num AS good_word_num,
b.word AS bad_word,
b.num AS bad_word_num
FROM
(SELECT * FROM book_theme WHERE book_id = 1 ORDER BY num DESC LIMIT 10) AS t
LEFT JOIN
(SELECT * FROM good_word_result ORDER BY num DESC LIMIT 10) AS g
ON t.id = g.book_theme_id
LEFT JOIN
(SELECT * FROM bad_word_result ORDER BY num DESC LIMIT 10) AS b
ON t.id = b.book_theme_id
LIMIT 3
这种分步统计再 outer join 的查询方式,可以比较优雅地解决这种统计 top n 中的 top m 信息的问题,并且更利于大规模数据的处理。
问题内容: 我使用SUM聚合计算服务过程的持续时间。执行过程的每一步都将保存在Elasticsearch中的调用ID下。 这是我监视的内容: 过滤: 这将返回该过程的完整持续时间,并且还告诉我该过程的哪一部分是最快的,而哪一部分是最慢的。 接下来,我要通过serviceId 计算 所有已完成过程 的平均 持续时间 。在这种情况下,我只关心每项服务的总时长,因此我可以提供帮助。 如何从total_d
为什么 if((element2.wg_id != element1.wg_id)) 我打印的是全部数据,不会打印出不相等的数据。if((element2.wg_id == element1.wg_id)) 却可以找出相等的数据?
我想知道为什么不使用这个明显简洁的表达呢?
问题内容: 几乎每个人都知道,当他们初次使用Python进行线程处理时,GIL使真正想并行执行处理的人痛苦不堪-至少给了机会。 我目前正在考虑实现类似Reactor模式的东西。实际上,我想在一个类线程上侦听传入的套接字连接,并且当有人尝试连接时,接受该连接并将其传递给另一个类线程进行处理。 我(尚)不确定我可能要面对什么样的负担。我知道目前对传入邮件设置了2MB的上限。从理论上讲,我们每秒可以得到
本文向大家介绍xgboost原理,怎么防过拟合?相关面试题,主要包含被问及xgboost原理,怎么防过拟合?时的应答技巧和注意事项,需要的朋友参考一下 参考回答: XGBoost是一个树集成模型,它使用的是K(树的总数为K)个树的每棵树对样本的预测值的和作为该样本在XGBoost系统中的预测,定义函数如下: 对于所给的数据集有n个样本,m个特征,定义为: 其中Xi表示第i个样本,yi表示第i个样本
我收到了以下错误 有没有办法捕获它。 我尝试使用try and catch,但不工作的应用程序正在崩溃 我的代码 我的班级 完整错误代码