大家好,又见面了,我是你们的朋友全栈君。
系统有千万级的禁词需要去过滤
当中包含人名 特殊符号组成的语句 网址 单字组合成的敏感词 等等
1.解决千万级禁词存储及查找问题
2.解决被过滤文本内容过多问题
1.采用ES作为禁词库 千万级数据检索时间在毫秒级满足需求
2.不适用分词器需要完整匹配 分词后很多词都是合法的 组合之后才是敏感词
3.被过滤文本内容分词不完整 利用IK分词器分词结果不适合现在的业务场景
只能采用字符串分割的方式来匹配ES库
带来的问题就是效率低下同步多线程下千字也需要将近4秒
考虑采用异步模式来解决大数据量需要审核状态
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/138801.html原文链接:https://javaforall.cn
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有