DAY 214 MongoDB设计命名规范
2021/11/9 2:12:14
本文主要是介绍DAY 214 MongoDB设计命名规范,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
1. 库
1. 库名全部小写,禁止使用任何`_`以外的特殊字符,禁止使用数字打头的库名,如:`123_abc`;
2. 库以文件夹的形式存在,使用特殊字符或其它不规范的命名方式会导致命名混乱;
3. 数据库名最多为64字符;
4. 在创建新的库前应尽量评估该库的体积、QPS等,提前与DBA讨论是应该新建一个库还是专门为该库创建一个新的集群;
某开发在拿到DBA提供的MongoDB后由于MongoDB的权限控制比较宽松,导致该业务的开发在创建集合的时候懒得与DBA讨论,而是随意的将所有集合都创建在一个库中,最初并没有什么问题,因为业务的请求量并不大。半年后,该业务增长到了一个比较大的量级,而此时开发人员上线了一个新的项目,该项目的写入量很大,大部分都为批量更新,由于所有集合都存放在一个库中,这个新项目的批量更新带来了频繁的锁、I/O平均等。最后开发配合DBA一起将该库拆散到了多个新的库中,将一库N集合转换为单库单集合,性能问题迎刃而解。
2. 集合
1. 集合名全部小写,禁止使用任何`_`以外的特殊字符,禁止使用数字打头的集合名,如:`123_abc`,禁止system打头; system是系统集合前缀;
2. 集合名称最多为64字符;
3. 一个库中写入较大的集合会影响其它集合的读写性能,如果业务比较繁华的集合在一个DB中,建议最多80个集合,同时也要考虑磁盘I/O的性能;
4. 如果评估单集合数据量较大,可以将一个大表拆分为多个小表,然后将每一个小表存放在独立的库中或者sharding分表;
5. MongoDB的集合拥有“自动清理过期数据”的功能,只需在该集合中文档的时间字段增加一个TTL索引即可实现该功能,但需要注意的是该字段的类型则必须是mongoDate(),一定要结合实际业务设计是否需要;
6. 设计轮询集合---集合是否设计为Capped限制集,一定要结合实际业务设计是否需要;
7. 创建集合规则
不同的业务场景是可以配置进行不同的配置;
a. 如果是读多写少的表在创建时我们可以尽量将 page size 设置的比较小,比如 16KB,如果表数据量不太大(
"internal_page_max=16KB,leaf_page_max=16KB,leaf_value_max=8KB,os_cache_max=1GB"
b. 如果这个读多写少的表数据量比较大,可以为其设置一个压缩算法,例如:
"block_compressor=zlib,internal_page_max=16KB,leaf_page_max=16KB,leaf_value_max=8KB"
c. 注意:该zlib压缩算法不要使用,对cpu消耗特别大,如果使用snapp消耗20% cpu,而且使用zlib能消耗90%cpu,甚至100%
d. 如果是写多读少的表,可以将 leaf_page_max 设置到 1MB,并开启压缩算法,也可以为其制定操作系统层面 page cache 大小的os_cache_max 值,让它不会占用太多的 page cache 内存,防止影响读操作;
e. 案例
db.createCollection(
"logs",
{ storageEngine: { wiredTiger: {configString: "internal_page_max=16KB,leaf_page_max=16KB,leaf_value_max=8KB,os_cache_max=1GB" } } }
)
f. 说明
读多写少的表
internal_page_max=16KB 默认为4KB
leaf_page_max=16KB 默认为32KB
leaf_value_max=8KB 默认为64MB
os_cache_max=1GB 默认为0
读多写少的表 而且数据量比较大
block_compressor=zlib 默认为snappy
internal_page_max=16KB 默认为4KB
leaf_page_max=16KB 默认为32KB
leaf_value_max=8KB 默认为64MB
3. 文档
1. 文档中的key禁止使用任何`_`以外的特殊字符;
2. 尽量将同样类型的文档存放在一个集合中,将不同类型的文档分散在不同的集合中;相同类型的文档能够大幅度提高索引利用率,如果文档混杂存放则可能会出现查询经常需要全表扫描的情况;
3. 禁止使用_id,如:向_id中写入自定义内容;
某业务的MongoDB在放量后出现严重的写入性能问题,大致为:写入达到300/s的时候IO跑满,排查中发现,该业务在设计的时候为了方便, 而将_id中写入了无序的类似md5的数据。MongoDB的表与InnoDB相似,都是索引组织表,数据内容跟在主键后,而_id是MongoDB中的默认主键,一旦_id的值为非自增,当数据量达到一定程度之后,每一次写入都可能导致主键的二叉树大幅度调整,这将是一个代价极大的写入, 所以写入就会随着数据量的增大而下降,所以一定不要在_id中写入自定义的内容。
4. 尽量不要让数组字段成为查询条件
某业务在一个表的数组字段上创建了一个索引,创建完毕之后发现表体积增大了很多很多,排查发现是由于索引体积的大幅度增大导致在MongoDB中,如果为一个数组字段添加索引,那么MongoDB会主动为这个数组中的所有元素依次添加独立索引,例如: 为数组字段{a:[x,y,z]}添加索引{a:1},实际上添加的索引为:
{a:[x:1]}
{a:[y:1]}
{a:[z:1]}
该业务的数组字段中有11个元素,那么等于一次创建了11条索引,这是索引体积大幅度增大的根本原因。另外,如果组合索引中存在数组字段,那么MongoDB会为每一个元素与其它字段的组合创建一个独立的索引,例如: 为数组字段{a:[x,y,z]}和{b:qqq}添加索引{a:1,b:1},实际上添加的索引为:
{a:[x:1],b:1}
{a:[y:1],b:1}
{a:[z:1],b:1}
如果一个组合索引中存在两个数组字段,那么索引的数量将是两个数组字段中元素的笛卡儿积,所以MongoDB不允许索引中存在一个以上的数组字段。
5. 如果字段较大,应尽量压缩存放
某业务上线后一直很正常,但在放量3倍之后发现MongoDB服务器的网卡流量报警,IO压力报警,排查中发现,该业务讲一个超长的文本字段存放在MongoDB中,而这个字段的平均体积达到了7K。在并发为2000QPS的场景下,每次取出1~20条数据,导致这个MongoDB每秒钟要发送将近100MB的数据,而对于数据库而言,读写均为随机IO,所以在如此大的数据吞吐场景中,IO达到了报警阈值。
由于文本是一个容易压缩的样本, 所以我们对该字段进行了压缩存放,使其平均体积降低到了2K,而解压在业务端进行处理,最终将吞吐降低到了20MB/S左右。
如果字段较大且会成为查询条件,例如一长串的url,尽量转成md5后存放
某业务上线前进行压力测试,测试中发现某个场景下的查询性能不够理想,排查中发现该场景的查询条件类似:{url:xxxx},而url字段中的值大部分都很长很长,该字段的平均体积达到了0.5K,在这种情况下索引的体积会变得很大从而导致虽然请求虽然能够走索引但效率并不够理想,于是dba配合业务开发一起对该场景进行优化:
1.将该字段的存放的内容由真实的url改为url内容md5后的值,字段体积得到了大幅度缩小,固定在了32位
2.查询时,用户请求通过url查询,而此时程序会将该url进行md5,然后用得到的值进行查询,由于所以体积大幅度缩小,所以查询速度有了极大的提高,优化完毕后再次进行压力测试,性能达标,为之前的6倍。
6. 由于MongoDB是大小写敏感的,如果字段无需大小写敏感,为了提高查询效率应尽量存放统一了大小写后的数据,如:全部小写或为该字段增加一个统一了大小写的辅助字段;
某业务需要根据字段{a:XxX}来进行查询,在MongoDB中a的值是大小写敏感的,并且无法配置为忽略大小写,但该业务场景为了满足查询需求而需要忽略大小写,这个大小写敏感与否的矛盾导致业务需要使用正则来进行匹配:{a:/xxx/i},i参数在正则中表示忽略大小写,上线后发现, 查询性能非常低下,在一个拥有200万文档的集合中一次查询需要消耗2.8~7秒,并发达到50QPS的时候MongoDB实例所在服务器的CPU就跑到了973%。
MongoDB在查询条件中使用正则的时候,能够像普通精确匹配一样使用索引达到高效率的查询,但一旦使用了参数i来忽略大小写查询优化器就需要对每一个数据的大小写进行调整然后再进行匹配,此时这个请求就变成了全表扫描,这就是效率低下的根本原因。
对于这种场景可以采用新建一个统一了大小的字段,例如全部小写:假设原字段为:{a:aAbB},那么为其添加一个全部为小写的对应字段:{a_low:aabb}然后通过字段a_low进行查询就能达到精确匹配,按照该方案改进后,该场景的查询耗时降低到了2毫秒虽然新增字段导致实例会变大一些,但对于换来性能的大幅度提升还是非常值得的。
7. 不要存放太长的字符串,如果这个字段为查询条件,那么确保该字段的值不超过1KB;
8. MongoDB的索引仅支持1K以内的字段,如果你存入的数据长度超过1K,那么它将无法被索引;
4. 索引
1. MongoDB 的组合索引使用策略与 MySQL 一致,遵循“最左原则”;
2. 索引名称长度不要超过128字符;
3. 应尽量综合评估查询场景,通过评估尽可能的将单列索引并入组合索引以降低所以数量,结合1,2点;
MongoDB的组合索引规则和MySQL一样,都遵循最左原理,假设一个组合索引为:{a:1,b:1,c:1},那么以下条件的查询是可以被用到的:
{a:1}
{a:1,b:2}
{a:1,b:2,c:3}
{}
以下条件的查询是不能用到索引的:
{b:1}
{b:1:c:2}
{c:2}
另外在设计索引的时候可以通过该原理减少索引的数目,如果需要通过{a:xxx}或{a:xxx,b:xxx}来进行查询,那么创建索引:
{a:1,b:1}
即可同时满足这两个查询场景而无需再单独创建{a:1}索引。
4. 在创建组合索引的时候,应评估索引中包含的字段,尽量将数据基数大(唯一值多的数据)的字段放在组合索引的前面;
某业务某场景下的查询十分缓慢,大概需要1.7秒左右,需要进行调优,该场景的查询和对应索引如下:
查询:{name:baidu,status:0}
索引:{status:1,name:1}
乍一看没什么问题,因为查询和索引十分匹配,但对该集合分析后发现该集合一共有150万文档,而status=0的有1499930由于这基本上占了99%的文档数目(数据基数很小),所以导致虽然使用了索引,但依然需要从149万行数据中找到name=baidu的数据但name字段则有大量不同的数据(数据基数很大),所以如果将该组合索引调整为name在前,该查询即可先通过name字段抽出较少的数据,再通过status进行过滤,就快了:
{name:1.status:1}调整后查询耗时降低到3~5毫秒。
5. 在数据量较大的时候,MongoDB 索引的创建是一个缓慢的过程,所以应当在上前线或数据量变得很大前尽量评估,按需创建会用到的索引;
6. MongoDB 支持 TTL 索引,该索引能够按你的需要自动删除XXX秒之前的数据并会尽量选择在业务低峰期执行删除操作;看业务是否需要这一类型索引;
7. 如果你存放的数据是地理位置信息,比如:经纬度数据。那么可以在该字段上添加 MongoDB 支持的地理索引:2d 及2dsphere,但他们是不同的,混用会导致结果不准确;
2d:只能用于点对点索引,适用于平面地图和时间连续的数据,比如非常适用于游戏地图【2dsphere:允许指定点、线和多边形。适用于地球表面类型的地图(球体) 】如果在球体表面创建2d索引,则会导致极点附近出现大量扭曲变形,最终导致结果不准确;
8. MongoDB 的全文索引目前仍然处于“实验”阶段,性能并不够理想,当前不建议使用;
9. 从 MongoDB2.4开始,支持索引的 ICP 功能,可以通过其合理减少索引数量;
从 MongoDB2.4开始,组合索引能够被更有效的利用,如:
索引{x:1,y:1,z:1}可以被查询{x:1,z:1}所利用如果x字段的数据基数很大,而该条件匹配到的数据有很少,在这种情况下无需专门添加{x:1,z:1}索引,索引{x:1,y:1,z:1}即可带来理想的性能但需要注意的是,ICP 性能并没有原生的连续的组合索引效率好,如果发现效率不佳那么还是需要添加单独的{x:1,z:1}索引;
10. 创建索引要在后台创建,避免阻塞业务正常DML和查询
db.works.createIndex({plan:1,trainingpoints:1,cmsOrder:1,stateValue:1},{background:true})
a. 添加唯一索引
db.bodys.createIndex({user:1,date:-1},{unique:true,background:true}) 唯一索引 3.2以下必须这样加唯一索引;
b. 添加带有数组好其他列的索引
db.antis.createIndex({"action.last":1,refe_type:1,_id:1},{background:true})
其中action.last是数组
c. TTL索引,字段create_date,180天后自动清理数据
db.orders.createIndex({"create_date":1},{"expireAfterSeconds":15552000})
d. 案例说明
创建位置和状态索引,为了能快速处理“某地未处理订单”查询,这是一个多条件的查询,所以是一个复合索引,
status字段放在前面,因为多数的查询都会依赖状态字段
db.order.createIndex({"status":1, "delivery.city":1,"delivery.address":1})
在这个Demo里,还有一种加快查询速度的方法就是,创建一个只包含指定状态的一个Partial Indexes索引。
比如status必须为delivering 才加入到索引中,有效控制索引的大小,加快查询速度。
db.order.createIndex({"delivery.city":1,"delivery.address":1},{partialFilterExpression:{'status':{$eq:"delivering"}}})
e.
11. 创建索引建议:先做等值查询,在做排序,在做范围查询。
5. 实践操作性能
1. 索引中的-1和1是不一样的,一个是逆序,一个是正序,应当根据自己的业务场景建立适合的索引排序,需要注意的是{a:1,b:-1} 和 {a:-1,b:1}是一样的;
2. 在开发业务的时候尽量检查自己的程序性能,可以使用explain() 函数检查你的查询执行详情,另外 hint() 函数相当于 MySQL 中的force index();
3. 查询中的某些 $ 操作符可能会导致性能低下,如 $ne,$not,$exists,$nin,$or,尽量在业务中不要使用
a. $exist:因为松散的文档结构导致查询必须遍历每一个文档
b. $ne:如果当取反的值为大多数,则会扫描整个索引
c. $not:可能会导致查询优化器不知道应当使用哪个索引,所以会经常退化为全表扫描
d. $nin:全表扫描
e. $or:有多少个条件就会查询多少次,最后合并结果集,所以尽可能的使用 $in
4. 如果你结合体积大小/文档数固定,那么建议创建 capped(封顶)集合,这种集合的写入性能非常高并无需专门清理老旧数据,需要注意的是 capped 表不支持r emove() 和update();
5. 在写入数据的时候,如果你需要实现类似 MySQL 中INSERT INTO ON DUPLICATE KEY UPDATE 的功能,那么可以选择 upsert() 函数;
db.analytice.update(
{"url":"/blog"},
{"$inc":{"visits":1}},
true
)
第3个参数表示,这是upsert
6. 不要一次取出太多的数据进行排序,MongoDB 目前支持对32MB以内的结果集进行排序,如果需要排序,那么请尽量限制结果集中的数据量;
7. MongoDB 的聚合框架非常好用,能够通过简单的语法实现复杂的统计查询,并且性能也不错;
8. 如果需要清理掉一个集合中的所有数据,那么 remove() 的性能是非常低下的,该场景下应当使用 drop();
remove() 是逐行操作,所以在删除大量数据的时候性能很差;
9. 写入大量数据的时候可以选择使用 batchInsert,但目前MongoDB 每一次能够接受的最大消息长度为48MB,如果超出48MB,将会被自动拆分为多个48MB的消息;
10. 在使用数组字段做为查询条件的时候,将于覆盖索引无缘;
这是因为数组是保存在索引中的,即便将数组字段从需要返回的字段中剔除,这样的索引仍然无法覆盖查询;
11. 在查询中如果有范围条件,那么尽量和定值条件放在一起进行过滤,并在创建索引的时候将定值查询字段放在范围查询字段前;
原文链接:https://blog.51cto.com/beigai/1955161
这篇关于DAY 214 MongoDB设计命名规范的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-24MongoDB资料:新手入门完全指南
- 2024-12-20go-zero 框架的 RPC 服务 启动start和停止 底层是怎么实现的?-icode9专业技术文章分享
- 2024-12-19Go-Zero 框架的 RPC 服务启动和停止的基本机制和过程是怎么实现的?-icode9专业技术文章分享
- 2024-12-18怎么在golang中使用gRPC测试mock数据?-icode9专业技术文章分享
- 2024-12-15掌握PageRank算法核心!你离Google优化高手只差一步!
- 2024-12-15GORM 中的标签 gorm:"index"是什么?-icode9专业技术文章分享
- 2024-12-11怎么在 Go 语言中获取 Open vSwitch (OVS) 的桥接信息(Bridge)?-icode9专业技术文章分享
- 2024-12-11怎么用Go 语言的库来与 Open vSwitch 进行交互?-icode9专业技术文章分享
- 2024-12-11怎么在 go-zero 项目中发送阿里云短信?-icode9专业技术文章分享
- 2024-12-11怎么使用阿里云 Go SDK (alibaba-cloud-sdk-go) 发送短信?-icode9专业技术文章分享