文章详情页
python - mongodb去重
浏览:190日期:2022-10-14 09:36:55
问题描述
1.功能里需要根据有一个字段来判断是否重复,比如叫做ownnerId,凡是存在的就丢弃.于是我用到了distinct这个方法,但是这段时间随着数据量逐渐增大,出现了一个问题:
OperationFailure: distinct too big, 16mb cap
这是命令行里边的错误,说distinct返回的结果太大了,超过了16M.请问各位高手能否贡献一些方法.
需求:每次通过检查数据库中ownnerId这个字段是否出现了,其中数据库是一直在更新的,而且这个不存在的ownnerId在一会处理后就会存到数据库中去,所以要求每次判断都要重新检查一遍数据库中这个ownner字段.因此对速度的要求也比较高.各位大神瞅瞅,求给个意见.
问题解答
回答1:如果我理解的对的话,是否考虑过Unique Indexes。
供参考。
Love MongoDB! Have fun!
相关文章:
1. python - 求一个在def中可以实现调用本def满足特定条件continue效果的方法(标题说不太清楚,请见题内描述)2. $fields = $values = [];这条代码一直定义不了,一直报错,老师的源码也是被报错的,执行不了,请问该怎么解决这个问题3. java - mybatis怎么实现在数据库中有就修改,没有就添加4. MYSQL新建用户设置可以远程访问的问题5. mysql多表联合查询优化的问题6. MySQL中的enum类型有什么优点?7. mysql字符串排序问题8. 数据库设计 - MySQL数据库主键问题9. linux - 为什么我在mysql的my.cnf下找不到bind-address?10. mysql 5.7单表300万数据,性能严重下降,如何破?
排行榜
![$fields = $values = [];这条代码一直定义不了,一直报错,老师的源码也是被报错的,执行不了,请问该怎么解决这个问题](http://www.haobala.com/attached/image/news/202205/093622cb60.png)