文章详情页
python - mongodb去重
浏览:135日期:2022-10-14 09:36:55
问题描述
1.功能里需要根据有一个字段来判断是否重复,比如叫做ownnerId,凡是存在的就丢弃.于是我用到了distinct这个方法,但是这段时间随着数据量逐渐增大,出现了一个问题:
OperationFailure: distinct too big, 16mb cap
这是命令行里边的错误,说distinct返回的结果太大了,超过了16M.请问各位高手能否贡献一些方法.
需求:每次通过检查数据库中ownnerId这个字段是否出现了,其中数据库是一直在更新的,而且这个不存在的ownnerId在一会处理后就会存到数据库中去,所以要求每次判断都要重新检查一遍数据库中这个ownner字段.因此对速度的要求也比较高.各位大神瞅瞅,求给个意见.
问题解答
回答1:如果我理解的对的话,是否考虑过Unique Indexes。
供参考。
Love MongoDB! Have fun!
相关文章:
1. docker-machine添加一个已有的docker主机问题2. html - 用ajax提交表单后,返回验证数据在页面location.href跳转到主页,怎么传递session给主页3. node.js - node express 中ajax post请求参数接收不到?4. angular.js - grunt server 报错5. apache - nginx 日志删除后 重新建一个文件 就打不了日志了6. java - tomcat服务经常晚上会挂,求解?7. java - 原生CGLib内部方法互相调用时可以代理,但基于CGLib的Spring AOP却代理失效,为什么?8. 网站被黑,请教下大神,怎么对datebase.php内容加密。9. mysql - sql查询语句问题10. mysql的主从复制、读写分离,关于从的问题
排行榜
