文章详情页
python - mongodb去重
问题描述
1.功能里需要根据有一个字段来判断是否重复,比如叫做ownnerId,凡是存在的就丢弃.于是我用到了distinct这个方法,但是这段时间随着数据量逐渐增大,出现了一个问题:
OperationFailure: distinct too big, 16mb cap
这是命令行里边的错误,说distinct返回的结果太大了,超过了16M.请问各位高手能否贡献一些方法.
需求:每次通过检查数据库中ownnerId这个字段是否出现了,其中数据库是一直在更新的,而且这个不存在的ownnerId在一会处理后就会存到数据库中去,所以要求每次判断都要重新检查一遍数据库中这个ownner字段.因此对速度的要求也比较高.各位大神瞅瞅,求给个意见.
问题解答
回答1:如果我理解的对的话,是否考虑过Unique Indexes。
供参考。
Love MongoDB! Have fun!
相关文章:
1. javascript - 引入 simditor,但是显示标签,这个怎么解决。2. android - 目前有哪些用Vue.js开发移动App的方案?3. docker api 开发的端口怎么获取?4. python - 一个关于爬虫的问题5. javascript - 仿着echarts官网的地图做了个例子,但是只显示出来了地点,没有画出飞机动态效果??急6. javascript - js写一个递归把数据结构重组成另外的结构7. python - scrapy获取网页指定内容,后翻到下一页继续,固定循环次数。。问题8. java - android studio的安装路径问题9. javascript - 关于document.documentElement.scrollTop和documen.body.scrollTop的問題10. calss调用了 也设置了颜色,可是网站不显示。请问大佬是什么情况啊
排行榜