mongodb数据库去重的方法-创新互联-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

mongodb数据库去重的方法-创新互联

创新互联www.cdcxhl.cn八线动态BGP香港云服务器提供商,新人活动买多久送多久,划算不套路!

创新互联建站坚持“要么做到,要么别承诺”的工作理念,服务领域包括:成都做网站、网站建设、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的含山网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!

这篇文章将为大家详细讲解有关mongodb数据库去重的方法,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

MongoDB删除重复的数据,方法如下:

db.Passages.aggregate([
    {
        $group:{_id:{content:'$content',endTime:'$endTime',startTime:'$startTime'},count:{$sum:1},dups:
        {$addToSet:'$_id'}}
    },
    {
        $match:{count:{$gt:1}}
    }
    ]).forEach(function(it){
         it.dups.shift();
            db.Passages.remove({_id: {$in: it.dups}});
    });

下面来解析:

1、使用aggregate聚合查询重复数据

·$group中是查询条件,根据content、endTime、startTime字段来聚合相同的数据;

·$count用来统计重复出现的次数, $match来过滤没有重复的数据;

·$addToSet将聚合的数据id放入到dups数组中方便后面使用;

2、查询结果使用forEach进行迭代id来删除数据

·shift()作用是剔除队列中第一条id,避免删掉所有的

关于mongodb数据库去重的方法就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。


当前题目:mongodb数据库去重的方法-创新互联
本文路径:http://kswsj.cn/article/cspeji.html

其他资讯