鍍金池/ 問答/數據分析&挖掘  Java  Python  數據庫/ 如何提升mongodb find速率

如何提升mongodb find速率

linkbase中存有幾十萬條url,數據如下所示:

{ "_id" : ObjectId("5a322cad6c85e0369ab54161"), "url" : "https://www.xxxx.com/", "status_code" : 0, "spider_name" : "test_spider", "crawl_time" : "2017-12-14 15:47:57" }
{ "_id" : ObjectId("5a322c9f6c85e03699b54227"), "url" : "https://www.xxxxaa.com/", "status_code" : 0, "spider_name" : "test_spider", "crawl_time" : "2017-12-14 15:47:43" }
{ "_id" : ObjectId("5a2f082c6c85e0c65bc553c9"), "url" : "https://aabb.com", "status_code" : 403, "spider_name" : "test_spider", "crawl_time" : "2017-12-12 06:35:24" }
{ "_id" : ObjectId("5a2f082b6c85e0c65bc553c8"), "url" : "https://cccc.com", "status_code" : 403, "spider_name" : "test_spider", "crawl_time" : "2017-12-12 06:35:23" }

我用數據庫查詢工具,db.linkbase.find({"spider_name":"test_spider"})大約耗時122秒
數據庫有相關索引

[
    {
        "v" : 1,
        "key" : {
            "_id" : 1
        },
        "name" : "_id_",
        "ns" : "linkbase.linkbase"
    },
    {
        "v" : 1,
        "key" : {
            "spider_name" : 1
        },
        "name" : "spider_name_1",
        "ns" : "linkbase.linkbase"
    }
]

程序調用一個函數,max_requests每次取10個:

    def get_mongodb_linkbase(self,max_requests):
        linkbase = []
        for i in range(max_requests):
            result = self.db_linkbase_collection.find_one_and_delete({'spider_name':'test_spider'})
            if result == None:
                continue
            else:
                linkbase.append(result)
        return linkbase

可是爬蟲運行的時候,感覺速度并不快,爬蟲代碼采用了協程gevent,每個協程開50個

    def handle_linkbase():
        while True:
            linkbase_info = mongo_insert.get_mongodb_linkbase(10)
            if len(linkbase_info) == 0:
                time.sleep(random.choice(range(60)))
            else:
                for url in linkbase_info:
                    test.header['User-Agent'] = random.choice(setting.user_agent)
                    test.save_url_to_task(url['url'],header=test.header)

    def gevent_fun_linkbase():
        jobs = [gevent.spawn(handle_linkbase) for i in range(50)]
        gevent.joinall(jobs)
        
     m2 = multiprocessing.Process(target=gevent_fun_linkbase)
     m2.start()
     m2.join()

并將協程放入多進程。也就是三個進程分別運行三個協程,每個協程里開50個程序。但是感覺速度并不快,甚至有卡頓現象。就是在tail -f log的時候,發(fā)現有幾秒中,無信息輸出,并且運行速度慢。

目前不太清楚是不是mongodb查詢時候造成的卡頓。

感覺也不是代理造成的卡頓,requests我把重試關了,timeout為1.

請各位大牛幫忙分析。

回答
編輯回答
老梗
我用數據庫查詢工具,db.linkbase.find({"spider_name":"test_spider"})大約耗時122秒

是122秒還是122ms?122秒的話相當慢了。
如果不確定是不是MongoDB方的問題,可以先用profiler看一下執(zhí)行的查詢到底花了多少時間。從你上面的信息來看,我比較傾向于不是數據庫這一端慢。

2017年11月14日 05:50
編輯回答
憶當年

經過排查,應該就是卡在requests那里了,代理的有效性不高。。。。。。

2017年3月4日 15:50