spynner模拟浏览器爬取链接

之前用了scrapy框架谢了一个爬取链接的爬虫,但是不能获取到post的链接,ajax动态加载的链接,一些需要交互后才能得到的链接也没法获取到,因此想要采用spynner模拟浏览器请求页面,对请求过程中的数据包进行处理记录,同时采用spynner模拟浏览器进行一些简单的交互获取到其他链接。

01 spynner简介

spynner对QtWebkit进行了封装,使各种浏览器操作更加简单易用。webkit是一个开源的浏览器引擎。
详细情况可以参考
https://www.cnblogs.com/caroar/archive/2013/05/10/3070847.html
项目的地址:
https://github.com/makinacorpus/spynner

02 spynner操作

相关的代码在这里:https://github.com/M954/web_scan/tree/master/spider/crawl/tutorial

这里为了截取浏览器的请求,我用了两个方法,第一个方法比较简单粗暴,直接修改spynner的源码,在它的NManager中加入记录功能,然后加一个函数,用于将记录的请求返回出来

class NManager(QNetworkAccessManager):
    ob = None # Browser instance
    @classmethod
    def new(klass, spynner, cookiejar_klass=None):
        if not cookiejar_klass:
            cookiejar_klass = ExtendedNetworkCookieJar
        manager = klass()
        manager.ob = spynner
        manager.proxy_url = None
        cookiejar = cookiejar_klass()
        manager.setCookieJar(cookiejar)
        manager.cookieJar().setParent(spynner.webpage)

        # manager.request_urls = []

        return manager

    def createRequest(manager, operation, request, data):
        self = manager.ob

        jar = manager.cookieJar()
        cookies = merge_cookies(
            self.cookies,
            jar.allCookies(),
        )
        manager.cookieJar().setAllCookies(cookies)
        url = six.u(toString(request.url()))
        operation_name = self._operation_names.get(
            operation, str(operation)).upper()
        req = self.make_request(request, operation_name)
        self._debug(INFO, "Request: %s %s" % (operation_name, url))
        for h in req.rawHeaderList():
            self._debug(DEBUG, "  %s: %s" % (h, req.rawHeader(h)))
        if self._url_filter:
            if self._url_filter(self._operation_names[operation], url) is False:
                self._debug(INFO, "URL filtered: %s" % url)
                req.setUrl(QUrl("about:blank"))
            else:
                self._debug(DEBUG, "URL not filtered: %s" % url)
        reply = QNetworkAccessManager.createRequest(
            manager, operation, req, data)

        request_url = request.url()
        request_item = {}
        # print request_url.toString()
        request_item['rawurl'] = str(request_url.toString())
        request_item['domain'] = str(request_url.host())
        request_item['url'] = str(request_url.toString(request_url.RemoveQuery))
        request_item['method'] = operation_name
        request_item['port'] = request_url.port()
        query_items = {}
        if request_url.hasQuery():
            query_raw = request_url.queryItems()
            for q in query_raw:
                if len(q) >= 2:
                    query_items[str(q[0]).replace("\"", "\\\"")] = str(q[1]).replace("\"", "\\\"")
                else:
                    query_items[str(q[0]).replace("\"", "\\\"")] = ""
        request_item['query'] = query_items
        request_data = ''
        if data != None:
            request_data = request_item['method'] + ' ' + request_url.path() + ' ' + 'HTTP/1.1' + '\r\n'
            request_data += "Host: " + request_url.host() + '\r\n'
            for h in req.rawHeaderList():
                request_data += "%s: %s" % (h, req.rawHeader(h)) + '\r\n'
            raw_cookies = "Cookie: "
            cnt = 0
            for c in cookies:
                raw_cookies += c.toRawForm().data()
                cnt += 1
                if cnt != len(cookies):
                    raw_cookies += "; "
            request_data += raw_cookies + '\r\n'
            request_data += '\r\n'
            if str(type(data)) == "<class 'PyQt4.QtCore.QByteArray'>":
                request_data += str(data)
            elif str(type(data)) == "<class 'PyQt4.QtCore.QIODevice'>":
                request_data += str(data.readAll())
            elif str(type(data)) == "<class 'PyQt4.QtCore.QHttpMultiPar'>":
                request_data += str(data.boundary())
        # print '[spynner] ' + str(request_data)
        request_item["data"] = request_data
        print str(datetime.datetime.now().strftime('%Y/%m/%d %H:%M:%S')) + ' [spynner] ' + request_item['rawurl']
        self.request_urls.append(request_item)

        return reply

  ......

    def get_request_urls(self):
        return self.request_urls

第二个方法就比较正常一点,继承browser和NManager,在其中添加上记录的变量,同样添加一个可以取出记录值的函数就好了。

3 交互

主要是获取页面中可以交互的组件,交互后获取交互期间的链接数据

def get_click_point(self):
        res = []
        elements = self.browser.webframe.findAllElements('*[onclick]')
        res = elements.toList()
        #elements = self.browser.webframe.findAllElements('input')
        #res = res + elements.toList()
        #elements = self.browser.webframe.findAllElements('a')
        #res = res + elements.toList()
        felements = self.browser.webframe.findAllElements('form')
        for fele in felements.toList():
            fchildele = fele.findAll('*')
            res = res + fchildele.toList()
        return res

def click(self):
    while( len(self.click_point) > 0):
        e = self.click_point[0]
        self.click_point.remove(e)
            if usersetting.Maxclick >= 0 and cnt >= usersetting.Maxclick:
                print datetime.datetime.now().strftime("%Y/%m/%d %H:%M:%S") + ' [click] stop because reach max click number'
                break
            # print e.tagName()
            try:
                self.browser.wk_click_element(e, wait_load=True, timeout=0.5)
            except:
                self.browser.wk_click_element(e)
            self.analyse_page()
            self.cnt += 1.0
            print datetime.datetime.now().strftime("%Y/%m/%d %H:%M:%S") + ' [click] ' + "%.2f"%(self.cnt/len(self.click_point) * 100) + '%'

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,198评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,663评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,985评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,673评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,994评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,399评论 1 211
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,717评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,407评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,112评论 1 239
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,371评论 2 241
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,891评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,255评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,881评论 3 233
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,010评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,764评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,412评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,299评论 2 260

推荐阅读更多精彩内容