用scrapy全网爬取苏宁易购图书

分析:
item["h_3"]里面的东西是通过json抓包之后分析的到的链接
打印item["h_3"]可以知道各个类型的书籍的第一页的链接
正则解析param.pageNumbers=(.?)和param.currentPage =(.?)来判断是否还有下一页,有就进行翻页,并且item["h_3"]的页面加1

# -*- coding: utf-8 -*-
import re
from copy import deepcopy
import scrapy


class SnSpider(scrapy.Spider):
    name = 'sn2'
    allowed_domains = ['suning.com']
    start_urls = ['https://book.suning.com/']

    def parse(self, response):
        li_list = response.xpath("//div[@class='menu-list']//dl")
        for li in li_list:
            item = {}
            item["b_cate"] = li.xpath(".//dt/h3/a/text()").extract_first()  # 大分类
            a_list = li.xpath("./dd/a")  # 小分类
            for a in a_list:
                item["s_href"] = a.xpath("./@href").extract_first()  # 小分类的链接
                item["s_cate"] = a.xpath("./text()").extract_first()  # 小分类名字
                item["h_2"] = item["s_href"][26:32]
                item["h_3"] = "http://list.suning.com/emall/showProductList.do?ci=" + item["h_2"] + '&pg=03&cp=2'
                print(item["h_3"])

                if item["h_3"] is not None:
                    print(item["h_3"])
                    yield scrapy.Request(item["h_3"], callback=self.parse_book_list, meta={"item": item})


    def parse_book_list(self, response):
        item = response.meta["item"]
        # print(response.body.encode())
        li_list = response.xpath("//ul[@class='clearfix']/li")
        for li in li_list:
                item["book_commit"] = li.xpath(".//div[@class='res-info']/p[3]/a/text()[1]").extract_first()  #收藏人数
                item["book_desc"] = response.xpath(".//div[@class='res-info']/p[2]/a/em/text()").extract_first()  # 书籍详情
                # item["book_price"] = response.xpath(".//div[@class='res-info']/p/em[1]").extract_first()  # 出版价格
                item["book_name"] = li.xpath(".//div[@class='res-img']//a[@target='_blank']/img/@alt").extract_first()  # 书名
                item["book_image"] = li.xpath(
                    ".//div[@class='res-img']//a[@target='_blank']/@href").extract_first()  # 书的封面链接
                if item["book_image"] is not None:
                    item["book_image"] = "https:" + item["book_image"]
                    yield scrapy.Request(item["book_image"], callback=self.parse_book_detail, meta={"item": deepcopy(item)})

        page_count = int(re.findall("param.pageNumbers=(.*?);", response.body.decode())[0])
        current_page = int(re.findall("param.currentPage =(.*?);", response.body.decode())[0])
        if current_page < page_count:
            next_url = item["h_3"][:-1] + '{}'.format(current_page + 1)
            yield scrapy.Request(
                next_url,
                callback=self.parse_book_list,
                meta={"item": response.meta["item"]}
            )

    def parse_book_detail(self, response):
        item = response.meta["item"]
        book_detail = response.xpath("//ul[@class='bk-publish clearfix']/li").extract()
        for book1 in book_detail:
            book2 = book1.replace("\n", "").replace("\r", "").replace("\t", "").replace("</span>", "").replace("<span>",
                                                                                                               "")
            item["book_author"] = re.findall("作者:(.*?)</li>", book2)
            item["book_author"] = item["book_author"][0] if len(item["book_author"]) > 0 else None
            item["book_press"] =re.findall("出版社:(.*?)</li>",book2)
            item["book_press"] = item["book_press"][0] if len(item["book_press"]) > 0 else None
            item["publish_time"] =re.findall("出版时间:(.*?)</li>",book2)
            item["publish_time"] = item["publish_time"][0] if len(item["publish_time"]) > 0 else None
            print(item)

------------------------------------------------雍大喵

爬取输入:

scrapy crawl sn2

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,736评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,167评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,442评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,902评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,302评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,573评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,847评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,562评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,260评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,531评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,021评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,367评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,016评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,068评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,827评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,610评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,514评论 2 269

推荐阅读更多精彩内容

  • 有半个月没有更新了,最近确实有点忙。先是华为的比赛,接着实验室又有项目,然后又学习了一些新的知识,所以没有更新...
    qiye阅读 9,765评论 35 87
  • 这两天摸索了下scrapy,刚看文档的时候觉得有点生无可恋,scrapy框架个人还是觉得比较难懂的,需要学习的地方...
    Treehl阅读 5,576评论 7 10
  • 失眠的夜晚 喜欢和儿子一起听 雷森妈妈讲故事 小鸡球球 突然想抱抱小小的自己 乖,你有一个温柔的会给你讲故事的好妈...
    集安阅读 153评论 1 2
  • 调休一天,出门走走,突然有了拿起钢笔画画的冲动。听着spitz的ロビンソン,钢笔就这样慢慢舒展开来。很多乱七八糟的...
    酷酷的糯米团子阅读 101评论 0 1
  • 1.官网(https://www.alluxio.org)下载 我这里下载的是最新版本的alluxio-1.7.1...
    代码足迹阅读 1,278评论 0 2