Python实战计划学习笔记:week1

由于现在58同城主页改版,基本上都是转转的商品信息。在这个基础上爬取转转商品的信息。

代码如下:

#!/usr/bin/env python
# coding:utf-8
__author__ = 'lucky'

from bs4 import BeautifulSoup
import requests
import time

url = "http://bj.58.com/pbdn/0/"

header1 ={"User-Agent":'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36',
          "Cookie":'ipcity=sy%7C%u6C88%u9633; myfeet_tooltip=end; f=n; ipcity=sy%7C%u6C88%u9633; myfeet_tooltip=end; bj58_id58s="eWs0d25wVFQ4dFEtNjYzOQ=="; id58=c5/njVdz7Zg4WxzCBY1FAg==; als=0; city=nj; myfeet_tooltip=end; __utma=253535702.531780430.1467215895.1467215895.1467215895.1; __utmz=253535702.1467215895.1.1.utmcsr=bj.58.com|utmccn=(referral)|utmcmd=referral|utmcct=/pbdn/; 58home=nj; sessionid=2541e821-f53f-4629-8fb7-3e8911ce33d0; zz_download=2; bj58_new_session=0; bj58_init_refer=""; bj58_new_uv=2; 58tj_uuid=2ea1d0c1-893a-40eb-a802-ce41dcfa6601; new_session=0; new_uv=2; utm_source=; spm=; init_refer=; bdshare_firstime=1467252573738; final_history=25145823854502; ipcity=sy%7C%u6C88%u9633'
}
header2 = {
    "User-Agent":'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36',
    "Cookie":'myfeet_tooltip=end; bj58_id58s="eWs0d25wVFQ4dFEtNjYzOQ=="; id58=c5/njVdz7Zg4WxzCBY1FAg==; als=0; city=nj; myfeet_tooltip=end; __utma=253535702.531780430.1467215895.1467215895.1467215895.1; __utmz=253535702.1467215895.1.1.utmcsr=bj.58.com|utmccn=(referral)|utmcmd=referral|utmcct=/pbdn/; 58home=nj; sessionid=2541e821-f53f-4629-8fb7-3e8911ce33d0; zz_download=2; bj58_new_session=0; bj58_init_refer=""; bj58_new_uv=2; 58tj_uuid=2ea1d0c1-893a-40eb-a802-ce41dcfa6601; new_session=0; new_uv=2; utm_source=; spm=; init_refer='
}

info_list = []

def get_page(url,data=None):
    wb_data = requests.get(url,headers=header2)
    Soup = BeautifulSoup(wb_data.text,'lxml')
    titles = Soup.select("div.box_left_top > h1")
    views = Soup.select("p > span.look_time")
    prices = Soup.select("span.price_now > i")
    addresses = Soup.select('div.palce_li > span > i')
    if data ==None:
        for title,view,price,address in zip(titles,views,prices,addresses):
            data = {
                "title":title.get_text(),
                "view":view.get_text(),
                "price":price.get_text(),
                "address":address.get_text()
            }
            print(data)

def get_links(url,data=None):
    wb_data = requests.get(url,headers=header1)
    Soup = BeautifulSoup(wb_data.text,'lxml')
    links = Soup.select('#infolist > div.infocon > table > tbody > tr > td.img > a')
    if data == None:
        for link in links:
            single_link = link.get('href')
            info_list.append(single_link)


get_links(url)
for link in info_list:
    get_page(link)
    time.sleep(1)

爬取的效果图如下所示:


result.png

还算比较简单的。

为了联系下如何查看个人正常商品的浏览量,找到了一个正常的网站做了测试,快照如下:

网页快照.png

代码如下:

#!/usr/bin/env python
# coding:utf-8

__author__ = 'lucky'

from bs4 import BeautifulSoup
import requests
import time

url = "http://bj.58.com/pingbandiannao/26125016613569x.shtml"

def get_view(url):

    #把link中的数字提取出来
    id = url.split('/')[-1].strip('x.shtml')
    api = 'http://jst1.58.com/counter?infoid={}'.format(id)
    # 一开始爬58的浏览量view始终等于0,把headers全添加进去才OK,网站应该做了反爬虫升级.
    #从chrome的Sources和Network中查询
    headers = {
    'Accept':'*/*',
    'Accept-Encoding':'gzip, deflate, sdch',
    'Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.6,en;q=0.4',
    'Cache-Control':'max-age=0',
    'Connection':'keep-alive',
    'Cookie':r'bj58_id58s="R3kzdjNnK0cyY1hVOTM1MQ=="; id58=c5/njVd1S1Vxil1/BAOQAg==; 58home=sy; ipcity=sy%7C%u6C88%u9633; als=0; myfeet_tooltip=end; 58tj_uuid=ad884df7-493a-4788-86d8-1aa0d8110340; new_session=0; new_uv=3; utm_source=; spm=; init_refer=; final_history={}; bj58_new_session=0; bj58_init_refer=""; bj58_new_uv=3'.format(id),
    'Host':'jst1.58.com',
    'Referer':r'http://bj.58.com/pingbandiannao/26125016613569x.shtml',
    'User-Agent':r'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36'}
    js = requests.get(api,headers=headers)
    view = js.text.split('=')[-1]
    return view

def get_page(url,data=None):
    wb_data = requests.get(url)
    Soup = BeautifulSoup(wb_data.text,'lxml')
    title = Soup.select('div.col_sub.mainTitle > h1')
    price = Soup.select('span.price.c_f50')
    area = Soup.select('span.c_25d')
    date = Soup.select('li.time')
    data ={
        'title':title[0].text,
        'price':price[0].text,
        'date':date[0].text,
        'area':list(area[0].stripped_strings),
        'view':get_view(url)
    }
    print(data)

get_page(url)

难点在58同城的如何应对反爬取。这里通过查询了chrome浏览器的Source和Network,找到了相应的链接,添加了相关的headers,后来实现了抓取浏览量

view.png

总结:

  • 1.通过练习更好的掌握了网页元素的位置的抓取。
  • 2.对如何使用chrome来查找网页信息有了深入的了解学习。
  • 3.面对一些常见的反爬虫技术,可以找到解决方法,完成网页信息的爬取。
  • 4.遇到不会的问题先思考,google来寻找解决方法。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 160,165评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,720评论 1 298
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,849评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,245评论 0 213
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,596评论 3 288
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,747评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,977评论 2 315
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,708评论 0 204
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,448评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,657评论 2 249
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,141评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,493评论 3 258
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,153评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,108评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,890评论 0 198
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,799评论 2 277
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,685评论 2 272

推荐阅读更多精彩内容

  • 学习爬虫一周后独立完成的第一个作业项目:爬取58同城平板电脑数据。 1、首先确定URL,并抓取详情页中需要的信息 ...
    fly_me阅读 890评论 0 1
  • 爬虫文章 in 简书程序员专题: like:128-Python 爬取落网音乐 like:127-【图文详解】py...
    喜欢吃栗子阅读 21,634评论 4 412
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 170,577评论 25 707
  • 问答题47 /72 常见浏览器兼容性问题与解决方案? 参考答案 (1)浏览器兼容问题一:不同浏览器的标签默认的外补...
    _Yfling阅读 13,630评论 1 92
  • 她追了他一年 口渴送水 饿了送饭 生病送药 为他做作业为他做值日 能做的几乎都做了 换来的却是他的冷嘲热讽 只因为...
    谦纸鹤水中游阅读 147评论 0 0