小猪的Python学习之旅 —— 5.使用Selenium抓取JavaScript动态生成数据的网页


引言

之前抓的妹子图都是直接抓Html就可以的,就是Chrome的浏览器F12的
Elements页面结构和Network抓包返回一样的结果。后面在抓取一些
网站(比如煎蛋,还有那种小网站的时候)就发现了,Network那里抓包
获取的数据没有,而Elements却有的情况,原因就是:页面的数据是
通过JavaScript来动态生成的:

抓不到数据怎么破,一开始我还想着自学一波JS基本语法,再去模拟抓包
拿到别人的JS文件,自己再去分析逻辑,然后捣鼓出真正的URL,后来还是
放弃了,毕竟要抓的页面那么多,每个这样分析分析到什么时候...

后面意外发现有个自动化测试框架Selenium 可以帮我们应对这个问题。
简单说下这个东西有什么用吧,我们可以编写代码让浏览器

  • 1.自动加载网页;
  • 2.模拟表单提交(比如模拟登录),获取需要的数据;
  • 3.页面截屏;
  • 4.判断网页某些动作是否发生,等等。

然后这个东西是不支持浏览器功能的,你需要和第三方的浏览器一起搭配使用,
支持下述浏览器,需要把对应的浏览器驱动下载到Python的对应路径下:

Chromehttps://sites.google.com/a/chromium.org/chromedriver/home
FireFoxhttps://github.com/mozilla/geckodriver/releases
PhantomJShttp://phantomjs.org/
IEhttp://selenium-release.storage.googleapis.com/index.html
Edgehttps://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/
Operahttps://github.com/operasoftware/operachromiumdriver/releases

直接开始本节的内容吧~


1.安装Selenium

这个就很简单了,直接通过pip命令行进行安装:

sudo pip install selenium

PS:想起之前公司小伙伴问过我pip在win上怎么执行不了,又另外下了很多pip,
其实如果你安装了Python3的话,已经默认带有pip了,你需要另外配置下环境
变量,pip的路径在Python安装目录的Scripts目录下~

Path后面加上这个路径就好~


2.下载浏览器驱动

因为Selenium是不带浏览器的,所以需要依赖第三方的浏览器,要调用第三方
的浏览器的话,需要下载浏览器的驱动,因为笔者用到是Chrome,这里就以
Chrome为例子吧,其他浏览器的自行搜索相关资料了!打开Chrome浏览器,键入:

chrome://version

可以查看Chrome浏览器版本的相关信息,这里主要是关注版本号就行了:

61,好的,接下来到下面的这个网站查看对应的驱动版本号:

https://chromedriver.storage.googleapis.com/2.34/notes.txt

好的,那就下载v2.34版本的浏览器驱动吧:

https://chromedriver.storage.googleapis.com/index.html?path=2.34/

下载完成后,把zip文件解压下,解压后的chromedriver.exe拷贝到Python
的Scripts目录下。(这里不用纠结win32,在64位的浏览器上也是可以正常使用的!)

PS:Mac的话把解压后的文件拷贝到usr/local/bin目录下
Ubuntu的话拷贝到:usr/bin目录下

接下来我们写个简单的代码来测试下:

from selenium import webdriver

browser = webdriver.Chrome()  # 调用本地的Chrome浏览器
browser.get('http://www.baidu.com')  # 请求页面,会打开一个浏览器窗口
html_text = browser.page_source  # 获得页面代码
browser.quit()  # 关闭浏览器
print(html_text)

执行这段代码,会自动调起浏览器,并且访问百度:

并且控制台会输出HTML的代码,就是直接获取的Elements页面结构
JS执行完后的页面接下来我们就可以来抓我们的煎蛋妹子图啦


3.Selenium 简单实战:抓取煎蛋妹子图

直接分析Elements页面结构,找到想要的关键结点:

明显这就是我们抓取的小姐姐图片,复制下这个URL,看下我们打印出的
页面结构有没有这个东西:

可以,很棒,有这个页面数据,接下来就走一波Beautiful Soup获取到我们
想要的数据啦~

经过上面的过滤就能够拿到我们的妹子图片URL:

随手打开一个验证下,啧啧:

    

看了下一页只有30个小姐姐,这显然是满足不了我们的,我们在第一次加载
的时候先拿到一波页码,然后就知道有多少页了,然后自己再去拼接URL加载
不同的页面,比如这里总共又448页:

拼接成这样的URL即可:http://jandan.net/ooxx/page-448
过滤下拿到页码:

接下来就把代码补齐咯,循环抓取每一页的小姐姐,然后下载到本地,
完整代码如下:

import os
from selenium import webdriver
from bs4 import BeautifulSoup
import urllib.request
import ssl
import urllib.error

base_url = 'http://jandan.net/ooxx'
pic_save_path = "output/Picture/JianDan/"


# 下载图片
def download_pic(url):
    correct_url = url
    if url.startswith('//'):
        correct_url = url[2:]
    if not url.startswith('http'):
        correct_url = 'http://' + correct_url
    print(correct_url)
    headers = {
        'Host': 'wx2.sinaimg.cn',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                      'Chrome/61.0.3163.100 Safari/537.36 '
    }
    try:
        req = urllib.request.Request(correct_url, headers=headers)
        resp = urllib.request.urlopen(req)
        pic = resp.read()
        pic_name = correct_url.split("/")[-1]
        with open(pic_save_path + pic_name, "wb+") as f:
            f.write(pic)
    except (OSError, urllib.error.HTTPError, urllib.error.URLError, Exception) as reason:
        print(str(reason))


# 打开浏览器模拟请求
def browser_get():
    browser = webdriver.Chrome()
    browser.get('http://jandan.net/ooxx')
    html_text = browser.page_source
    page_count = get_page_count(html_text)
    # 循环拼接URL访问
    for page in range(page_count, 0, -1):
        page_url = base_url + '/page-' + str(page)
        print('解析:' + page_url)
        browser.get(page_url)
        html = browser.page_source
        get_meizi_url(html)
    browser.quit()


# 获取总页码
def get_page_count(html):
    soup = BeautifulSoup(html, 'html.parser')
    page_count = soup.find('span', attrs={'class': 'current-comment-page'})
    return int(page_count.get_text()[1:-1]) - 1


# 获取每个页面的小姐姐
def get_meizi_url(html):
    soup = BeautifulSoup(html, 'html.parser')
    ol = soup.find('ol', attrs={'class': 'commentlist'})
    href = ol.findAll('a', attrs={'class': 'view_img_link'})
    for a in href:
        download_pic(a['href'])


if __name__ == '__main__':
    ssl._create_default_https_context = ssl._create_unverified_context
    if not os.path.exists(pic_save_path):
        os.makedirs(pic_save_path)
    browser_get()

运行结果

看下我们输出文件夹~

学习Python爬虫,日渐消瘦...


4.PhantomJS

PhantomJS没有界面的浏览器,特点:会把网站加载到内存并执行页面上的
JavaScript,因为不会展示图形界面,所以运行起来比完整的浏览器要高效
(在一些Linux的主机上没有图形化界面,就不能装Chrome这类浏览器了,
可以通过PhantomJS来规避这个问题)。

Win上安装PhantomJS

  • 1.官网下载http://phantomjs.org/download.html 压缩包;
  • 2.解压:phantomjs-2.1.1-windows.zip 放到自己想放的位置;
  • 3.配置环境变量目录/bin 比如我的:
  • 4.打开cmd,键入:phantomjs --version 验证是否配置成功;

Ubuntu/MAC上安装PhantomJS

sudo apt-get install phantomjs

!!!关于PhantomJS的重要说明

在今年的四月份,Phantom.js的维护者(Maintainer)宣布退出PhantomJS,
意味着这个项目项目可能不会再进行维护了!!!Chrome和FireFox也开始
提供Headless模式(无需吊起浏览器),所以,估计使用PhantomJS的小伙伴
也会慢慢迁移到这两个浏览器上。Windows Chrome需要60以上的版本才支持
Headless模式,启用Headless模式也非常简单:

selenium官方文档也写了:

运行的时候也会报这个警告:


5.Selenium实战:模拟登录CSDN,并保存Cookie

CSDN登录网站https://passport.csdn.net/account/login

分析下页面结构,不难找到对应的登录输入框,以及登录按钮:

我们要做的就是在这两个结点输入账号密码,然后触发登录按钮,
同时把Cookie保存到本地,后面就可以带着Cookie去访问相关页面了~

先编写模拟登录的方法吧:

找到输入账号密码的节点,设置下自己的账号密码,然后找到登录
按钮节点,click一下,然后坐等登录成功,登录成功后可以比较
current_url是否发生了改变。然后把Cookies给保存下来,这里
我用的是pickle库,可以用其他,比如json,或者字符串拼接,
然后保存到本地。如无意外应该是能拿到Cookie的,接着就利用
Cookie去访问主页。

通过add_cookies方法来设置Cookie,参数是字典类型的,另外要先
访问get一次链接,再去设置cookie,不然会报无法设置cookie的错误!

看下右下角是否变为登录状态就可以知道是否使用Cookie登录成功了:


6.Selenium 常用函数

Seleninum作为自动化测试的工具,自然是提供了很多自动化操作的函数,
下面列举下个人觉得比较常用的函数,更多可见官方文档:
官方API文档http://seleniumhq.github.io/selenium/docs/api/py/api.html

1) 定位元素

  • find_element_by_class_name:根据class定位
  • find_element_by_css_selector:根据css定位
  • find_element_by_id:根据id定位
  • find_element_by_link_text:根据链接的文本来定位
  • find_element_by_name:根据节点名定位
  • find_element_by_partial_link_text:根据链接的文本来定位,只要包含在整个文本中即可
  • find_element_by_tag_name:通过tag定位
  • find_element_by_xpath:使用Xpath进行定位

PS:把element改为elements会定位所有符合条件的元素,返回一个List
比如:find_elements_by_class_name

2) 鼠标动作

有时需要在页面上模拟鼠标操作,比如:单击,双击,右键,按住,拖拽等
可以导入ActionChains类:selenium.webdriver.common.action_chains.ActionChains
使用ActionChains(driver).XXX调用对应节点的行为

  • click(element):单击某个节点;
  • click_and_hold(element):单击某个节点并按住不放;
  • context_click(element):右键单击某个节点;
  • double_click(element):双击某个节点;
  • drag_and_drop(source,target):按住某个节点拖拽到另一个节点;
  • drag_and_drop_by_offset(source, xoffset, yoffset):按住节点按偏移拖拽
  • key_down:按下特殊键,只能用(Control, Alt and Shift),比如Ctrl+C
    ActionChains(driver).key_down(Keys.CONTROL).send_keys('c').key_up(Keys.CONTROL).perform();
  • key_up:释放特殊键;
  • move_by_offset(xoffset, yoffset):按偏移移动鼠标;
  • move_to_element(element):鼠标移动到某个节点的位置;
  • move_to_element_with_offset(element, xoffset, yoffset):鼠标移到某个节点并偏移;
  • pause(second):暂停所有的输入多少秒;
  • perform():执行操作,可以设置多个操作,调用perform()才会执行;
  • release():释放鼠标按钮
  • reset_actions:重置操作
  • send_keys(keys_to_send):模拟按键,比如输入框节点.send_keys(Keys.CONTROL,'a')
    全选输入框内容,输入框节点.send_keys(Keys.CONTROL,'x')剪切,模拟回退:
    节点.send_keys(keys.RETURN);或者直接设置输入框内容:输入框节点.send_keys('xxx');
  • *send_keys_to_element(element, keys_to_send):和send_keys类似;

3) 弹窗

对应类:selenium.webdriver.common.alert.Alert,感觉应该用得不多...

如果你触发了某个时间,弹出了对话框,可以调用下述方法获得对话框:
alert = driver.switch_to_alert(),然后可以调用下述方法:

  • accept():确定
  • dismiss():关闭对话框
  • send_keys():传入值
  • text():获得对话框文本

4)页面前进,后退,切换

切换窗口: driver.switch_to.window("窗口名")
或者通过window_handles来遍历
for handle in driver.window_handles:
      driver.switch_to_window(handle)
driver.forward() #前进
driver.back() # 后退


5) 页面截图

driver.save_screenshot("截图.png")


6) 页面等待

现在的网页越来越多采用了 Ajax技术,这样程序便不能确定何时某个元素完全
加载出来了。如果实际页面等待时间过长导致某个dom元素还没出来,但是你的
代码直接使用了这个WebElement,那么就会抛出NullPointer的异常。

为了避免这种元素定位困难而且会提高产生 ElementNotVisibleException的概率。
所以 Selenium 提供了两种等待方式,一种是隐式等待,一种是显式等待

显式等待

显式等待指定某个条件,然后设置最长等待时间。如果在这个时间还没有
找到元素,那么便会抛出异常了。

from selenium import webdriver
from selenium.webdriver.common.by import By
# WebDriverWait 库,负责循环等待
from selenium.webdriver.support.ui import WebDriverWait
# expected_conditions 类,负责条件出发
from selenium.webdriver.support import expected_conditions as EC

driver = webdriver.PhantomJS()
driver.get("http://www.xxxxx.com/loading")
try:
    # 每隔10秒查找页面元素 id="myDynamicElement",直到出现则返回
    element = WebDriverWait(driver, 10).until(
        EC.presence_of_element_located((By.ID, "myDynamicElement"))
    )
finally:
    driver.quit()

如果不写参数,程序默认会 0.5s 调用一次来查看元素是否已经生成,
如果本来元素就是存在的,那么会立即返回。

下面是一些内置的等待条件,你可以直接调用这些条件,而不用自己
写某些等待条件了。

title_is
title_contains
presence_of_element_located
visibility_of_element_located
visibility_of
presence_of_all_elements_located
text_to_be_present_in_element
text_to_be_present_in_element_value
frame_to_be_available_and_switch_to_it
invisibility_of_element_located
element_to_be_clickable – it is Displayed and Enabled.
staleness_of
element_to_be_selected
element_located_to_be_selected
element_selection_state_to_be
element_located_selection_state_to_be
alert_is_present

隐式等待

隐式等待比较简单,就是简单地设置一个等待时间,单位为秒。

from selenium import webdriver

driver = webdriver.PhantomJS()
driver.implicitly_wait(10) # seconds
driver.get("http://www.xxxxx.com/loading")
myDynamicElement = driver.find_element_by_id("myDynamicElement")

当然如果不设置,默认等待时间为0。


7.执行JS语句

driver.execute_script(js语句)
比如滚动到底部:
js = document.body.scrollTop=10000
driver.execute_script(js)


小结

本节讲解了一波使用Selenium自动化测试框架来抓取JavaScript动态生成数据,
Selenium需依赖于第三方的浏览器,要注意PhantomJS无界面浏览器过时的
问题,可以使用Chrome和FireFox提供的HeadLess来替换;通过抓取煎蛋妹子
图以及模拟CSDN自动登录的例子来熟悉Selenium的基本使用,还是收货良多的。
当然Selenium的水还是很深的,当前我们能够使用它来应付JS动态加载数据页面
数据的抓取就够了。

另最近天气骤冷,各位小伙伴记得适时添衣~

顺道记录下自己的想到的东西:

  • 1.不是每个网站都是像CSDN一样不需要验证码就能够登录的,验证码还分几代,
    普通的数字模糊下,滑条,而像简书掘金用那种人机检测的是比较新的,目前还
    不知道怎么解决,有知道的小伙伴告诉下呗~
  • 2.像掘金,简书等那种抓取文章,为了反爬虫,需要登录才能查看全文...

本节源码下载

https://github.com/coder-pig/ReptileSomething


本节参考文献


来啊,Py交易啊

想加群一起学习Py的可以加下,智障机器人小Pig,验证信息里包含:
PythonpythonpyPy加群交易屁眼 中的一个关键词即可通过;

验证通过后回复 加群 即可获得加群链接(不要把机器人玩坏了!!!)~~~
欢迎各种像我一样的Py初学者,Py大神加入,一起愉快地交流学♂习,van♂转py。


最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 151,688评论 1 330
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 64,559评论 1 273
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 101,749评论 0 226
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 42,581评论 0 191
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 50,741评论 3 271
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 39,684评论 1 192
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,122评论 2 292
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 29,847评论 0 182
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 33,441评论 0 228
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 29,939评论 2 232
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,333评论 1 242
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 27,783评论 2 236
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,275评论 3 220
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 25,830评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,444评论 0 180
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 34,553评论 2 249
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 34,618评论 2 249

推荐阅读更多精彩内容