python-urllib2(转载)

0.12字数 2220阅读 244

urllib2是Python的一个获取URLs的组件。他以urlopen函数的形式提供了一个非常简单的接口,具有利用不同协议获取URLs的能力,同样提供了一个比较复杂的接口来处理一般情况。

urllib2支持获取不同格式的URLs例如:ftp、Gopher等,并利用它们相关网络协议进行获取。

urllib2可用来完成以下功能:

1.获取Web页面

2.在远程http服务器上验证

3.额外数据请求,如表单提交(GET和POST)

4.异常处理

5.非http协议通信(如FTP)

1.获取Web页面

例1:打印html页面,下面是最简单的形式

#!/usr/bin/env python

importurllib2

response=urllib2.urlopen('http://www.google.com')

html=response.read()

printhtml

例2:打开指定页面并打印html页面和一些额外的信息,采用了urllib2最一般的形式:i、urllib2.Request()的功能是构造一个请求信息,返回的req就是一个构造好的请求。ii、urllib2.urlopen()的功能是发送刚刚构造好的请求req,并返回一个文件类的对象response,包括了所有的返回信息。iii、通过response.read()可以读取到response里面的html,通过response.info()可以读到一些额外的信息。

#!/usr/bin/env python

importsys,urllib2

req=urllib2.Request(sys.argv[1])

response=urllib2.urlopen(req)

print"Retrieved",response.geturl()

info=response.info()

forkey,valueininfo.items():

print"%s = %s"%(key,value)

html=response.read()

printhtml

2.在远程http服务器上验证

有些站点需要http认证后才能访问。最普通的认证类型是基本认证,由客户端向服务器器发送一个用户名和密码。http认证一般显示一个弹出窗口来询问用户名和密码,这与基于cookie和form的认证不同。

下面是一个例子,首先定义了一个扩展urllib2.HTTPPasswordMgr的类,允许在需要的时候询问用户名和密码,然后调用build_opener()指定一些额外处理,其实在urllib2.urlopen()内部调用了build_opener(),并且不带任何参数。所以在访问常规网站的时候urllib2.urlopen()等于opener.open()返回都一样。

#!/usr/bin/env python

importsys,urllib2,getpass

classBasePassword(urllib2.HTTPPasswordMgr):

deffind_user_password(self,realm,authurl):

ret=urllib2.HTTPPasswordMgr.find_user_password(self,realm,authuri)

ifret[0]==Noneandret[1]==None:

sys.stdout.write("Login reauired for %s at %sn"%(realm,authurl))

sys.stdout.write("Username: ")

username=sys.stdin.readline().rstrip()

password=getpass.getpass().rstrip()

return(username,password)

else:

returnret

req=urllib2.Request(sys.argv[1])

opener=urllib2.build_opener(urllib2.HTTPBasicAuthHandler(BasePassword()))

response=opener.open(req)

printresponse.read()

3.表单提交(GET和POST)

有两种方法提交表单数据:GET和POST,取决于HTML文档中标签里面的参数

GET实例:

#!/usr/bin/env python

importsys,urllib2,urllib

keyword=sys.argv[1]

url=url+'?'+urllib.urlencode('http://www.xxx.com',[('query',keyword)])

req=urllib2.Request(url)

response=urllib2.urlopen(req)

printresponse.read()

POST实例:

#!/usr/bin/env python

importsys,urllib2,urllib

keyword=sys.argv[1]

url='http://www.xxx.com'

data=urllib.urlencode([('query',keyword)])

req=urllib2.Request(url)

response=urllib2.urlopen(req,data)

更一般的提交数据,通过urllib2.Request()构造一个有额外数据的请求信息。包括“http

header”和想要发送的数据,这些数据需要被以标准的方式encode,然后作为一个数据参数传送给Request对象。Encoding是在urllib中完成的,而不是在urllib2中完成的。

如下例:

#!/usr/bin/env python

import urllib,urllib2

url='http://www.baidu.com'

user_agent='Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'

values={'name':'Michael Foord','location':'Northampton','language':'Python'}

headers={'User-Agent':user_agent}

data=urllib.urlencode(values)

req=urllib2.Request(url,data,headers)

response=urllib2.urlopen(req)

the_page=response.read()

4.异常处理

捕获连接错误,在和远程Web服务器建立连接时,很多地方可能出现问题:提供的URL不对、URL使用了一个不支持的协议、主机名不存在、访问不到服务器或者服务器针对请求返回一个错误(例如:404)。

任何在连接过程中产生的异常要么是urllib2.URLError的实例,要么是它的一个子类。

#!/usr/bin/env python

import sys,urllib2

req=urllib2.Request(sys.argv[1])

try:

response=urllib2.urlopen(req)

excepturllib2.URLError,e:

print"Error retrieving data:",e

sys.exit(1)

printresponse.read()

5.非http协议通信(如FTP)

urllib2模块也支持非http协议。默认情况下支持http、ftp、gopher和机器本地硬盘上的文件,只是response.info()返回的报头会有所差异。



使用细节

1 Proxy 的设置

urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。如果想在程序中明确控制 Proxy,而不受环境变量的影响,可以使用下面的方式:

import urllib2

enable_proxy=True

proxy_handler=urllib2.ProxyHandler({"http":'http://some-proxy.com:8080'})

null_proxy_handler=urllib2.ProxyHandler({})

ifenable_proxy:

opener=urllib2.build_opener(proxy_handler)

else:

opener=urllib2.build_opener(null_proxy_handler)

urllib2.install_opener(opener)

这里要注意的一个细节,使用 urllib2.install_opener() 会设置

urllib2 的全局 opener。这样后面的使用会很方便,但不能做更细粒度的控制,比如想在程序中使用两个不同的 Proxy

设置等。比较好的做法是不使用 install_opener 去更改全局的设置,而只是直接调用 opener 的 open 方法代替全局的

urlopen 方法。

2 Timeout 设置

在老版本中,urllib2 的 API 并没有暴露 Timeout 的设置,要设置 Timeout 值,只能更改 Socket 的全局 Timeout 值。

importurllib2

importsocket

socket.setdefaulttimeout(10)# 10 秒钟后超时

urllib2.socket.setdefaulttimeout(10)# 另一种方式

在新的 Python 2.6 版本中,超时可以通过 urllib2.urlopen() 的 timeout 参数直接设置。

importurllib2

response=urllib2.urlopen('http://www.google.com',timeout=10)

3 在 HTTP Request 中加入特定的 Header

要加入 Header,需要使用 Request 对象:

importurllib2

request=urllib2.Request(uri)

request.add_header('User-Agent','fake-client')

response=urllib2.urlopen(request)

对有些 header 要特别留意,Server 端会针对这些 header 做检查

User-Agent 有些 Server 或 Proxy 会检查该值,用来判断是否是浏览器发起的 Request

Content-Type 在使用 REST 接口时,Server 会检查该值,用来确定 HTTP Body 中的内容该怎样解析。

常见的取值有:

application/xml :在 XML RPC,如 RESTful/SOAP 调用时使用

application/json :在 JSON RPC 调用时使用

application/x-www-form-urlencoded :浏览器提交 Web 表单时使用

……

在使用 RPC 调用 Server 提供的 RESTful 或 SOAP 服务时, Content-Type 设置错误会导致 Server 拒绝服务。

4 Redirect

urllib2 默认情况下会针对 3xx HTTP 返回码自动进行 Redirect 动作,无需人工配置。要检测是否发生了 Redirect 动作,只要检查一下 Response 的 URL 和 Request 的 URL 是否一致就可以了。

importurllib2

response=urllib2.urlopen('http://www.google.cn')

redirected=response.geturl()=='http://www.google.cn'

如果不想自动 Redirect,除了使用更低层次的 httplib 库之外,还可以使用自定义的 HTTPRedirectHandler 类。

importurllib2

classRedirectHandler(urllib2.HTTPRedirectHandler):

defhttp_error_301(self,req,fp,code,msg,headers):

pass

defhttp_error_302(self,req,fp,code,msg,headers):

pass

opener=urllib2.build_opener(RedirectHandler)

opener.open('http://www.google.cn')

5 Cookie

urllib2 对 Cookie 的处理也是自动的。如果需要得到某个 Cookie 项的值,可以这么做:

importurllib2

importcookielib

cookie=cookielib.CookieJar()

opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))

response=opener.open('http://www.google.com')

foritemincookie:

ifitem.name=='some_cookie_item_name':

printitem.value

6 使用 HTTP 的 PUT 和 DELETE 方法

urllib2 只支持 HTTP 的 GET 和 POST 方法,如果要使用 HTTP PUT 和 DELETE,只能使用比较低层的 httplib 库。虽然如此,我们还是能通过下面的方式,使 urllib2 能够发出 HTTP PUT 或 DELETE

的包:

importurllib2

request=urllib2.Request(uri,data=data)

request.get_method=lambda:'PUT'#or'DELETE'

response=urllib2.urlopen(request)

这种做法虽然属于 Hack 的方式,但实际使用起来也没什么问题。

7 得到 HTTP 的返回码

对于 200 OK 来说,只要使用 urlopen 返回的 response 对象的 getcode() 方法就可以得到 HTTP 的返回码。但对其它返回码来说,urlopen 会抛出异常。这时候,就要检查异常对象的 code 属性了:

importurllib2

try:

response=urllib2.urlopen('http://restrict.web.com')

excepturllib2.HTTPError,e:

printe.code

8 Debug Log

使用 urllib2 时,可以通过下面的方法把 Debug Log 打开,这样收发包的内容就会在屏幕上打印出来,方便我们调试,在一定程度上可以省去抓包的工作。

importurllib2

httpHandler=urllib2.HTTPHandler(debuglevel=1)

httpsHandler=urllib2.HTTPSHandler(debuglevel=1)

opener=urllib2.build_opener(httpHandler,httpsHandler)

urllib2.install_opener(opener)

response=urllib2.urlopen('http://www.google.com')

推荐阅读更多精彩内容