首页 文章详情

python爬虫基础之urllib的使用

python教程 | 649 2021-01-07 18:23 0 0 0
UniSMS (合一短信)

这篇文章主要介绍了python爬虫基础之urllib的使用,帮助大家更好的理解和使用python,感兴趣的朋友可以了解下

一、urllib 和 urllib2的关系

在python2中,主要使用urllib和urllib2,而python3对urllib和urllib2进行了重构,拆分成了urllib.request, urllib.parse, urllib.error,urllib.robotparser等几个子模块,这样的架构从逻辑和结构上说更加合理。urllib库无需安装,python3自带。python 3.x中将urllib库和urilib2库合并成了urllib库。

    urllib2.urlopen() 变成了 urllib.request.urlopen()
    urllib2.Request() 变成了 urllib.request.Request()
    python2中的 cookielib 改为 http.cookiejar.
    import http.cookiejar 代替  import cookielib
    urljoin 现在对应的函数是 urllib.parse.urljoin

二、python3下的urllib库

  • request,它是最基本的 HTTP 请求模块,我们可以用它来模拟发送一请求,只需要给库方法传入 URL 还有额外的参数,就可以模拟实现这个过程了。

  • error ,即异常处理模块,如果出现请求错误,我们可以捕获这些异常,然后进行重试或其他操作保证程序不会意外终止。

  • parse ,是一个工具模块,提供了许多 URL 处理方法,比如拆分、解析、合并等等的方法。

  • robotparser,主要是用来识别网站的 robots.txt 文件,然后判断哪些网站可以爬,哪些网站不可以爬的,其实用的比较少。

三、request的基础类

(一)request.urlopen

urlopen方法最主要的参数就是目标网站的url地址,可以使str类型,也可以是一个request对象。

get方法请求如下:

  1. from urllib import request,parse

  2. respones = request.urlopen(http://www.baidu.com/)

post方法请求,需要添加data参数(字典格式),它要是字节流编码格式的内容,即 bytes 类型,通过 bytes() 方法可以进行转化,另外如果传递了这个 data 参数,不添加data参数就默认为 GET 方式请求。

  1. from urllib import request,parse

  2. url = "http://www.baidu.com/"

  3. wd = {'wd':'哇哈哈哈'}

  4. data = bytes(parse.urlencode(wd),'utf-8')

  5. respones = request.urlopen(url,data=data)

(二)request.Request

由于单独使用urlopen() 方法的不能添加User-Agent、Cookie等headers信息,需要构建一个 Request 类型的对象,通过构造这个这个数据结构,一方面我们可以将请求独立成一个对象,另一方面可配置参数更加丰富和灵活。主要参数有:

  • url 参数是请求 URL,这个是必传参数,其他的都是可选参数。

  • data 参数如果要传必须传 bytes(字节流)类型的,如果是一个字典,可以先用 urllib.parse 模块里的 urlencode() 编码。

  • headers 参数是一个字典,这个就是 Request Headers 了,你可以在构造 Request 时通过 headers 参数直接构造,也可以通过调用 Request 实例的 add_header() 方法来添加, Request Headers 最常用的用法就是通过修改 User-Agent 来伪装浏览器,默认的 User-Agent 是 Python-urllib,我们可以通过修改它来伪装浏览器。

  • origin_req_host 参数指的是请求方的 host 名称或者 IP 地址。

  • unverifiable 参数指的是这个请求是否是无法验证的,默认是False。意思就是说用户没有足够权限来选择接收这个请求的结果。例如我们请求一个 HTML 文档中的图片,但是我们没有自动抓取图像的权限,这时 unverifiable 的值就是 True。

  • method 参数是一个字符串,它用来指示请求使用的方法,比如GET,POST,PUT等等。

通过随机的方法,选择user-agent:

  1. import randomUA_LIST = [

  2. 'Mozilla/5.0 (compatible; U; ABrowse 0.6; Syllable) AppleWebKit/420+ (KHTML, like Gecko)',

  3. 'Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; Acoo Browser 1.98.744; .NET CLR 3.5.30729)',

  4. 'Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; Acoo Browser 1.98.744; .NET CLR 3.5.30729)',

  5. 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; Acoo Browser; GTB5; Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1) ; InfoPath.1; .NET CLR 3.5.30729; .NET CLR 3.0.30618)',

  6. 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; SV1; Acoo Browser; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729; Avant Browser)',

  7. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)',

  8. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; GTB5; Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1) ; Maxthon; InfoPath.1; .NET CLR 3.5.30729; .NET CLR 3.0.30618)',

  9. 'Mozilla/4.0 (compatible; Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; Acoo Browser 1.98.744; .NET CLR 3.5.30729); Windows NT 5.1; Trident/4.0)',

  10. 'Mozilla/4.0 (compatible; Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; GTB6; Acoo Browser; .NET CLR 1.1.4322; .NET CLR 2.0.50727); Windows NT 5.1; Trident/4.0; Maxthon; .NET CLR 2.0.50727; .NET CLR 1.1.4322; InfoPath.2)',

  11. 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; Acoo Browser; GTB6; Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1) ; InfoPath.1; .NET CLR 3.5.30729; .NET CLR 3.0.30618)'

  12. ]

  13.  

  14. #随机获取一个user-agent

  15. user_agent = random.choice(UA_LIST)

添加headers头部信息的方法1:

  1. url='http://www.baidu.com/'user_agent = random.choice(UA_LIST)

  2. headers = {

  3. 'User-Agent': user_agent

  4. }

  5. req = request.Request(url=url,headers=headers)

  6. respones = request.urlopen(req)

添加headers头部信息的方法2:

  1. url='http://www.baidu.com'

  2. headers = {

  3. 'User-Agent': user_agent

  4. }

  5. #添加user-agent的方法2

  6. req = request.Request(url)

  7. #请求添加user-agent

  8. req.add_header("User-Agent",user_agent)

  9. #获取请求的user-agent agent的a要小写

  10. print(req.get_header("User-agent"))

  11. response = request.urlopen(req)print(respones.read().decode('utf-8'))

三、request的高级类

在urllib.request模块里的BaseHandler类,他是所有其他Handler的父类,他是一个处理器,比如用它来处理登录验证,处理cookies,代理设置,重定向等。它提供了直接使用和派生类使用的方法:

  • add_parent(director):添加director作为父类

  • close():关闭它的父类

  • parent():打开使用不同的协议或处理错误

  • defautl_open(req):捕获所有的URL及子类,在协议打开之前调用

Handler的子类包括:

HTTPDefaultErrorHandler:用来处理http响应错误,错误会抛出HTTPError类的异常
HTTPRedirectHandler:用于处理重定向
HTTPCookieProcessor:用于处理cookies
ProxyHandler:用于设置代理,默认代理为空
HTTPPasswordMgr:永远管理密码,它维护用户名和密码表
HTTPBasicAuthHandler:用户管理认证,如果一个链接打开时需要认证,可以使用它来实现验证功能

(一)ProxyHandler

如果爬虫需要大量爬取网站数据,为了避免被封号,需要使用代理,通过request.build_opener()方法生成一个opener对象,添加代理的方法如下:

  1. from urllib import request

  2.  

  3. #代理开关,表示是否开启代理

  4. proxyswitch =True

  5.  

  6. #构建一个handler处理器对象,参数是一个字典类型,包括代理类型和代理服务器IP+PORT

  7. proxyhandler = request.ProxyHandler({"http":"191.96.42.80:3128"})

  8. #如果是带用户名和密码的代理,格式为{"http":"username:passwd@191.96.42.80:3128"}

  9.  

  10. #不加代理的handler处理器对象

  11. nullproxyhandler = request.ProxyHandler()

  12.  

  13. if proxyswitch:

  14. opener = request.build_opener(proxyhandler)

  15. else:

  16. opener = request.build_opener(nullproxyhandler)

  17.  

  18. req = request.Request("http://www.baidu.com/")

  19.  

  20. response = opener.open(req)

  21.  

  22. print(response.read().decode("utf-8"))

(二)ProxyBasicAuthHandler

通过密码管理器的方法实现代理服务器功能

  1. from urllib import request

  2. #代理密码管理,也可以管理服务器账户密码

  3.  

  4. #账户密码

  5. user = "username"

  6. passwd = "passwd"

  7.  

  8. #代理服务器

  9. proxyserver = "1.1.1.1:9999"

  10.  

  11. #构建密码管理对象,保存需要处理的用户名和密码

  12. passmgr = request.HTTPPasswordMgrWithDefaultRealm()

  13.  

  14. #添加账户信息,第一个参数realm是与远程服务器相关的域信息

  15. passmgr.add_password(None,proxyserver,user,passwd)

  16.  

  17. #构建基础ProxyBasicAuthHandler处理器对象

  18. proxyauth_handler = request.ProxyBasicAuthHandler(passmgr)

  19.  

  20. opener = request.build_opener(proxyauth_handler)

  21.  

  22. req = request.Request("http://www.baidu.com/")

  23.  

  24. response = opener.open(req)

(三)ProxyBasicAuthHandler

通过密码管理器的方法实现web认证登陆功能

  1. #web验证

  2. from urllib import request

  3.  

  4. test = "test"

  5. passwd = "123456"

  6.  

  7. webserver = "1.1.1.1"

  8.  

  9. #构建密码管理器handler

  10. passwdmgr = request.HTTPPasswordMgrWithDefaultRealm()

  11. #添加密码信息

  12. passwdmgr.add_password(None,webserver,test,passwd)

  13.  

  14. #HTTP基础验证处理器类

  15. http_authhandler = request.HTTPBasicAuthHandler(passwdmgr)

  16.  

  17. opener = request.build_opener(http_authhandler)

  18.  

  19. req = request.Request("http://"+webserver)

  20.  

  21. response = opener.open(req)

四、Cookie处理

 通过http.cookiejar中的HTTPCookieProcessor构建cookie处理器对象,处理cookie信息

  1. import http.cookiejar

  2. from urllib import request,parse

  3. #模拟登陆先post账户密码

  4. #然后保存生成的cookie

  5.  

  6. #通过CookieJar类构件一个coociejar对象,从来保存cookie值

  7. cookie = http.cookiejar.CookieJar()

  8.  

  9. #构件cookie处理器对象,用来处理cookie

  10. cookie_handler = request.HTTPCookieProcessor(cookie)

  11.  

  12. #构件一个自定义的opener

  13. opener = request.build_opener(cookie_handler)

  14.  

  15. #通过自定义的opener的addheaders参数,可以添加HTTP报头参数

  16. opener.addheaders = [("User-Agent","Mozilla/5.0 (compatible; U; ABrowse 0.6; Syllable) AppleWebKit/420+ (KHTML, like Gecko)"),]

  17.  

  18. #需要登陆的接口

  19. url = 'http://www.renren.com/PLogin.do'

  20.  

  21. #需要登陆的账户密码

  22. data = {

  23. "email":"renren账号",

  24. "password":"密码"

  25. }

  26. #数据处理

  27. data = bytes(parse.urlencode(data),'utf-8')

  28. #第一次是POST请求,通过登陆账户密码,得到cookie

  29. req = request.Request(url,data=data)

  30. #发送第一次POST请求,生成登陆后的cookie

  31. response = opener.open(req)

  32.  

  33. print(response.read().decode("utf-8"))

  34.  

  35. #此时的opener已经包含了该链接下的cookie,此时使用该opener就可以直接访问该站点下其他的网页而不需要再登陆了

  36. opener.open(http://www.renren.com/PLogin.doxxxxxxxxxxxxx)

以上就是python爬虫基础之urllib的使用的详细内容

  1. 欢迎大家点赞,留言,转发,转载,感谢大家的相伴与支持

    万水千山总是情,点个【在看】行不行

  2. *声明:本文于网络整理,版权归原作者所有,如来源信息有误或侵犯权益,请联系我们删除或授权事

good-icon 0
favorite-icon 0
收藏
回复数量: 0
    暂无评论~~
    Ctrl+Enter