首页 文章详情

实战讲解四种不同爬虫解析数据方法,必须掌握!

Python绿色通道 | 464 2021-03-27 08:46 0 0 0
UniSMS (合一短信)

↑ 关注 + 星标 ,每天学Python新技能

后台回复【大礼包】送你Python自学大礼包


1

前言


爬虫解析数据有很多种,爬取不同的数据,返回的数据类型不一样,有htmljsonxml文本字符串)等多种格式!


掌握这四种解析数据的方式,无论什么样的数据格式都可以轻松应对处理。


这四种方式分别是:1.xpath2.bs43.json4.正则。


下面以实战方式讲解这四种技术如何使用!!!



2

Xpath

1.请求数据

请求链接如下,以小说网站:新笔趣阁,为案例进行讲解

http://www.xbiquge.la/xuanhuanxiaoshuo/


导入相应的库

import requests
from lxml import etree


开始请求数据

headers = {
            'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36',
        }
url="http://www.xbiquge.la/xuanhuanxiaoshuo/"
res = requests.get(url,headers=headers)
res.encoding = 'utf-8'
text = res.text


2.解析数据

比如我们要获取下面这些数据(小说名称)



分析网页标签



数据在class="l"-> ul ->li标签中


selector = etree.HTML(text)
list = selector.xpath('//*[@class="l"]/ul/li')


解析li中数据



可以看到,数据在li->span->a 标签中


for i in list:
    title = i.xpath('.//span/a/text()')
    href = i.xpath('.//span/a/@href')
    print(title)
    print(href)
    print("--------")




3

Bs4

1.请求数据

请求链接如下,同样以小说网站:新笔趣阁,为案例进行讲解

http://www.xbiquge.la/xuanhuanxiaoshuo/


导入相应的库

import requests
from bs4 import BeautifulSoup


开始请求数据

headers = {
            'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36',
        }
url="http://www.xbiquge.la/xuanhuanxiaoshuo/"
res = requests.get(url,headers=headers)
res.encoding = 'utf-8'
text = res.text


2.解析数据

比如我们要获取下面这些数据(小说名称)



分析网页标签



可以看到,数据在span中(class="s2") 标签中


法一

###法一
list = soup.find_all(attrs={'class':'s2'})
for i in list:
    print(i.a.get_text())
    print(i.a.get("href"))
    print("--------")
print(len(list))


法二


####法二
# 获取所有的链接
all_link = [(link.a['href'], link.a.get_text()) for link in soup.find_all('li')]
for i in all_link:
   print(i)




4

json

1.请求数据

请求链接如下,获取ip定位,为案例进行讲解

https://restapi.amap.com/v3/ip?key=0113a13c88697dcea6a445584d535837&ip=123.123.123.123


导入相应的库

import requests
import json


开始请求数据

ip = "123.123.123.123"
url="https://restapi.amap.com/v3/ip?key=0113a13c88697dcea6a445584d535837&ip="+str(ip)
res = requests.get(url,headers=headers)
res.encoding = 'utf-8'
text = res.text



2.解析数据

比如我们要获取下面这些数据(省份和城市

text = res.text
print(text)
##text不是json类型的话,则转为json类型
text = json.loads(text)
print("省份="+text['province']+",城市="+text['city'])




5

正则表达式

1.请求数据

请求链接如下,以小说网站:新笔趣阁,为案例进行讲解

http://www.xbiquge.la/xuanhuanxiaoshuo/


导入相应的库

import requests
import re


开始请求数据

headers = {
            'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36',
        }
url="http://www.xbiquge.la/xuanhuanxiaoshuo/"
res = requests.get(url,headers=headers)
res.encoding = 'utf-8'
text = res.text


2.解析数据

比如我们要获取下面这些数据(小说名称)



分析网页html



可以看到,数据在li->span->a 标签中,a标签前有,后有“


pattern = re.compile('《.*?》')
items = re.findall(pattern, text)

for i in items:
    print(i)




6

总结

1.以实战方式讲解了四种不同解析数据的方式


2.讲解过程一步一步截图说明,方便小白入门学习!


3.本文干货满满,推荐收藏!收藏!收藏!




如果大家对本文代码源码感兴趣,点击下方公众号名片关注后,回复:四种解析 ,获取完整代码!



——END——


Python自学超级硬核资料


Ps:这里都是视频学习资料,基础不好或者零基础的同学比较适合

最后送大家一份Python学习大礼包,从Python基础,爬虫,数据分析Web开发等全套资料,吃透资料,你可以扔掉其他资料,这些资料都是视频,学起来非常友好。




扫码加微信后备注「Python新手」方便我给你发送资料,另外「Python绿色通道」专属学习群已正式成立,想进群也可扫上方二维码。


推荐阅读


  1. 京东37岁程序员在工位猝死?官方回应了

  2. Windows有救了!这款免费工具终于来了

  3. 315曝光人脸识别?程序员可以这样避免信息泄露

  4. 漫画:为什么程序猿 996 会猝死,而企业家 007 却不会?

  5. 腾讯商业数据分析师培养计划!

  6. 知乎高赞:拼多多和国家电网,选哪个?

  7. 最新!字节跳动再次扩招1000人,招聘要求令人窒息


看完记得关注@Python绿色通道
及时收看更多好文
↓↓↓




点个在看你最好看


good-icon 0
favorite-icon 0
收藏
回复数量: 0
    暂无评论~~
    Ctrl+Enter