一篇文章教会你利用Python网络爬虫获取分类图片
【四、涉及的库和网站】
1、网址如下:
https://www.doutula.com/photo/list/?page={}
2、涉及的库:requests、lxml、fake_useragent、time、os
3、软件:PyCharm
【五、项目实施】
1、我们定义一个class类继承object,然后定义init方法继承self,再定义一个主函数main继承self。导入需要的库和网址,创建保存文件夹。import requests, osfrom lxml import etreefrom fake_useragent import UserAgentimport timeclass bnotiank(object): def __init__(self): os.mkdir("图片") # 在创建文件夹 记住只有第一次运行加上,如果多次运行请注释掉本行。 def main(self): passif __name__ == '__main__': Siper=bnotiank() Siper.main()
2、随机UserAgent ,构造请求头,防止反爬。 ua = UserAgent(verify_ssl=False) for i in range(1, 50): self.headers = { 'User-Agent': ua.random }
3、发送请求 ,获取响应,页面回调,方便下次请求。 '''发送请求 获取响应''' def get_page(self, url): res = requests.get(url=url, headers=self.headers) html = res.content.decode("utf-8") return html
4、定义parse_page函数,获取二级页面地址,for遍历获取需要的字段。
def parse_page(self, html): parse_html = etree.HTML(html) image_src_list = parse_html.xpath('//p/a/@href') # print(image_src_list)
5、对二级页面发生请求,xpath解析数据,获取大图片链接。
reo = parse_html1.xpath('//div//div[@class="content"]') #父结点 for j in reo: d = j.xpath('.//article[@class="article-content"]//p/img/@src')[0] text = parse_html1.xpath('//h1[@class ="article-title"] //a/text()')[0].strip()
6、请求图片地址,写入文档。
html2 = requests.get(url=d, headers=self.headers).content dirname = "./d/" + text + ".jpg" #定义图命名 with open(dirname, 'wb') as f: f.write(html2) print("%s 【下载成功!!!!】" % text)
7、调用方法,实现功能。 url = self.url.format(page) print(url) html = self.get_page(url) self.parse_page(html)
8、设置延时。(防止ip被封)。
time.sleep(1) """时间延时"""
【六、效果展示】
1、点击绿色小三角运行输入起始页,终止页。
2、将下载成功信息显示在控制台。
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论