python爬虫智能翻页批量下载文件的实例详解
python爬虫遇到爬取文件内容时,需要一页页的翻页爬取,这样很是麻烦,其实可以获取每个列表信息下的文件名和文件链接,让文件名和文件链接处理为列表,保存后下载,实现智能翻页批量下载文件,本文以以京客隆为例,批量下载文件,如财务资料,他的每一份报告都是一份pdf格式的文档。以此页面为目标,下载他每个分类的文件python爬虫实战之智能翻页批量下载文件。
1、引入库
importrequests importpandasaspd fromlxmlimportetree importre importos
2、解析初始页面
baseUrl='http://www.jkl.com.cn/cn/invest.aspx'#爬取页面的数据
heade={
'user-agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)
Chrome/81.0.4044.92Safari/537.36'
}
res=requests.get(url=baseUrl,headers=heade).text
#print(res.text)
html=etree.HTML(res)
res=requests.get(url=baseUrl,headers=heade).text#设置变量接受基础页的响应数据
#print(res.text)
html=etree.HTML(res)
3、获得投资关系的分类名称和url地址
data_name=html.xpath('//div[@class="infoLis"]//a/text()')#投资者列表的名字
data_link=html.xpath('//div[@class="infoLis"]//@href')#全部列表的链接
name=[data_name.strip()fordata_nameindata_name]#通过for循环去掉空字符
link=['http://www.jkl.com.cn/cn/'+data_linkfordata_linkindata_link]#拼接字符串
#合并为字典,方便保存文件
file=dict(zip(name,link))
4、每个列表信息,保存一个文件夹
forname,linkinfile.items():
name=name.replace('/','.')
name=name.replace('...','报表')
#上面的把文件名带特许字符的强制转换为我们想要的文本类型
path='E:/'+name
ifnotos.path.exists(path):
os.mkdir(path)
#建立储存位置
5、对列表的每个项目链接进行解析,拿到尾页
res_list=requests.get(url=link,headers=heade).text
list_html=etree.HTML(res_list)
#print(html_erJi)解析每个分类的链接
weiYe=list_html.xpath('//a[text()="尾页"]/@href')
#print(html_weiye)
#拿到尾页信息
ifweiYe!=[]:
#正则提取尾页信息
get_weiYe=re.search("(\d+)'\)",html_weiye[0])
get_yeMa=get_html_weiYe.group(1)
else:
get_yeMa=1
#print(get_html_yeMa)看看是不是提取成功
6、获取每个列表信息下的文件名和文件链接
forget_yeMainrange(1,int(get_yeMa)+1):#翻页
yaMa={
'__EVENTTARGET':'AspNetPager1',
'__EVENTARGUMENT':get_yeMa
}
get_lei_html=requests.get(url=link,headers=heade,params=yaMa).text
res3=etree.HTML(get_lei_html)
#print(res3)
pdf_name=res3.xpath('//div[@class="newsLis"]//li/a/text()')
#print(pdf_name)
pdf_url=res3.xpath('//div[@class="newsLis"]//li//@href')
7、让文件名和文件链接处理为列表,保存后下载
pdf_names=[pdf_name.strip()forpdf_nameinpdf_name]
#print(pdf_names)
ifall(pdf_url):
pdf_urls=['http://www.jkl.com.cn'+pdf_urlforpdf_urlinpdf_url]
#print(pdf_url)
pdf_data=dict(zip(pdf_names,pdf_urls))#pdf地址和名字整合为字典
forpdfName,pdfUrlinpdf_data.items():
pdfName=pdfName.replace('/','.')
res_pdf=requests.get(url=pdfUrl,headers=heade).content
houZui=pdfUrl.split('.')[-1]
pdf_pash=path+'/'+pdfName+'.'+houZui#
#print(pdf_pash)
withopen(pdf_pash,'wb')asf:
f.write(res_pdf)
print(pdfName,'下载成功')
到此这篇关于python爬虫智能翻页批量下载文件的实例详解的文章就介绍到这了,更多相关python爬虫实战之智能翻页批量下载文件内容请搜索毛票票以前的文章或继续浏览下面的相关文章希望大家以后多多支持毛票票!