如何把互联网上只能看不能下载的东西给下载下来

前言
很多免费的资源只能看但是不提供下载,今天我们以小说为例教你如何把互联网上只能看不能下载的东西给下载下来

如何把互联网上只能看不能下载的东西给下载下来

文章插图
 
知识点:
  • requests
  • css选择器
  • 全站小说爬取思路
开发环境:
  • 版 本:anaconda5.2.0(Python3.6.5)
  • 编辑器:pycharm 社区版
代码
【如何把互联网上只能看不能下载的东西给下载下来】导入工具
import requestsimport parsel请求头
headers = {'User-Agent': 'gao fu shui'}请求数据
response = requests.get(chapter_url, headers=headers)# 设置文本的编码为 utf-8# response.encoding = 'utf-8'# 万能解码 99%的情况下都是对的# print(response.Apparent_encoding)# requests 自动识别的编码# print(response.encoding)# 服务直接我们的编码response.encoding = response.apparent_encoding# print(response)html = response.text# print(html)# print(response.headers)# # 响应体.请求体.请求头信息# print(response.request.headers)# # 查看源码 ctrl + 鼠标左键# print(response.cookies)解析数据
# css xpath# parsel = css + xpath + re# 把字符串变成可以解析的对象selector = parsel.Selector(html)# selector.css()# selector.xpath()# selector.re()# get 获取对象里面的文字内容# 属性提取器 attrh1 = selector.css('.reader h1::text').get()# print(h1)content = selector.css('.showtxt::text').getall()# print(content)# # xpath 路径提取器# h1 = selector.xpath('//h1/text()').get()# print(h1)# content = selector.xpath('//*[@class="showtxt"]//text()').getall()# print(content)# 去除每一个空白字符# 定义一个空列表,留待备用 {}lines = []for c in content:lines.append(c.strip())print(h1)# print(lines)# str join 字符串的合并方法text = 'n'.join(lines)# print(text)保存数据
file = open(book_name + '.txt', mode='a', encoding='utf-8')file.write(h1)file.write('n')file.write(text)file.write('n')file.close()获取所有章节的下载地址
# download_one_chapter('http://www.shuquge.com/txt/8659/2324752.html')# download_one_chapter('http://www.shuquge.com/txt/8659/2324753.html')# download_one_chapter('http://www.shuquge.com/txt/8659/2324754.html')def download_one_book(index_url):index_response = requests.get(index_url, headers=headers)index_response.encoding = index_response.apparent_encodingsel = parsel.Selector(index_response.text)book_name = sel.css('h2::text').get()# 提取了所有章节的下载地址urls = sel.css('.listmain dl dd a::attr(href)').getall()# 不要最新的 12 章放在最前mainfor url in urls[12:]:chapter_url = index_url[:-10] + urlprint(chapter_url)download_one_chapter(chapter_url, book_name)# download_one_book('http://www.shuquge.com/txt/8659/index.html')# download_one_book('http://www.shuquge.com/txt/5809/index.html')# download_one_book('http://www.shuquge.com/txt/63542/index.html')"""下载玄幻类的第一页"""# 2_1.html 控制类别页数 可以for in 生产类别 for in 生产 页数for cate in ['1', '2', '4']:for page in range(1, 101):cate_url = 'http://www.shuquge.com/category/' + cate + '_' + str(page) + '.html'cate_response = requests.get(cate_url, headers=headers)cate_response.encoding = cate_response.apparent_encodingsel = parsel.Selector(cate_response.text)# 提取了所有章节的下载地址urls = sel.css('.l.bd > ul > li > span.s2 > a::attr(href)').getall()# 不要最新的 12 章放在最前mainfor url in urls:print(url)download_one_book(url)



    推荐阅读