1 Star 0 Fork 1

quyihuang/爬虫_下载高清图片

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
spider_main.py 1.57 KB
一键复制 编辑 原始数据 按行查看 历史
quyihuang 提交于 2019-02-02 00:00 . 更新 spider_main.py
#! /usr/bin/env python3
# coding=utf-8
import Addmethod
import deal_urls
import html_parse
import shuchu
import urls_download
class Spider():
def __init__(self):
self.urls = deal_urls.Urls()
self.download = urls_download.Download()
self.parse = html_parse.Parse()
self.output = shuchu.Output()
self.add_method = Addmethod.Jiexi()
def zhixing(self, root_url):
self.urls.add_one_url(root_url)
new_url = self.urls.get_one_url()
print("现在正在爬取主页,网址url为%s" % (new_url))
html = self.download.xiazai(new_url)
new_urls = self.parse.Parser(new_url, html)
return new_urls
class Spider_additional():
def __init__(self):
self.download = urls_download.Download()
self.parse = html_parse.Parse()
self.add_method = Addmethod.Jiexi()
def zhixing2(self, url):
try:
html = self.download.xiazai(url)
new_url = self.parse.Parser2(url, html)
print("下载地址为:" + new_url)
self.add_method.store(new_url)
self.add_method.store_to_local()
except:
print("下载失败")
if __name__ == "__main__":
root_url = "https://yande.re/post?tags=ame_to_yuki+"
print("欢迎使用,本爬虫可以下载yande站点上的高清图片,默认下载地址为E:\spider_images")
print("您可以修改root_url来爬取你喜好的类型或者作者的图片,为了防止恶意爬虫,没有开发自动翻页功能")
obj = Spider()
urls = obj.zhixing(root_url)
print("解析完毕,开始爬虫,获得以下URL")
for url in urls:
print("开始下载: " + url)
obj2 = Spider_additional()
obj2.zhixing2(url)
print("下载完成")
Loading...
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
Python
1
https://gitee.com/quyihuang/crawler_download_hd_pictures.git
git@gitee.com:quyihuang/crawler_download_hd_pictures.git
quyihuang
crawler_download_hd_pictures
爬虫_下载高清图片
master

搜索帮助