1 Star 0 Fork 0

UnlightedOtaku/spider_practice

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
2img.py 1.02 KB
一键复制 编辑 原始数据 按行查看 历史
UnlightedOtaku 提交于 2020-07-06 05:39 . Initial commit
# 通过网站的 API 接口,批量下载文章对应题图到本地。
import requests
import os
import json
url = 'http://47.104.29.136:8000/tasks/api/'
base_url = 'http://47.104.29.136:8000'
# 请求
result = requests.get(url)
# 当前文件夹
cur_path = os.getcwd() + '/'
# 存储路径
pic_path = cur_path + '2results'
# 新建文件夹
if os.path.exists(pic_path):
print('directory exist!')
else:
os.mkdir(pic_path)
# 进入目录,开始下载
os.chdir(pic_path)
# 解析结果
# print(result.content) bytes
# print(result.text) unicode
# json解析字符串,当让也可以通过正则 或者肉眼观察图片的url
json_result = json.loads(result.text)
# print(json_result)
print(json_result['articles'])
for i in json_result['articles']:
# print(i)
# print(i['image'])
# 文件名
filename = i['image'].split('/')[-1]
# 图片的url
img_url = base_url + i['image']
# 打开文件 , 写入 , 关闭
f = open(filename, 'wb')
f.write(requests.get(img_url).content)
f.close()
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/yangguangfeifei/spider_practice.git
git@gitee.com:yangguangfeifei/spider_practice.git
yangguangfeifei
spider_practice
spider_practice
master

搜索帮助