代码拉取完成,页面将自动刷新
import os
import requests
from bs4 import BeautifulSoup
folder = 'images/'
def count_files(dir_path):
return len([f for f in os.listdir(dir_path) if os.path.isfile(os.path.join(dir_path, f))])
url = 'https://www.kukuc.co/comic/chapter/fuliyuan-nananana/0_33.html'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
img_tags = soup.find_all('img')
# 在当前目录下创建一个名为"images"的文件夹来存放下载的图片 _2
if not os.path.exists('images'):
os.makedirs('images')
if count_files(folder) > 1:
index = count_files(folder) # 有个时候需要自定义图片开始下标
else:
index = 0
# 遍历所有图片标签,并下载图片
for idx, img_tag in enumerate(img_tags):
img_url = img_tag.get('src')
# 跳过空链接
if not img_url:
continue
# 如果链接不完整,可能需要添加主机名
if not img_url.startswith('http'):
img_url = 'https://www.kukuc.co/' + img_url
# 下载图片并保存到本地
response = requests.get(img_url)
img_data = response.content
img_name = f'images/image{index}.jpg'
with open(img_name, 'wb') as f:
f.write(img_data)
print(f'图片 {img_name} 下载完成')
index += 1
print("所有图片下载完成!")
print('图片总数:', count_files(folder))
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。