1 Star 1 Fork 5

巴挂/爬虫-1688商品详情数据

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
compiler.py 1.05 KB
一键复制 编辑 原始数据 按行查看 历史
gebinda 提交于 2021-07-08 18:27 . 重构
# -*- coding: utf-8 -*-
from lxml import etree
import requests
from config import proxy
# 代理 IP
_proxy = requests.get(proxy).text
proxies = {
'http': 'http://' + _proxy
}
def get_img_url(obj):
# url = 'https://itemcdn.tmall.com/1688offer/icoss2216880252cb747993ec73eb32'
Header = {
'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'accept-encoding': 'gzip, deflate, br',
'accept-language': 'zh-CN,zh;q=0.9',
'cache-control': 'no-cache',
'sec-fetch-mode': 'navigate',
'sec-fetch-site': 'none',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36'
}
res = requests.get(obj.url,headers=Header,proxies=proxies)
html = etree.HTML(res.text)
urlStr = html.xpath("//img[@alt='\\\"undefined\\\"']/@src")
obj.imgUrls = []
for url in urlStr:
obj.imgUrls.append(url[2:-2])
print("解析一页数据成功!")
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/baguLoveLHY/crawler-1688-product-details.git
git@gitee.com:baguLoveLHY/crawler-1688-product-details.git
baguLoveLHY
crawler-1688-product-details
爬虫-1688商品详情数据
master

搜索帮助