当前位置: 首页 > news >正文

使用 加速乐 网站变慢在过没wordpress火吗

使用 加速乐 网站变慢,在过没wordpress火吗,七种人不宜学软件工程,外包网络推广公司推广网站7篇Python爬虫实例,可直接运行,适合收藏 python爬虫7篇实例,分七个文章进行发布;第二篇:爬取图片信息。 爬取图片信息,并将每张图片都下载下来。 爬虫主要三部分: 1、获取数据 2、数据解析 3、…

7篇Python爬虫实例,可直接运行,适合收藏

python爬虫7篇实例,分七个文章进行发布;第二篇:爬取图片信息。

  • 爬取图片信息,并将每张图片都下载下来。

爬虫主要三部分:
1、获取数据
2、数据解析
3、调用函数

  • 先上完整代码: 代码后面进行一步步解析。
import requests
from bs4 import BeautifulSoup
import osindex = range(2,5)
urls = []
for i in index:urls.append(f'https://pic.netbian.com/4kdongman/index_{i}.html')# https://pic.netbian.com/tupian/34851.html# 传入单个网页,获取网页上所有得图片链接
def craw_single_url(url):re = requests.get(url)re.encoding = 'gbk'soup = BeautifulSoup(re.text,'html.parser')pics_links = soup.find_all('img')links = []for link in pics_links:if 'uploads' not in link['src']:continuelinks.append(f'https://pic.netbian.com{link['src']}')return links# 传入图片链接,将图片下载到文件夹中
def imgs_download(links):for link in links:re = requests.get(link)pic_name = os.path.basename(link)with open(f'图片/{pic_name}','wb') as f:   # w : 写入 b : 二进制写入f.write(re.content)# 循环爬取的网页链接,将所有网页的 links 放入元组中
links = []
for url in urls:for link in craw_single_url(url):links.append(link)# 将所有的 link 图片下载下来
imgs_download(links)

1、获取数据

  • 该函数是获取该 url 链接下所有图片的链接
  • 函数返回值是:所有图片的链接
def craw_single_url(url):re = requests.get(url)          # 请求 urlre.encoding = 'gbk'             # gbk格式soup = BeautifulSoup(re.text,'html.parser')     # 创建一个 BeautifulSoup 对象,之后对其解析pics_links = soup.find_all('img')                       # 在soup 中找到 img 的链接links = []for link in pics_links:                                 # 循环每个链接if 'uploads' not in link['src']:                    # 判断是否正确的链接continuelinks.append(f'https://pic.netbian.com{link['src']}')   # 构建真正的图片链接return links

2、数据解析

  • 对获取到的图片 urls 进行解析
  • 循环 urls 下载图片到指定文件中
def imgs_download(links):                       # 下载图片函数for link in links:                          # 对传入图片链接进行循环re = requests.get(link)                 # 请求单个链接pic_name = os.path.basename(link)       # 获得图片的名字with open(f'图片/{pic_name}','wb') as f: # 打开 图片 文件夹进行写入 w : 写入 b : 二进制写入f.write(re.content)                 # 将图片保存到 图片 文件夹

3、进行调用

# 循环爬取的网页链接,将所有网页的 links 放入元组中
links = []              
for url in urls:                        # 循环每个页面for link in craw_single_url(url):   # 将每个页面得到的图片urls,放入 links列表   links.append(link)              # 放入 links列表   # 将所有的 link 图片下载下来
imgs_download(links)                    # 再调用 imgs_download 函数,对每张图片进行下载
http://www.lakalapos1.cn/news/73/

相关文章:

  • 优秀网站开发互联网软件开发是什么
  • 新手学网站建设网站当前位置怎么做
  • 网站后台系统的易用性网站制作合同范本
  • wordpress网站存放在镇江一网推网络技术有限公司
  • 茂名快速建站模板wordpress下载链接框
  • html写手机网站在北京做家教的网站
  • 17网站一起做网店网页设计作品作业成品免费下载
  • 成都建站seo毕业设计代做网站都有哪些
  • 网站建设方案 规划网站策划书的撰写
  • 广西智能网站建设方案影视会员代理平台网站
  • 百度站长平台怎么验证网站网新科技集团有限公司官网
  • 福州网站建设出格网络网站方案制作
  • 建设国际互联网网站杭州网站制作外包
  • 一个空间多个网站教育模板网站建设
  • 网站策划网站建设企业英文网站推广公司
  • dede自动生成网站地图网站效果图用什么做
  • 企业门户网站建设方案桂林城乡建设局网站
  • 山东网站建设工作室打广告
  • 建材网站模板漫画网站源码
  • 网站不能访问的原因优享wordpress
  • 保定企业免费建站网站开发的试题
  • 学做网站的学校wordpress入门使用
  • app和手机网站的区别是什么太平洋建设集团有限公司网站
  • 网站的搜索功能一般怎么做东莞家具饰品东莞网站建设
  • asp 网站发布器德文网站建设
  • 玉环住房与城乡建设规划局网站上海工作网站
  • 苏州网站设计哪家好做网站之前需要准备什么软件
  • 如何做内网网站jeecg 做网站
  • 网站制作小图标网络营销专业就业
  • 网站开发 商标第几类百度网页制作网站建设