边学边写代码,记录下来.这段代码用于批量抓取主站下所有子网页中符合特定尺寸要求的的图片文件,支持中断. 原理很简单:使用BeautifulSoup4分析网页,获取网页<a/>和<img/>元素,对<a/>集合反复弹栈入栈,对<img/>集合进行筛选下载. 具体代码如下:import os import sys import time import urllib.request from urllib.parse import urljoin,urlparse
最近时间比较忙,有时候很多网页需要临时保存,以便空闲的时候查看.单纯的保存网页链接会让人很枯燥,所以需要自动批量提取标题. 为了这个小功能去写个小程序有点不划算,所以就利用excel实现了这个功能. 先上图: 代码如下: Option Explicit Public Function GetTitle(url As String) Dim xmlHttp As Object Dim strHtml As String url = Trim(url) )) = "https" Then