Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。bs4 模块的 BeautifulSoup 配合requests库可以写简单的爬虫。

安装


  • 命令pip install beautifulsoup4

解析器


  • 主要的解析器,以及它们的优缺点如下:

安装命令:

  • pip install lxml
  • pip install html5lib

requests


  • requests的底层实现就是urllib, requests能够自动帮助我们解压(gzip压缩的等)网页内容
  • 安装命令:pip install requests
  • 推荐使用 response.content.deocde() 的方式获取响应的html页面

pandas


  • 安装命令:pip install pandas
  • 基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。

数据结构:

  • Series:一维数组,与Numpy中的一维array类似。二者与Python基本的数据结构List也很相近,其区别是:List中的元素可以是不同的数据类型,而Array和Series中则只允许存储相同的数据类型,这样可以更有效的使用内存,提高运算效率。
  • Time- Series:以时间为索引的Series。
  • DataFrame:二维的表格型数据结构。很多功能与R中的data.frame类似。可以将DataFrame理解为Series的容器。以下的内容主要以DataFrame为主。
  • Panel :三维的数组,可以理解为DataFrame的容器。

使用


Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种:

  • Tag
  • NavigableString
  • BeautifulSoup
  • Comment

Tag:Tag 对象与XML或HTML原生文档中的tag相同,tag中最重要的属性: name和attributes

从网页中获取指定标签、属性值,取值方式:

  • 通过标签名获取:tag.name        tag对应的type是<class 'bs4.element.Tag'>
  • 通过属性获取:tag.attrs
  • 获取标签属性:tag.get('属性名')  或  tag['属性名']

功能标签

  • stripped_strings:输出的字符串中可能包含了很多空格或空行,使用 .stripped_strings 可以去除多余空白内容
  • 标准输出页面:soup.prettify()

查找元素:

  • find_all(class_="class")    返回的是多个标签
  • find(class_="class")    返回一个标签
  • select_one()    返回一个标签
  • select()    返回的是多个标签
  • soup = BeautifulSoup(backdata,'html.parser')  #转换为BeautifulSoup形式属性
  • soup.find_all('标签名',attrs{'属性名':'属性值'}  )     #返回的是列表
  • limitk 控制 find_all 返回的数量
  • recursive=Flase 返回tag的直接子元素

demo


import sys
import io
import requests
from bs4 import BeautifulSoup as bs
import pandas as pd
import numpy as np
from py_teldcore import sqlserver_db as db sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='gb18030') url = "http://www.tianqihoubao.com/lishi/hefei/month/201812.html" def get_soap():
try:
r = requests.get(url)
soap = bs(r.text, "lxml")
return soap
except Exception as e:
print(e)
return "Request Error" def save2cvs(data, path):
result_weather = pd.DataFrame(data, columns=['date', 'tq', 'temp', 'wind'])
result_weather.to_csv(path, encoding='gbk')
print('save weather sucess') def save2mssql(data):
sql = "Insert into Weather(date, tq, temp, wind) values(%s, %s, %s, %s)"
data_list = np.ndarray.tolist(data) # sqlvalues = list()
# for data in data_list:
# sqlvalues.append(tuple(data)) sqlvalues = [tuple(iq) for iq in data_list] try:
db.exec_sqlmany(sql, sqlvalues)
except Exception as e:
print(e) def get_data():
soap = get_soap()
print(soap)
all_weather = soap.find("div", class_="wdetail").find("table").find_all("tr")
data = list()
for tr in all_weather[1:]:
td_li = tr.find_all("td")
for td in td_li:
s = td.get_text()
data.append("".join(s.split())) res = np.array(data).reshape(-1, 4)
return res if __name__ == "__main__":
data = get_data()
save2mssql(data)
print("save2 Sqlserver ok!")

  

参考资料


最新文章

  1. Oracle 11.2.0.4单实例打PSU,OJVM PSU补丁快速参考
  2. 【HTML5&amp;CSS3进阶04】CSS3动画应该如何在webapp中运用
  3. [emacs] 使用ggtags浏览代码
  4. swiper 增加同页面增加2个滚动
  5. hdu 3966 Aragorn&#39;s Story 树链剖分 按点
  6. ant 自定义taskdef的工作目录
  7. nyoj 237 游戏高手的烦恼 二分匹配--最小点覆盖
  8. iOS NSDictionary、NSData、JSON数据类型相互转换
  9. 大型HashMap
  10. SQLServer 执行计划
  11. spring中jdbc的配置
  12. WTL 中CComboBoxEx显示不了的问题
  13. shell程序之逐行读取一文件里的參数且使用此參数每次运行5分钟
  14. SQL语句详细汇总
  15. SpringBoot---页面跳转之WebMvcConfigurerAdapter
  16. JavaWeb学习(一)———JavaWeb入门
  17. 图片 100%显示. img 全部显示.
  18. maven:missing artifact jdk.tools:jar:1.7
  19. How-to: Tune Your Apache Spark Jobs (Part 1)
  20. linux内核支持nfs挂载配置

热门文章

  1. K8s容器资源限制
  2. mysql实现行转列功能
  3. Java 读取和写入文本文件
  4. TaskTimer
  5. [IOI 1994]数字三角形
  6. Laravel集成Swoole教程
  7. docker compose 编排
  8. Sitecore 9 为什么数据驱动的组织选择它
  9. 【转载】linux 压缩和解压缩命令gz、tar、zip、bz2
  10. HTML5 Canvas实战之刮奖效果【转】