get获取某个网站的html代码,post访问网站获取网站返回的信息

import urllib.request
import urllib.parse
#使用get请求
def start1():
response=urllib.request.urlopen('http://www.baidu.com')
print(response.read().decode('utf-8'))
#使用post请求
def start2():
data=bytes(urllib.parse.urlencode({'dsadasdas':'杀马特'}),encoding='utf8')
#使用uillib.parse来将想发送的表单的键值对按照utf8弄成适合网页post传输的形式
response=urllib.request.urlopen('http://httpbin.org/post',data=data)
print(response.read().decode('utf-8'))
start2()

设置访问超时处理

import urllib.request
import urllib.parse try:
response=urllib.request.urlopen('http://www.baidu.com',timeout=0.01)
print(response.read().decode('utf-8'))
except urllib.error.URLError as e:
print('time out')

获取状态码等

import urllib.request
import urllib.parse response=urllib.request.urlopen('http://www.baidu.com')
print(response.getheader) #获取请求的信息头
print(response.status) #获取请求的状态码
response=urllib.request.urlopen('http://douban.com')
print(response.status) #出现418状态码表示自己被发现是爬虫了

通过发送头部来伪装浏览器,突破豆瓣

import urllib.request
import urllib.parse url1='http://www.douban.com'
sendheader= {
"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.121 Safari/537.36 Edg/85.0.564.67"
}
req=urllib.request.Request(url=url1,headers=sendheader)
response=urllib.request.urlopen(req)
print(response.read().decode('utf-8'))

beatifulsoup4的使用

bs4可以将复杂的html文档转换成一个复杂的树形结构,每个节点都是python对象,所有的对象可以归纳成4种

-Tag

-NavigableString

-Comment

文档的便利,文档的搜索,css选择器

import urllib.request
import urllib.parse
import re
from bs4 import BeautifulSoup file = open('baidu.html','rb')
html=file.read().decode('utf8')
bs=BeautifulSoup(html,'html.parser')
#1.tag 标签及其内容
print(bs.title) #打印title标签
print(bs.title.string) #打印title里面的字符串内容
print(bs.a.attrs) #拿到标签里面的属性放进字典 #comment 是注释,输出的内容不包括注释符号
#----------文档的便利——---------
print('contents用于遍历某个标签里面的节点放进一个列表',bs.head.contents)
print('可以获取列表里面的某一个值',bs.head.contents[0])
#----------文档的搜索——---------
t_list=bs.find_all('a')
#下面这种是字符串过滤,会找完全匹配的内容
print('找所有的a标签放进列表',t_list)
#下面这种是正则表达式过滤
t_list1=bs.find_all(re.compile('a'))
print('正则找含有a的标签',t_list1)
#还有根据函数(来返回)过滤
def name_exist(tag):
return tag.has_attr('name')
t_list=bs.find_all(name_exist)
print('找出属性中有name的',t_list) t_list=bs.find_all(id='head')
print('找id等于head的',t_list) t_list=bs.find_all(text='百度首页')
print('找文本等于百度首页的',t_list)
#----------css选择器——---------
t_list=bs.select('title') #按照标签查找
print(t_list)
t_list=bs.select('.bdsug') #按照css类查找
print(t_list)
t_list=bs.select('#u1') #按照css的id查找
print(t_list)
t_list=bs.select('head > title') #按照head下面的title查找
print(t_list)
t_list=bs.select('.sda ~ .mm') #找和.sda同一级的.mm 兄弟节点
print(t_list)
t_list=bs.select('div',class_='item') #找div且class是item的。
print(t_list)

保存数据进入xls数据库

import xlwt
workbook=xlwt.Workbook(encoding='utf8',style_compression=0) #创建表对象
worksheet=workbook.add_sheet('sheet1',cell_overwrite_ok=True) #创建工作表,cell_overwrite_ok=True要写,用于后面写的覆盖前面的
worksheet.write(0,0,'hello') #写入数据,第一参数是行,第二个参数是列,第三个参数是内容
col=('链接','图片','关键字')
for i in range(0,3):
worksheet.write(1,i,col[i])
workbook.save('student.xls')

sqlite数据库的使用

import sqlite3
conn = sqlite3.connect('test.db')
c = conn.cursor()
sql='''
create table company
(id int primary key not null,
name text not null,
age int not null,
address char(50),
salary real)
'''
#create table company是创建company的表格
# 下面用括号代表它这个表格里面的内容,首先是id,id是整型且是主键,not nuall是非空
# address char(50)地址是50的字符串 salary是real形的数据 sql1='''
insert into company (id,name,age,address,salary)
values(1,'十大',30,'sjsad',15000) ''' c.execute(sql) #执行sql语句,建表
c.execute(sql1) #执行sql语句,插入
sql3='select id,name,address,salary from company'
#-------以下为查询操作------
cursor=c.execute(sql3)
for row in cursor:
print('id',row[0])
print('name',row[1])
print('address',row[2])
print('salary',row[3])
print('\n')
# -------以上为查询操作------
conn.commit() #提交数据库操作
conn.close() #关闭数据库连接
print('成功建表')
#数据类型 文本text 整形int 字符串型varchar 含小数型numeric
#autoincrement自增长)

最新文章

  1. SQL 导出表结构到Excel
  2. 关于一些学习html和css的笔记
  3. work flow
  4. ifrog-1028 Bob and Alice are playing numbers(trie树)
  5. sublime text编辑器删除已安装的插件
  6. SVN补充
  7. 使用 Microsoft Word 发布博客文章
  8. mysql-protocol中对编码长度整数型的规则
  9. Qt中实现启动画面(延时过程中要加上app.processEvents())
  10. Permutations,Permutations II,Combinations
  11. 『HTMl5』学习日志
  12. 实现WebSocket和WAMP协议的开源库WampSharp
  13. NET Core2.0 Memcached踩坑,基于EnyimMemcachedCore整理MemcachedHelper帮助类。
  14. 【原创】XAF 常见错误以及对应解决方法
  15. cron定时任务
  16. svcutil生成List类型不转换成数组
  17. unique
  18. [JSOI2008]Blue Mary的职员分配
  19. 寻路——AI
  20. jdk1.8新特性----接口可以有方法体,子类可以不用重写接口中已实现的方法

热门文章

  1. Go实现ssh执行远端命令及远程终端
  2. 任务队列--nodejs
  3. 一劳永逸,解决基于 keep-alive 的后台多级路由缓存问题
  4. Python进阶学习_连接操作Redis数据库
  5. R平方回归平方推导
  6. Geoserver 谷歌瓦片地图的使用 多级发布
  7. C#中无法找到microsoft.web文件
  8. java连接mysql数据查询数据
  9. JavaSwing 船只停靠管理可视化(二)
  10. 面试官:数据库自增ID用完了会怎么样?