Scrapy笔记(1)- 入门篇
Scrapy笔记01- 入门篇
Scrapy也能帮你实现高阶的爬虫框架,比如爬取时的网站认证、内容的分析处理、重复抓取、分布式爬取等等很复杂的事。
安装scrapy
我的测试环境是centos6.5
升级python到最新版的2.7,下面的所有步骤都切换到root用户
由于scrapy目前只能运行在python2上,所以先更新centos上面的python到最新的 Python 2.7.11, 具体方法请google下很多这样的教程。
先安装一些依赖软件
yum install python-devel
yum install libffi-devel
yum install openssl-devel
然后安装pyopenssl库
pip install pyopenssl
安装xlml
yum install python-lxml
yum install libxml2-devel
yum install libxslt-devel
安装service-identity
pip install service-identity
安装twisted
pip install scrapy
安装scrapy
pip install scrapy -U
测试scrapy
scrapy bench
最终成功,太不容易了!
简单示例
创建一个python源文件,名为stackoverflow.py,内容如下:
import scrapy class StackOverflowSpider(scrapy.Spider):
name = 'stackoverflow'
start_urls = ['http://stackoverflow.com/questions?sort=votes'] def parse(self, response):
for href in response.css('.question-summary h3 a::attr(href)'):
full_url = response.urljoin(href.extract())
yield scrapy.Request(full_url, callback=self.parse_question) def parse_question(self, response):
yield {
'title': response.css('h1 a::text').extract()[0],
'votes': response.css('.question .vote-count-post::text').extract()[0],
'body': response.css('.question .post-text').extract()[0],
'tags': response.css('.question .post-tag::text').extract(),
'link': response.url,
}
运行:
scrapy runspider stackoverflow_spider.py -o top-stackoverflow-questions.json
结果类似下面:
[{
"body": "... LONG HTML HERE ...",
"link": "http://stackoverflow.com/questions/11227809/why-is-processing-a-sorted-array-faster-than-an-unsorted-array",
"tags": ["java", "c++", "performance", "optimization"],
"title": "Why is processing a sorted array faster than an unsorted array?",
"votes": ""
},
{
"body": "... LONG HTML HERE ...",
"link": "http://stackoverflow.com/questions/1260748/how-do-i-remove-a-git-submodule",
"tags": ["git", "git-submodules"],
"title": "How do I remove a Git submodule?",
"votes": ""
},
...]
当你运行scrapy runspider somefile.py
这条语句的时候,Scrapy会去寻找源文件中定义的一个spider并且交给爬虫引擎来执行它。 start_urls
属性定义了开始的URL,爬虫会通过它来构建初始的请求,返回response后再调用默认的回调方法parse
并传入这个response。 我们在parse
回调方法中通过使用css选择器提取每个提问页面链接的href属性值,然后yield
另外一个请求, 并注册parse_question
回调方法,在这个请求完成后被执行。
处理流程图:
Scrapy的一个好处是所有请求都是被调度并异步处理,就算某个请求出错也不影响其他请求继续被处理。
我们的示例中将解析结果生成json格式,你还可以导出为其他格式(比如XML、CSV),或者是将其存储到FTP、Amazon S3上。 你还可以通过pipeline 将它们存储到数据库中去,这些数据保存的方式各种各样。
Scrapy特性一览
你已经可以通过Scrapy从一个网站上面爬取数据并将其解析保存下来了,但是这只是Scrapy的皮毛。 Scrapy提供了更多的特性来让你爬取更加容易和高效。比如:
- 内置支持扩展的CSS选择器和XPath表达式来从HTML/XML源码中选择并提取数据,还能使用正则表达式
- 提供交互式shell控制台试验CSS和XPath表达式,这个在调试你的蜘蛛程序时很有用
- 内置支持生成多种格式的订阅导出(JSON、CSV、XML)并将它们存储在多个位置(FTP、S3、本地文件系统)
- 健壮的编码支持和自动识别,用于处理外文、非标准和错误编码问题
- 可扩展,允许你使用signals 和友好的API(middlewares, extensions, 和pipelines)来编写自定义插件功能。
- 大量的内置扩展和中间件供使用:
- cookies and session handling
- HTTP features like compression, authentication, caching
- user-agent spoofing
- robots.txt
- crawl depth restriction
- and more
- 还有其他好多好东东,比如可重复利用蜘蛛来爬取Sitemaps和XML/CSV订阅, 一个跟爬取元素关联的媒体管道来 自动下载图片, 一个缓存DNS解析器等等。
最新文章
- 台式机装原版Win2008R2
- phonegap之android原生日历调用
- mysql执行大量sql语句
- ubuntu上用eclipse搭建java、python开发环境
- 图解“管道过滤器模式”应用实例:SOD框架的命令执行管道
- zabbix的配置使用
- Delphi检查GetElementByID返回值的有效性
- Trie和Ternary Search Tree介绍
- Java BufferedWriter与BufferedReader操作文本文件
- BZOJ 1058: [ZJOI2007]报表统计( 链表 + set )
- openrisc 之 Wishbone总线学习笔记——总线互联
- zookeeper的安装与部署-伪集群
- 删除apache注册表
- 【SSL Certificates】什么是数字证书(Certificates)?
- 网站模仿——LOFTER个人主页
- Django 学习第五天——自定义过滤器及标签
- Python高级正则
- 什么是EOS(不一样的角度看柚子)
- tair介绍以及配置
- 如何在忘记mysql的登录密码时更改mysql登录的密码(window及linux)
热门文章
- 一张思维导图辅助你深入了解 Vue | Vue-Router | Vuex 源码架构
- Azure Devops (VSTS) Extensions 开发小记
- 基于 Docker 实现 DevOps 的一些探索
- git add命令行添加文件、文件夹以及撤销文件add的方法
- python的深浅拷贝-成为马老师的弟子
- Redis(八) LRU Cache
- GET请求的请求参数最大长度
- 关于“关于C#装箱的疑问”帖子的个人看法 (原发布csdn 2017年10月07日 10:21:10)
- 2019 安易迅java面试笔试题 (含面试题解析)
- Python基础15