一个python爬虫协程的写法(gevent模块)
2024-08-27 08:07:01
from bs4 import BeautifulSoup
import requests
import gevent
from gevent import monkey, pool
monkey.patch_all()
jobs = []
links = []
p = pool.Pool(10)
urls = [
'http://www.google.com',
# ... another 100 urls
]
def get_links(url):
r = requests.get(url)
if r.status_code == 200:
soup = BeautifulSoup(r.text)
links + soup.find_all('a')
for url in urls:
jobs.append(p.spawn(get_links, url))
gevent.joinall(jobs)
最新文章
- easyUI的基础布局easyui-accordion
- MVC Controller中View(model)如何在 View中的index页面获得?
- VBA中常用技巧
- Entity Framework DBFirst尝试
- Codeforces Round #345 (Div. 1) B. Image Preview
- STM32学习内容和计划
- RSA, ACS5.X 集成配置
- phpstudy vhost 配置
- Adobe Photoshop CC 2019 for Mac v20.0.4 中文版安装教程
- Fundebug微信小程序错误监控插件更新至1.1.0,新增test()与notifyHttpError()方法
- Typescript高级类型与泛型难点详解
- 1244. Minimum Genetic Mutation
- requestAnimationFrame 兼容不同浏览器
- 针对IE9的CSS兼容
- xampp配置多个监听端口和不同的网站目录
- Random Projection在k-means的应用
- #C++初学记录(ACM试题2)
- csrf xss sql注入
- asp.net core 发布到docker 极简步骤
- WHILE (Transact-SQL)