BeautifulSoup很赞的东西 最近出现一个问题:Python 3.3 soup=BeautifulSoup(urllib.request.urlopen(url_path),"html.parser") soup.findAll("a",{"href":re.compile('^http|^/')}) 出现warning: Some characters could not be decoded, and were replaced wi
以前要采集某个网页,一般做法是写程序源代码爬出来,然后用正则去匹配出来,这种针对指定的网页去爬效果还可以,但是如果是批量的网页这种实现就会变得不现实,在这时候就有readability出手的意义了,readability能迅速将内容爬取出来,其他的有几种库也可以,这里就不比较了但是我觉得这个挺好用的.接着说,用pip 安装好readability模块就可以使用了.代码如下 html = urllib.urlopen("http://www.cnblogs.com/EncryptingLife/p