文章内容
2017/8/22 9:43:37,作 者: 黄兵
简单网络爬虫抓取博客文章及思想介绍
前面一直强调Python运用到网络爬虫方面很有效,这篇文章也是结合学习的Python视频知识及我研究生数据挖掘方向的知识.从而简介下Python是怎样爬去网络数据的,文章知识很easy,可是也分享给大家,就当简单入门吧!同一时候仅仅分享知识,希望大家不要去做破坏网络的知识或侵犯别人的原创型文章.主要包含:
1.介绍爬取CSDN自己博客文章的简单思想及过程
2.实现Python源代码爬取新浪韩寒博客的316篇文章
一.爬虫的简单思想
近期看刘兵的《Web数据挖掘》知道,在研究信息抽取问题时主要採用的是三种方法:
1.手工方法:通过观察网页及源代码找出模式,再编敲代码抽取目标数据.但该方法无法处理网站数量巨大情形.
2.包装器归纳:它英文名称叫Wrapper Induction,即有监督学习方法,是半自己主动的.该方法从手工标注的网页或数据记录集中学习一组抽取规则,从而抽取具有类似格式的网页数据.
3.自己主动抽取:它是无监督方法,给定一张或数张网页,自己主动从中寻找模式或语法实现数据抽取,因为不须要手工标注,故能够处理大量网站和网页的数据抽取工作.
这里使用的Python网络爬虫就是简单的数据抽取程序,后面我也将陆续研究一些Python+数据挖掘的知识并写这类文章.首先我想获取的是自己的全部CSDN的博客(静态.html文件),详细的思想及实现方式例如以下:
第一步 分析csdn博客的源代码
首先须要实现的是通过分析博客源代码获取一篇csdn的文章,在使用IE浏览器按F12或Google Chrome浏览器右键"审查元素"能够分析博客的基本信息.在网页中http://blog.csdn.net/eastmount链接了作者全部的博文.
显示的源代码格式例如以下:
其中
所以我们只需要获取每页中博客
1 2 3 | import urllib content = urllib.urlopen( "http://blog.csdn.nethttp://blog.csdn.net/eastmount/article/details/39599061" ).read() open( 'test.html' , 'w+' ).write(content) |
但是CSDN会禁止这样的行为,服务器禁止爬取站点内容到别人的网上去.我们的博客文章经常被其他网站爬取,但并没有申明原创出处,还请尊重原创.它显示的错误"403 Forbidden".
PS:据说模拟正常上网能实现爬取CSDN内容,读者可以自己去研究,作者此处不介绍.参考(已验证):
http://blog.csdn.net/eastmount/article/details/http://www.yihaomen.com/article/python/210.htmhttp://blog.csdn.net/eastmount/article/details/
/kf/201405/304829.htmlhttp://blog.csdn.net/eastmount/article/details/
第二步 获取自己所有的文章
这里只讨论思想,假设我们第一篇文章已经获取成功.下面使用Python的find()从上一个获取成功的位置继续查找下一篇文章链接,即可实现获取第一页的所有文章.它一页显示的是20篇文章,最后一页显示剩下的文章.
那么如何获取其他页的文章呢?http://blog.csdn.net/eastmount/article/details/
我们可以发现当跳转到不同页时显示的超链接为:http://blog.csdn.net/eastmount/article/details/
这思想就非常简单了,其过程简单如下:
for(int i=0;i<4;i++) //获取所有页文章
for(int j=0;j<20;j++) //获取一页文章 注意最后一页文章篇数
GetContent(); //获取一篇文章 主要是获取超链接http://blog.csdn.net/eastmount/article/details/
同时学习过通过正则表达式,在获取网页内容图片过程中格外方便.如我前面使用C#和正则表达式获取图片的文章:http://blog.csdn.net/eastmount/article/details/12235521http://blog.csdn.net/eastmount/article/details/
二.爬取新浪博客http://blog.csdn.net/eastmount/article/details/http://blog.csdn.net/eastmount/article/details/
上面介绍了爬虫的简单思想,但是由于一些网站服务器禁止获取站点内容,但是新浪一些博客还能实现.这里参照"51CTO学院 智普教育的python视频"获取新浪韩寒的所有博客.
地址为:http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html
采用同上面一样的方式我们可以获取每个
此时通过Python获取一篇文章的代码例如以下:
import urllib content = urllib.urlopen("http://blog.sina.com.cn/s/blog_4701280b0102eo83.html").read() open('blog.html','w+').write(content)
能够显示获取的文章,如今须要获取一篇文章的超链接,即:
<a title="《论电影的七个元素》——关于我对电影的一些看法以及《后会无期》的一些消息" target="_blank" href="http://blog.sina.com.cn/s/blog_4701280b0102eo83.html">《论电影的七个元素》——关于我对电…</a>
在没有讲述正則表達式之前使用Python人工获取超链接http,从文章开头查找第一个"<a title",然后接着找到"href="和".html"就可以获取"http://blog.sina.com.cn/s/blog_4701280b0102eo83.html".代码例如以下:
#<a title=".." target="_blank" href="http://blog.sina...html">..</a> #coding:utf-8 con = urllib.urlopen("http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html").read() title = con.find(r'<a title=') href = con.find(r'href=',title) #从title位置開始搜索 html = con.find(r'.html',href) #从href位置開始搜素近期html url = con[href+6:html+5] #href="共6位 .html共5位 print 'url:',url #输出 url: http://blog.sina.com.cn/s/blog_4701280b0102eohi.html
以下依照前面讲述的思想通过两层循环就可以实现获取全部文章,详细代码例如以下:
#coding:utf-8 import urllib import time page=1 while page<=7: url=['']*50 #新浪播客每页显示50篇 temp='http://blog.sina.com.cn/s/articlelist_1191258123_0_'+str(page)+'.html' con =urllib.urlopen(temp).read() #初始化 i=0 title=con.find(r'<a title=') href=con.find(r'href=',title) html = con.find(r'.html',href) #循环显示文章 while title!=-1 and href!=-1 and html!=-1 and i<50: url[i]=con[href+6:html+5] print url[i] #显示文章URL #以下的从第一篇结束位置開始查找 title=con.find(r'<a title=',html) href=con.find(r'href=',title) html = con.find(r'.html',href) i=i+1 else: print 'end page=',page #下载获取文章 j=0 while(j<i): #前面6页为50篇 最后一页为i篇 content=urllib.urlopen(url[j]).read() open(r'hanhan/'+url[j][-26:],'w+').write(content) #写方式打开 +表示没有即创建 j=j+1 time.sleep(1) else: print 'download' page=page+1 else: print 'all find end'
这篇文章主要是简单的介绍了怎样使用Python实现爬取网络数据,后面我还将学习一些智能的数据挖掘知识和Python的运用,实现更高效的爬取及获取客户意图和兴趣方面的知识.想实现智能的爬取图片和小说两个软件.
该文章仅提供思想,希望大家尊重别人的原创成果,不要任意爬取别人的文章并没有含原创作者信息的转载!最后希望文章对大家有所帮助,初学Python,假设有错误或不足之处,请海涵!
(By:Eastmount 2014-10-4 中午11点 原创CSDN http://blog.csdn.net/eastmount/)
參考资料:
1.51CTO学院 智普教育的python视频http://edu.51cto.com/course/course_id-581.html
2.《Web数据挖掘》刘兵著
评论列表