请选择 进入手机版 | 继续访问电脑版
查看: 67580|回复: 368

[源码] 9秒小说阅读器的三个爬虫

  [复制链接]
最佳答案
0 
ml4516730 发表于 2014-8-14 16:11:55 | 显示全部楼层 |阅读模式
<p>里面有三个爬虫,都是照着原来例子对其他网站处理的,有问题大家改改或者告诉我也行<br/></p><p><br/></p><p>服务器要修改的地方除了架设文档里面提到的需要在<strong>ncappcrawl\__init__.py</strong>里面导入爬虫模块外,还需要修改<strong>ncapp capp.py</strong>里面的一些地方</p><p><br/></p><p><strong>#URL_1 = &quot;huaixiu.net&quot;</strong></p><p><strong>#URL_2 = &quot;XXX.net&quot;</strong></p><p><strong>URL_3= &quot;quanben.com&quot;</strong></p><p><strong>URL_4= &quot;seecd.net&quot;</strong></p><p><strong>URL_5= &quot;abcsee.net&quot;</strong></p><p><strong>NC_SITE_COUNT = 6</strong></p><p>要加上这些url关键字<br/></p><p>然后对应的在下面<strong>get_craw_type </strong>方法中添加这些URL的判断,</p><p><br/></p><p>当然还有个小地方由于我自己去掉了URL_1和URL_2,所以<strong>get_search(p_bookname=&quot;&quot;,p_author=&quot;&quot;)</strong>方法中的<strong>for i in range(3,NC_SITE_COUNT)</strong>循环也要稍微修改下起始数</p><p><br/></p><p>具体的大家可以参看源码,修改的文件都在里面</p><p><br/></p><p>基本上就这样了,我也不是什么python程序员,只是自己学了点,写的不好大家见谅,有问题可以提出来,大家共同进步,支持开源!</p><p><br/></p>
游客,如果您要查看本帖隐藏内容请回复

点评

学习源码哦  发表于 2016-11-30 11:18
最佳答案
0 
wangqiulei 发表于 2014-11-5 09:33:36 | 显示全部楼层
小说阅读器
最佳答案
0 
xxoxx 发表于 2014-11-5 13:58:22 | 显示全部楼层
看看噢。。。
最佳答案
0 
s553841071 发表于 2014-11-5 14:53:50 | 显示全部楼层
看看.
最佳答案
0 
desdemona 发表于 2014-11-5 16:27:42 | 显示全部楼层
谢谢分享
最佳答案
0 
legend2014 发表于 2014-11-9 21:45:00 | 显示全部楼层
好资源,谢谢分享
最佳答案
0 
cy_ygs 发表于 2014-11-24 14:19:04 | 显示全部楼层
好资料,顶顶顶
最佳答案
0 
jdqxmm 发表于 2014-11-27 22:17:43 | 显示全部楼层
fff
最佳答案
0 
lesony 发表于 2014-12-18 09:48:10 | 显示全部楼层
6
最佳答案
0 
whyk2012 发表于 2015-1-8 22:48:17 | 显示全部楼层
利害,顶一个
您需要登录后才可以回帖 登录 | 注册

本版积分规则

推荐阅读 More>

© 2001-2015 9秒社团

合作伙伴

公司简介 | 联系方式
COPYRIGHT©2015 ZHONGQINGLONGTU NETWORK CO.LTD ALL RIGHTS RESERVED.ICP备11023195号-4
北京中清龙图网络技术有限公司
返回顶部 返回列表