爬取房天下网站,爬取的内容:

区域、小区名、总价、房型、面积、单价、朝向、楼层位置、装修情况、建筑时间、是否有电梯、产权类型、住宅类型、发布日期

信息保存:保存在csv中

数据结果:



1、先建立爬虫项目

1)进入目标目录:cd 目标目录

2)建立项目:scrapy startproject 爬虫项目名称

3)进入爬虫项目目录,cd 爬虫项目所在的文件夹

4)建立爬虫:scrapy genspider 爬虫名称 网址




具体可参考豆瓣的爬虫博文。




2、编写爬虫程序

有五个注意和修改的地方:

1)编写spider程序,我的案例是spider的price.py的文件中

2)修改items.py

3)修改pipeline.py,并需要在settings.py中导入

4)编写运行爬虫的程序,我的是runspider.py

5)对应的修改settings.py:pipline类、设置DEPTH_LIMIT




完整的项目目录如下:



1)爬虫文件price.py的程序,如下:主要是注意跳转下一页的用法。

主要包含三个功能:

*
解析房子信息

*
如何找到具体每个房子的链接网址

*
如何跳转下一页,并控制爬取的页码

*
如何实现区域的跳转














2)修改item.py文件,注意需要在爬虫文件中导入items



这个文件的item是可以优化的,具体可参考豆瓣的博文

3)修改pipelines.py文件,并需要在settings.py文件中启用。

    注意红点的部分为截图不全,需要把所有的字段都列上,具体参考附加文件,这个点也是可以优化的,不用一个个字段写出。



4)编写运行爬虫的程序,省得每次都去cmd命令栏运行,我的是runspider.py





5)对应的修改settings.py:pipline类、设置DEPTH_LIMIT

pipeline类:




设置下延迟下载秒数:



设置DEPTH_LIMIT:我设置的是2层,不限制的话就爬取完,记得修改ip,以防止ip被封





6)执行结果:






程序链接:https://pan.baidu.com/s/1TkohEc7kH7AedopyvXfSLQ 密码:17o5




本文只是简单的实现功能,有一些地方需要细化修改,参考后续的案例博文。









友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:[email protected]
QQ群:637538335
关注微信