1 Star 0 Fork 0

harrytsz / Fang_Scrapy

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
贡献代码
同步代码
取消
提示: 由于 Git 不支持空文件夾,创建文件夹后会生成空的 .keep 文件
Loading...
README

Fang_Scrapy

这是一个作者毕业设计的爬虫,爬取58同城、赶集网、链家、安居客、我爱我家网站的房价交易数据。 This is a web Crawl. I write it for a undergraduate study project.

欢迎使用! 恳请上面网站的鹳狸猿不要和谐我,我没有天天开着爬的~~~

#关于AWK文的使用方法 File_catalog.awk提供了一套处理爬虫数据的算法。算法使用GNU工具awk语言实现。 使用awk程序用此算法处理后数据可以按月和房屋类型拆分为不同文件。 使用方法: Linux/Unix(或者其他可以使用awk程序的平台) awk -f [File_catalog.awk的位置] [需要处理的爬虫数据(文件名必须包含xinfang/ershoufang/zufang,数据第一列必须为年月的六位数字如201604)]

License

请勿用于商业用途! 欢迎Fork,欢迎Watch,欢迎Star!

空文件

简介

暂无描述 展开 收起
取消

发行版

暂无发行版

贡献者

全部

近期动态

加载更多
不能加载更多了
1
https://gitee.com/harrytsz/Fang_Scrapy.git
git@gitee.com:harrytsz/Fang_Scrapy.git
harrytsz
Fang_Scrapy
Fang_Scrapy
master

搜索帮助