Python爬虫实战,链家二手房数据轻松抓取!
off999 2024-11-27 18:51 32 浏览 0 评论
随着大数据时代的到来,数据分析已经成为各行各业的重要竞争力。而数据采集作为数据分析的前置步骤,其重要性不言而喻。今天,我们就来聊聊如何使用Python爬虫技术,轻松抓取链家二手房数据。
本文将带你了解爬虫的技术原理,并分四大步骤教你如何实现链虫爬取链家二手房数据,一般来说,要成功爬取一组数据并保存到本地,主要分为以下四步,分别为:发起请求、获取请求内容、解析数据、保存数据。
发起请求
首先定义一个HTTP请求头,其中包含了一个常见的用户代理(User-Agent)字符串,以模拟浏览器访问。然后使用requests.get函数发起了一个GET请求到指定的URL,并将响应存储在response变量中。
# 发起GET请求,并加上请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
response = requests.get(url, headers=headers)
获取请求内容
使用BeautifulSoup库来解析通过GET请求获取到的HTML内容。response.content包含了服务器返回的原始HTML内容,而'html.parser'是BeautifulSoup用来解析HTML的解析器。
# 解析HTML内容
soup = BeautifulSoup(response.content, 'html.parser')
解析数据
找到所有包含房屋信息的<div>标签,然后遍历这些标签,从中提取出每套房子的详细信息,如标题、小区名称、地区板块、户型、面积、朝向等,并将这些信息存储在一个列表中。
# 查找所有class为'info clear'的<div>标签
info_divs = soup.find_all('div', class_='info clear')
# 存储每套房子的信息的列表
houses = []
# 遍历每一个<div>标签
for div in info_divs:
# 省略了具体的解析代码,这部分代码从每个<div>标签中提取了房屋的相关信息,如标题、小区名称、地区板块等,并将它们存储到houses列表中。
保存数据
在process_page函数中返回的houses列表被用来创建一个pandas DataFrame,该DataFrame用于存储所有页面的房屋数据。最后,检查指定的保存目录是否存在,如果不存在则创建它,然后将DataFrame保存为Excel文件。
# 返回houses列表
return houses
# 创建一个空的DataFrame来存储所有数据
all_houses = pd.DataFrame(columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层", "关注信息", "房屋总价", "房屋单价"])
# 省略了遍历每一页并调用process_page函数的代码
# 检查目录是否存在,如果不存在则创建
directory = "C:/Users/shangtianqiang/Desktop/data"
if not os.path.exists(directory):
os.makedirs(directory)
# 将DataFrame保存到Excel文件
file_path = os.path.join(directory, "二手房数据.xlsx")
all_houses.to_excel(file_path, index=False)
完整版代码如下所示,在实际中可以修改并加以应用。
# 导入必要的库
import requests
from bs4 import BeautifulSoup
import pandas as pd
import os
# 处理每一页数据的函数
def process_page(url):
# 发起GET请求,并加上请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
response = requests.get(url, headers=headers)
# 解析HTML内容
soup = BeautifulSoup(response.content, 'html.parser')
# 查找所有class为'info clear'的<div>标签
info_divs = soup.find_all('div', class_='info clear')
# 存储每套房子的信息的列表
houses = []
# 遍历每一个<div>标签
for div in info_divs:
# 获取标题
title = div.find('div', class_='title').find('a').get_text()
# 获取小区名称和地区板块
position_info = div.find('div', class_='positionInfo').get_text()
position_info_parts = position_info.split('-')
community_name = position_info_parts[0].strip() if len(position_info_parts) > 0 else ''
district = position_info_parts[1].strip() if len(position_info_parts) > 1 else ''
# 获取户型、面积、朝向等信息
house_info = div.find('div', class_='houseInfo').get_text()
house_info_parts = house_info.split('|')
house_type = house_info_parts[0].strip() if len(house_info_parts) > 0 else ''
area = house_info_parts[1].strip() if len(house_info_parts) > 1 else ''
orientation = house_info_parts[2].strip() if len(house_info_parts) > 2 else ''
decoration = house_info_parts[3].strip() if len(house_info_parts) > 3 else ''
floor = house_info_parts[4].strip() if len(house_info_parts) > 4 else ''
# 获取关注信息
follow_info = div.find('div', class_='followInfo').get_text()
# 获取房屋总价和单价
total_price = div.find('div', class_='totalPrice totalPrice2').get_text()
unit_price = div.find('div', class_='unitPrice').get_text()
# 将信息添加到houses列表
houses.append([title, community_name, district, house_type, area, orientation, decoration, floor, follow_info, total_price, unit_price])
# 返回houses列表
return houses
# 处理所有100页数据的函数
def process_all_pages(base_url, total_pages):
# 创建一个空的DataFrame来存储所有数据
all_houses = pd.DataFrame(columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层", "关注信息", "房屋总价", "房屋单价"])
# 遍历每一页
for page in range(1, total_pages + 1):
url = f"{base_url}ershoufang/pg{page}/"
houses = process_page(url)
page_df = pd.DataFrame(houses, columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层", "关注信息", "房屋总价", "房屋单价"])
all_houses = pd.concat([all_houses, page_df], ignore_index=True)
# 检查目录是否存在,如果不存在则创建
directory = "C:/Users/shangtianqiang/Desktop/data"
if not os.path.exists(directory):
os.makedirs(directory)
# 将DataFrame保存到Excel文件
file_path = os.path.join(directory, "二手房数据.xlsx")
all_houses.to_excel(file_path, index=False)
# 实际的网站基础URL
base_url = "https://lz.lianjia.com/"
total_pages = 100
# 运行函数
process_all_pages(base_url, total_pages)
爬取后保存到本地的数据如下所示,可以基于此数据做进一步的研究。
通过以上四个步骤,我们已经成功实现了链家二手房数据的爬取。当然,实际操作过程中,可能会遇到一些意想不到的问题,这就需要我们不断积累经验,提高自己的技能。掌握Python爬虫技术,让你在数据分析的道路上如虎添翼,轻松应对各种数据挑战!
相关推荐
- Alist 玩家请进:一键部署全新分支 Openlist,看看香不香!
-
Openlist(其前身是鼎鼎大名的Alist)是一款功能强大的开源文件列表程序。它能像“万能钥匙”一样,解锁并聚合你散落在各处的云盘资源——无论是阿里云盘、百度网盘、GoogleDrive还是...
- 白嫖SSL证书还自动续签?这个开源工具让我告别手动部署
-
你还在手动部署SSL证书?你是不是也遇到过这些问题:每3个月续一次Let'sEncrypt证书,忘了就翻车;手动配置Nginx,重启服务,搞一次SSL得花一下午;付费证书太贵,...
- Docker Compose:让多容器应用一键起飞
-
CDockerCompose:让多容器应用一键起飞"曾经我也是一个手动启动容器的少年,直到我的膝盖中了一箭。"——某位忘记--link参数的运维工程师引言:容器化的烦恼与...
- 申请免费的SSL证书,到期一键续签
-
大家好,我是小悟。最近帮朋友配置网站HTTPS时发现,还有人对宝塔面板的SSL证书功能还不太熟悉。其实宝塔早就内置了免费的Let'sEncrypt证书申请和一键续签功能,操作简单到连新手都能...
- 飞牛NAS部署TVGate Docker项目,实现内网一键转发、代理、jx
-
前面分享了两期TVGate:Q大的转发代理工具TVGate升级了,操作更便捷,增加了新的功能跨平台内网转发神器TVGate部署与使用初体验现在项目已经开源,并支持Docker部署,本文介绍如何通...
- Docker Compose 编排实战:一键部署多容器应用!
-
当项目变得越来越复杂,一个服务已经无法满足需求时,你可能需要同时部署数据库、后端服务、前端网页、缓存组件……这时,如果还一个一个手动dockerrun,简直是灾难这就是DockerCompo...
- 深度测评:Vue、React 一键部署的神器 PinMe
-
不知道大家有没有这种崩溃瞬间:领导突然要看项目Demo,客户临时要体验新功能,自己写的小案例想发朋友圈;找运维?排期?还要走工单;自己买服务器?域名、SSL、Nginx、防火墙;本地起服务?断电、关...
- 超简单!一键启动多容器,解锁 Docker Compose 极速编排秘籍
-
想要用最简单的方式在本地复刻一套完整的微服务环境?只需一个docker-compose.yml文件,你就能一键拉起N个容器,自动组网、挂载存储、环境隔离,全程无痛!下面这份终极指南,教你如何用...
- 日志文件转运工具Filebeat笔记_日志转发工具
-
一、概述与简介Filebeat是一个日志文件转运工具,在服务器上以轻量级代理的形式安装客户端后,Filebeat会监控日志目录或者指定的日志文件,追踪读取这些文件(追踪文件的变化,不停的读),并将来自...
- K8s 日志高效查看神器,提升运维效率10倍!
-
通常情况下,在部署了K8S服务之后,为了更好地监控服务的运行情况,都会接入对应的日志系统来进行检测和分析,比如常见的Filebeat+ElasticSearch+Kibana这一套组合...
- 如何给网站添加 https_如何给网站添加证书
-
一、简介相信大家都知道https是更加安全的,特别是一些网站,有https的网站更能够让用户信任访问接下来以我的个人网站五岁小孩为例子,带大家一起从0到1配置网站https本次配置的...
- 10个Linux文件内容查看命令的实用示例
-
Linux文件内容查看命令30个实用示例详细介绍了10个Linux文件内容查看命令的30个实用示例,涵盖了从基本文本查看、分页浏览到二进制文件分析的各个方面。掌握这些命令帮助您:高效查看各种文本文件内...
- 第13章 工程化实践_第13章 工程化实践课
-
13.1ESLint+Prettier代码规范统一代码风格配置//.eslintrc.jsmodule.exports={root:true,env:{node...
- 龙建股份:工程项目中标_龙建股份有限公司招聘网
-
404NotFoundnginx/1.6.1【公告简述】2016年9月8日公告,公司于2016年9月6日收到苏丹共和国(简称“北苏丹”)喀土穆州基础设施与运输部公路、桥梁和排水公司出具的中标通知书...
- 福田汽车:获得政府补助_福田 补贴
-
404NotFoundnginx/1.6.1【公告简述】2016年9月1日公告,自2016年8月17日至今,公司共收到产业发展补助、支持资金等与收益相关的政府补助4笔,共计5429.08万元(不含...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)