Python爬虫实战,链家二手房数据轻松抓取!
off999 2024-11-27 18:51 23 浏览 0 评论
随着大数据时代的到来,数据分析已经成为各行各业的重要竞争力。而数据采集作为数据分析的前置步骤,其重要性不言而喻。今天,我们就来聊聊如何使用Python爬虫技术,轻松抓取链家二手房数据。
本文将带你了解爬虫的技术原理,并分四大步骤教你如何实现链虫爬取链家二手房数据,一般来说,要成功爬取一组数据并保存到本地,主要分为以下四步,分别为:发起请求、获取请求内容、解析数据、保存数据。
发起请求
首先定义一个HTTP请求头,其中包含了一个常见的用户代理(User-Agent)字符串,以模拟浏览器访问。然后使用requests.get函数发起了一个GET请求到指定的URL,并将响应存储在response变量中。
# 发起GET请求,并加上请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
response = requests.get(url, headers=headers)
获取请求内容
使用BeautifulSoup库来解析通过GET请求获取到的HTML内容。response.content包含了服务器返回的原始HTML内容,而'html.parser'是BeautifulSoup用来解析HTML的解析器。
# 解析HTML内容
soup = BeautifulSoup(response.content, 'html.parser')
解析数据
找到所有包含房屋信息的<div>标签,然后遍历这些标签,从中提取出每套房子的详细信息,如标题、小区名称、地区板块、户型、面积、朝向等,并将这些信息存储在一个列表中。
# 查找所有class为'info clear'的<div>标签
info_divs = soup.find_all('div', class_='info clear')
# 存储每套房子的信息的列表
houses = []
# 遍历每一个<div>标签
for div in info_divs:
# 省略了具体的解析代码,这部分代码从每个<div>标签中提取了房屋的相关信息,如标题、小区名称、地区板块等,并将它们存储到houses列表中。
保存数据
在process_page函数中返回的houses列表被用来创建一个pandas DataFrame,该DataFrame用于存储所有页面的房屋数据。最后,检查指定的保存目录是否存在,如果不存在则创建它,然后将DataFrame保存为Excel文件。
# 返回houses列表
return houses
# 创建一个空的DataFrame来存储所有数据
all_houses = pd.DataFrame(columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层", "关注信息", "房屋总价", "房屋单价"])
# 省略了遍历每一页并调用process_page函数的代码
# 检查目录是否存在,如果不存在则创建
directory = "C:/Users/shangtianqiang/Desktop/data"
if not os.path.exists(directory):
os.makedirs(directory)
# 将DataFrame保存到Excel文件
file_path = os.path.join(directory, "二手房数据.xlsx")
all_houses.to_excel(file_path, index=False)
完整版代码如下所示,在实际中可以修改并加以应用。
# 导入必要的库
import requests
from bs4 import BeautifulSoup
import pandas as pd
import os
# 处理每一页数据的函数
def process_page(url):
# 发起GET请求,并加上请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
response = requests.get(url, headers=headers)
# 解析HTML内容
soup = BeautifulSoup(response.content, 'html.parser')
# 查找所有class为'info clear'的<div>标签
info_divs = soup.find_all('div', class_='info clear')
# 存储每套房子的信息的列表
houses = []
# 遍历每一个<div>标签
for div in info_divs:
# 获取标题
title = div.find('div', class_='title').find('a').get_text()
# 获取小区名称和地区板块
position_info = div.find('div', class_='positionInfo').get_text()
position_info_parts = position_info.split('-')
community_name = position_info_parts[0].strip() if len(position_info_parts) > 0 else ''
district = position_info_parts[1].strip() if len(position_info_parts) > 1 else ''
# 获取户型、面积、朝向等信息
house_info = div.find('div', class_='houseInfo').get_text()
house_info_parts = house_info.split('|')
house_type = house_info_parts[0].strip() if len(house_info_parts) > 0 else ''
area = house_info_parts[1].strip() if len(house_info_parts) > 1 else ''
orientation = house_info_parts[2].strip() if len(house_info_parts) > 2 else ''
decoration = house_info_parts[3].strip() if len(house_info_parts) > 3 else ''
floor = house_info_parts[4].strip() if len(house_info_parts) > 4 else ''
# 获取关注信息
follow_info = div.find('div', class_='followInfo').get_text()
# 获取房屋总价和单价
total_price = div.find('div', class_='totalPrice totalPrice2').get_text()
unit_price = div.find('div', class_='unitPrice').get_text()
# 将信息添加到houses列表
houses.append([title, community_name, district, house_type, area, orientation, decoration, floor, follow_info, total_price, unit_price])
# 返回houses列表
return houses
# 处理所有100页数据的函数
def process_all_pages(base_url, total_pages):
# 创建一个空的DataFrame来存储所有数据
all_houses = pd.DataFrame(columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层", "关注信息", "房屋总价", "房屋单价"])
# 遍历每一页
for page in range(1, total_pages + 1):
url = f"{base_url}ershoufang/pg{page}/"
houses = process_page(url)
page_df = pd.DataFrame(houses, columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层", "关注信息", "房屋总价", "房屋单价"])
all_houses = pd.concat([all_houses, page_df], ignore_index=True)
# 检查目录是否存在,如果不存在则创建
directory = "C:/Users/shangtianqiang/Desktop/data"
if not os.path.exists(directory):
os.makedirs(directory)
# 将DataFrame保存到Excel文件
file_path = os.path.join(directory, "二手房数据.xlsx")
all_houses.to_excel(file_path, index=False)
# 实际的网站基础URL
base_url = "https://lz.lianjia.com/"
total_pages = 100
# 运行函数
process_all_pages(base_url, total_pages)
爬取后保存到本地的数据如下所示,可以基于此数据做进一步的研究。
通过以上四个步骤,我们已经成功实现了链家二手房数据的爬取。当然,实际操作过程中,可能会遇到一些意想不到的问题,这就需要我们不断积累经验,提高自己的技能。掌握Python爬虫技术,让你在数据分析的道路上如虎添翼,轻松应对各种数据挑战!
相关推荐
- 面试官:来,讲一下枚举类型在开发时中实际应用场景!
-
一.基本介绍枚举是JDK1.5新增的数据类型,使用枚举我们可以很好的描述一些特定的业务场景,比如一年中的春、夏、秋、冬,还有每周的周一到周天,还有各种颜色,以及可以用它来描述一些状态信息,比如错...
- 一日一技:11个基本Python技巧和窍门
-
1.两个数字的交换.x,y=10,20print(x,y)x,y=y,xprint(x,y)输出:102020102.Python字符串取反a="Ge...
- Python Enum 技巧,让代码更简洁、更安全、更易维护
-
如果你是一名Python开发人员,你很可能使用过enum.Enum来创建可读性和可维护性代码。今天发现一个强大的技巧,可以让Enum的境界更进一层,这个技巧不仅能提高可读性,还能以最小的代价增...
- Python元组编程指导教程(python元组的概念)
-
1.元组基础概念1.1什么是元组元组(Tuple)是Python中一种不可变的序列类型,用于存储多个有序的元素。元组与列表(list)类似,但元组一旦创建就不能修改(不可变),这使得元组在某些场景...
- 你可能不知道的实用 Python 功能(python有哪些用)
-
1.超越文件处理的内容管理器大多数开发人员都熟悉使用with语句进行文件操作:withopen('file.txt','r')asfile:co...
- Python 2至3.13新特性总结(python 3.10新特性)
-
以下是Python2到Python3.13的主要新特性总结,按版本分类整理:Python2到Python3的重大变化Python3是一个不向后兼容的版本,主要改进包括:pri...
- Python中for循环访问索引值的方法
-
技术背景在Python编程中,我们经常需要在循环中访问元素的索引值。例如,在处理列表、元组等可迭代对象时,除了要获取元素本身,还需要知道元素的位置。Python提供了多种方式来实现这一需求,下面将详细...
- Python enumerate核心应用解析:索引遍历的高效实践方案
-
喜欢的条友记得关注、点赞、转发、收藏,你们的支持就是我最大的动力源泉。根据GitHub代码分析统计,使用enumerate替代range(len())写法可减少38%的索引错误概率。本文通过12个生产...
- Python入门到脱坑经典案例—列表去重
-
列表去重是Python编程中常见的操作,下面我将介绍多种实现列表去重的方法,从基础到进阶,帮助初学者全面掌握这一技能。方法一:使用集合(set)去重(最简单)pythondefremove_dupl...
- Python枚举类工程实践:常量管理的标准化解决方案
-
本文通过7个生产案例,系统解析枚举类在工程实践中的应用,覆盖状态管理、配置选项、错误代码等场景,适用于Web服务开发、自动化测试及系统集成领域。一、基础概念与语法演进1.1传统常量与枚举类对比#传...
- 让Python枚举更强大!教你玩转Enum扩展
-
为什么你需要关注Enum?在日常开发中,你是否经常遇到这样的代码?ifstatus==1:print("开始处理")elifstatus==2:pri...
- Python枚举(Enum)技巧,你值得了解
-
枚举(Enum)提供了更清晰、结构化的方式来定义常量。通过为枚举添加行为、自动分配值和存储额外数据,可以提升代码的可读性、可维护性,并与数据库结合使用时,使用字符串代替数字能简化调试和查询。Pytho...
- 78行Python代码帮你复现微信撤回消息!
-
来源:悟空智能科技本文约700字,建议阅读5分钟。本文基于python的微信开源库itchat,教你如何收集私聊撤回的信息。[导读]Python曾经对我说:"时日不多,赶紧用Python"。于是看...
- 登录人人都是产品经理即可获得以下权益
-
文章介绍如何利用Cursor自动开发Playwright网页自动化脚本,实现从选题、写文、生图的全流程自动化,并将其打包成API供工作流调用,提高工作效率。虽然我前面文章介绍了很多AI工作流,但它们...
- Python常用小知识-第二弹(python常用方法总结)
-
一、Python中使用JsonPath提取字典中的值JsonPath是解析Json字符串用的,如果有一个多层嵌套的复杂字典,想要根据key和下标来批量提取value,这是比较困难的,使用jsonpat...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python自定义函数 (53)
- python进度条 (67)
- python吧 (67)
- python字典遍历 (54)
- python的for循环 (65)
- python格式化字符串 (61)
- python串口编程 (60)
- python读取文件夹下所有文件 (59)
- java调用python脚本 (56)
- python操作mysql数据库 (66)
- python字典增加键值对 (53)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python人脸识别 (54)
- python多态 (60)
- python命令行参数 (53)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)