百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python爬虫实战,链家二手房数据轻松抓取!

off999 2024-11-27 18:51 53 浏览 0 评论

随着大数据时代的到来,数据分析已经成为各行各业的重要竞争力。而数据采集作为数据分析的前置步骤,其重要性不言而喻。今天,我们就来聊聊如何使用Python爬虫技术,轻松抓取链家二手房数据。

本文将带你了解爬虫的技术原理,并分四大步骤教你如何实现链虫爬取链家二手房数据,一般来说,要成功爬取一组数据并保存到本地,主要分为以下四步,分别为:发起请求、获取请求内容、解析数据、保存数据

发起请求

首先定义一个HTTP请求头,其中包含了一个常见的用户代理(User-Agent)字符串,以模拟浏览器访问。然后使用requests.get函数发起了一个GET请求到指定的URL,并将响应存储在response变量中。

# 发起GET请求,并加上请求头
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
response = requests.get(url, headers=headers)

获取请求内容

使用BeautifulSoup库来解析通过GET请求获取到的HTML内容。response.content包含了服务器返回的原始HTML内容,而'html.parser'是BeautifulSoup用来解析HTML的解析器。

# 解析HTML内容
soup = BeautifulSoup(response.content, 'html.parser')

解析数据

找到所有包含房屋信息的<div>标签,然后遍历这些标签,从中提取出每套房子的详细信息,如标题、小区名称、地区板块、户型、面积、朝向等,并将这些信息存储在一个列表中。

# 查找所有class为'info clear'的<div>标签
info_divs = soup.find_all('div', class_='info clear')

# 存储每套房子的信息的列表
houses = []

# 遍历每一个<div>标签
for div in info_divs:
    # 省略了具体的解析代码,这部分代码从每个<div>标签中提取了房屋的相关信息,如标题、小区名称、地区板块等,并将它们存储到houses列表中。

保存数据

在process_page函数中返回的houses列表被用来创建一个pandas DataFrame,该DataFrame用于存储所有页面的房屋数据。最后,检查指定的保存目录是否存在,如果不存在则创建它,然后将DataFrame保存为Excel文件。

# 返回houses列表
return houses

# 创建一个空的DataFrame来存储所有数据
all_houses = pd.DataFrame(columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层", "关注信息", "房屋总价", "房屋单价"])

# 省略了遍历每一页并调用process_page函数的代码

# 检查目录是否存在,如果不存在则创建
directory = "C:/Users/shangtianqiang/Desktop/data"
if not os.path.exists(directory):
    os.makedirs(directory)

# 将DataFrame保存到Excel文件
file_path = os.path.join(directory, "二手房数据.xlsx")
all_houses.to_excel(file_path, index=False)

完整版代码如下所示,在实际中可以修改并加以应用。

# 导入必要的库
import requests
from bs4 import BeautifulSoup
import pandas as pd
import os

# 处理每一页数据的函数
def process_page(url):
    # 发起GET请求,并加上请求头
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
    }
    response = requests.get(url, headers=headers)
    
    # 解析HTML内容
    soup = BeautifulSoup(response.content, 'html.parser')
    
    # 查找所有class为'info clear'的<div>标签
    info_divs = soup.find_all('div', class_='info clear')
    
    # 存储每套房子的信息的列表
    houses = []

    # 遍历每一个<div>标签
    for div in info_divs:
        # 获取标题
        title = div.find('div', class_='title').find('a').get_text()
        # 获取小区名称和地区板块
        position_info = div.find('div', class_='positionInfo').get_text()
        position_info_parts = position_info.split('-')
        community_name = position_info_parts[0].strip() if len(position_info_parts) > 0 else ''
        district = position_info_parts[1].strip() if len(position_info_parts) > 1 else ''
        # 获取户型、面积、朝向等信息
        house_info = div.find('div', class_='houseInfo').get_text()
        house_info_parts = house_info.split('|')
        house_type = house_info_parts[0].strip() if len(house_info_parts) > 0 else ''
        area = house_info_parts[1].strip() if len(house_info_parts) > 1 else ''
        orientation = house_info_parts[2].strip() if len(house_info_parts) > 2 else ''
        decoration = house_info_parts[3].strip() if len(house_info_parts) > 3 else ''
        floor = house_info_parts[4].strip() if len(house_info_parts) > 4 else ''
        
        # 获取关注信息
        follow_info = div.find('div', class_='followInfo').get_text()
        
        # 获取房屋总价和单价
        total_price = div.find('div', class_='totalPrice totalPrice2').get_text()
        unit_price = div.find('div', class_='unitPrice').get_text()
        
        # 将信息添加到houses列表
        houses.append([title, community_name, district, house_type, area, orientation, decoration, floor, follow_info, total_price, unit_price])

    # 返回houses列表
    return houses

# 处理所有100页数据的函数
def process_all_pages(base_url, total_pages):
    # 创建一个空的DataFrame来存储所有数据
    all_houses = pd.DataFrame(columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层", "关注信息", "房屋总价", "房屋单价"])

    # 遍历每一页
    for page in range(1, total_pages + 1):
        url = f"{base_url}ershoufang/pg{page}/"
        houses = process_page(url)
        page_df = pd.DataFrame(houses, columns=["标题", "小区名", "地区板块", "户型", "面积", "朝向", "装修", "楼层",  "关注信息", "房屋总价", "房屋单价"])
        all_houses = pd.concat([all_houses, page_df], ignore_index=True)

    # 检查目录是否存在,如果不存在则创建
    directory = "C:/Users/shangtianqiang/Desktop/data"
    if not os.path.exists(directory):
        os.makedirs(directory)

    # 将DataFrame保存到Excel文件
    file_path = os.path.join(directory, "二手房数据.xlsx")
    all_houses.to_excel(file_path, index=False)

# 实际的网站基础URL
base_url = "https://lz.lianjia.com/"
total_pages = 100

# 运行函数
process_all_pages(base_url, total_pages)

爬取后保存到本地的数据如下所示,可以基于此数据做进一步的研究。

通过以上四个步骤,我们已经成功实现了链家二手房数据的爬取。当然,实际操作过程中,可能会遇到一些意想不到的问题,这就需要我们不断积累经验,提高自己的技能。掌握Python爬虫技术,让你在数据分析的道路上如虎添翼,轻松应对各种数据挑战!

相关推荐

安全教育登录入口平台(安全教育登录入口平台官网)

122交通安全教育怎么登录:122交通网的注册方法是首先登录网址http://www.122.cn/,接着打开网页后,点击右上角的“个人登录”;其次进入邮箱注册,然后进入到注册页面,输入相关信息即可完...

大鱼吃小鱼经典版(大鱼吃小鱼经典版(经典版)官方版)

大鱼吃小鱼小鱼吃虾是于谦跟郭麒麟的《我的棒儿呢?》郭德纲说于思洋郭麒麟作诗的相声,最后郭麒麟做了一首,师傅躺在师母身上大鱼吃小鱼小鱼吃虾虾吃水水落石出师傅压师娘师娘压床床压地地动山摇。...

谷歌地球下载高清卫星地图(谷歌地球地图下载器)
  • 谷歌地球下载高清卫星地图(谷歌地球地图下载器)
  • 谷歌地球下载高清卫星地图(谷歌地球地图下载器)
  • 谷歌地球下载高清卫星地图(谷歌地球地图下载器)
  • 谷歌地球下载高清卫星地图(谷歌地球地图下载器)
哪个软件可以免费pdf转ppt(免费的pdf转ppt软件哪个好)
哪个软件可以免费pdf转ppt(免费的pdf转ppt软件哪个好)

要想将ppt免费转换为pdf的话,我们建议大家可以下一个那个wps,如果你是会员的话,可以注册为会员,这样的话,在wps里面的话,就可以免费将ppt呢转换为pdfpdf之后呢,我们就可以直接使用,不需要去直接不需要去另外保存,为什么格式转...

2026-02-04 09:03 off999

电信宽带测速官网入口(电信宽带测速官网入口app)

这个网站看看http://www.swok.cn/pcindex.jsp1.登录中国电信网上营业厅,宽带光纤,贴心服务,宽带测速2.下载第三方软件,如360等。进行在线测速进行宽带测速时,尽...

植物大战僵尸95版手机下载(植物大战僵尸95 版下载)

1可以在应用商店或者游戏平台上下载植物大战僵尸95版手机游戏。2下载教程:打开应用商店或者游戏平台,搜索“植物大战僵尸95版”,找到游戏后点击下载按钮,等待下载完成即可安装并开始游戏。3注意:确...

免费下载ppt成品的网站(ppt成品免费下载的网站有哪些)

1、Chuangkit(chuangkit.com)直达地址:chuangkit.com2、Woodo幻灯片(woodo.cn)直达链接:woodo.cn3、OfficePlus(officeplu...

2025世界杯赛程表(2025世界杯在哪个国家)

2022年卡塔尔世界杯赛程公布,全部比赛在卡塔尔境内8座球场举行,2022年,决赛阶段球队全部确定。揭幕战于当地时间11月20日19时进行,由东道主卡塔尔对阵厄瓜多尔,决赛于当地时间12月18日...

下载搜狐视频电视剧(搜狐电视剧下载安装)

搜狐视频APP下载好的视频想要导出到手机相册里方法如下1、打开手机搜狐视频软件,进入搜狐视频后我们点击右上角的“查找”,找到自已喜欢的视频。2、在“浏览器页面搜索”窗口中,输入要下载的视频的名称,然后...

pubg免费下载入口(pubg下载入口官方正版)
  • pubg免费下载入口(pubg下载入口官方正版)
  • pubg免费下载入口(pubg下载入口官方正版)
  • pubg免费下载入口(pubg下载入口官方正版)
  • pubg免费下载入口(pubg下载入口官方正版)
永久免费听歌网站(丫丫音乐网)

可以到《我爱音乐网》《好听音乐网》《一听音乐网》《YYMP3音乐网》还可以到《九天音乐网》永久免费听歌软件有酷狗音乐和天猫精灵,以前要跳舞经常要下载舞曲,我从QQ上找不到舞曲下载就从酷狗音乐上找,大多...

音乐格式转换mp3软件(音乐格式转换器免费版)

有两种方法:方法一在手机上操作:1、进入手机中的文件管理。2、在其中选择“音乐”,将显示出手机中的全部音乐。3、点击“全选”,选中所有音乐文件。4、点击屏幕右下方的省略号图标,在弹出菜单中选择“...

电子书txt下载(免费的最全的小说阅读器)

1.Z-library里面收录了近千万本电子书籍,需求量大。2.苦瓜书盘没有广告,不需要账号注册,使用起来非常简单,直接搜索预览下载即可。3.鸠摩搜书整体风格简洁清晰,书籍资源丰富。4.亚马逊图书书籍...

最好免费观看高清电影(播放免费的最好看的电影)

在目前的网上选择中,IMDb(互联网电影数据库)被认为是最全的电影网站之一。这个网站提供了各种类型的电影和电视节目的海量信息,包括剧情介绍、演员表、评价、评论等。其还提供了有关电影制作背后的详细信息,...

孤单枪手2简体中文版(孤单枪手2简体中文版官方下载)

要将《孤胆枪手2》游戏的征兵秘籍切换为中文,您可以按照以下步骤进行操作:首先,打开游戏设置选项,通常可以在游戏主菜单或游戏内部找到。然后,寻找语言选项或界面选项,点击进入。在语言选项中,选择中文作为游...

取消回复欢迎 发表评论: