百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python 网络爬虫实战:从零到部署的完整流程

off999 2025-08-01 20:05 41 浏览 0 评论

适用人群:初-中级 Python 开发者、数据分析师、运维/测试自动化工程师

工具栈:Python 3.11 + requests + BeautifulSoup / lxml + pandas + (可选) Selenium / Playwright





目录


  1. 环境准备
  2. 目标网站分析
  3. 编写基础爬虫(requests + BS4)
  4. 增强:并发爬取 & 反爬绕过
  5. 数据持久化(CSV / MySQL / MongoDB)
  6. 全流程异常处理与日志
  7. 项目打包部署 & 定时任务
  8. 合规与反爬道德守则






1 环境准备


python -m venv venv && source venv/bin/activate

pip install requests beautifulsoup4 lxml pandas tqdm

# 如需 JS 渲染:

pip install playwright && playwright install chromium

确保:pip >= 23,系统时间正确,否则 SSL 握手易报错。





2 目标网站分析(以某博客文章列表为例)



  1. F12 打开开发者工具 → Network → Doc
  2. 找到列表页 URL,观察分页参数:

  3. https://example.com/page/1 → 规律 /page/{pageNo}
  4. 右键 Copy > Copy selector 确定元素路径:


<h2 class="entry-title"><a href="文章链接">标题</a></h2>



  1. 判断是否需要登录/JS 渲染。若纯 HTML,可用 requests;否则使用 Playwright。






3 基础爬虫示例


import requests, time, random

from bs4 import BeautifulSoup

from urllib.parse import urljoin


HEADERS = {

"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) "

"AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124 Safari/537.36"

}


def fetch_page(url: str) -> str:

resp = requests.get(url, headers=HEADERS, timeout=10)

resp.raise_for_status()

return resp.text


def parse_list(html: str, base: str) -> list[dict]:

soup = BeautifulSoup(html, "lxml")

for h2 in soup.select("h2.entry-title a"):

yield {

"title": h2.text.strip(),

"link": urljoin(base, h2["href"])

}


def main():

base = "https://example.com"

all_posts = []

for page in range(1, 6):

url = f"{base}/page/{page}"

html = fetch_page(url)

all_posts.extend(parse_list(html, base))

time.sleep(random.uniform(1, 3)) # 给服务器喘息

print(f"抓到 {len(all_posts)} 篇文章")

# TODO: 进一步抓取详情页 / 写入文件

if __name__ == "__main__":

main()





4 增强:并发爬取 & 反爬绕过




4-1 异步 + 协程


pip install httpx[http2] asyncio aiofiles

import asyncio, httpx, aiofiles, json

SEM = asyncio.Semaphore(10)


async def fetch(url, client):

async with SEM, client.get(url) as r:

r.raise_for_status()

return r.text


async def crawl(urls):

async with httpx.AsyncClient(headers=HEADERS, http2=True) as client:

tasks = [fetch(u, client) for u in urls]

return await asyncio.gather(*tasks)


# 调用: data = asyncio.run(crawl(url_list))


4-2 常见反爬应对


反爬手段

解决方案

UA / Referer 检测

伪造 headers

Cookie / 登录态

requests.Session + 手工/自动登陆

IP 黑名单

住宅代理 / VPN注意合法合规

JS 动态渲染

Playwright 或 Selenium

CAPTCHA

极验/谷歌验证码需人工或打码平台





5 数据持久化




5-1 写 CSV / Excel


import pandas as pd

pd.DataFrame(all_posts).to_csv("posts.csv", index=False, encoding="utf-8-sig")


5-2 写 MySQL


import pymysql

conn = pymysql.connect(host="127.0.0.1", user="root", password="pwd", database="spider", charset="utf8mb4")

with conn.cursor() as cur:

cur.executemany("INSERT IGNORE INTO article(title,link) VALUES(%s,%s)",

[(d["title"], d["link"]) for d in all_posts])

conn.commit()





6 异常处理与日志


import logging, os

logging.basicConfig(

level=logging.INFO,

filename="spider.log",

format="%(asctime)s %(levelname)s %(message)s"

)


try:

html = fetch_page(url)

except (requests.Timeout, requests.HTTPError) as e:

logging.error("抓取失败 %s → %s", url, e)





7 部署与定时任务



Linux 系统 (crontab):

crontab -e

# 每日凌晨 2 点运行

0 2 * * * /usr/bin/python /home/spider/main.py >> /home/spider/cron.log 2>&1

Docker 打包:

FROM python:3.11-slim

COPY . /app

WORKDIR /app

RUN pip install -r requirements.txt

CMD ["python", "main.py"]





8 合法合规 & 道德守则



  1. 尊重 robots.txt:若站点明确禁止抓取,请勿爬取。
  2. 流量友好:控制并发、限速,避免压垮服务器。
  3. 勿爬敏感/隐私信息:遵守 GDPR、网络安全法。
  4. 遵照授权协议:对商业站点先取得书面许可。
  5. 标注数据来源:二次发布数据时注明原站点。






结论


  • 核心流程:确定目标 → 模拟请求 → 解析 → 存储 → 迭代优化
  • 充分利用异步、并发、分布式队列 (Redis + RSMQ/Celery) 获得更高抓取速率。
  • 安全与合规永远排第一;任何超限操作都可能导致法律风险。

相关推荐

Linux 网络协议栈_linux网络协议栈

前言;更多学习资料(包含视频、技术学习路线图谱、文档等)后台私信《资料》免费领取技术点包含了C/C++,Linux,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,Z...

揭秘 BPF map 前生今世_bpfdm

1.前言众所周知,map可用于内核BPF程序和用户应用程序之间实现双向的数据交换,为BPF技术中的重要基础数据结构。在BPF程序中可以通过声明structbpf_map_def...

教你简单 提取fmpeg 视频,音频,字幕 方法

ffmpeg提取视频,音频,字幕方法(HowtoExtractVideo,Audio,SubtitlefromOriginalVideo?)1.提取视频(ExtractVi...

Linux内核原理到代码详解《内核视频教程》

Linux内核原理-进程入门进程进程不仅仅是一段可执行程序的代码,通常进程还包括其他资源,比如打开的文件,挂起的信号,内核内部的数据结构,处理器状态,内存地址空间,或多个执行线程,存放全局变量的数据段...

Linux C Socket UDP编程详解及实例分享

1、UDP网络编程主要流程UDP协议的程序设计框架,客户端和服务器之间的差别在于服务器必须使用bind()函数来绑定侦听的本地UDP端口,而客户端则可以不进行绑定,直接发送到服务器地址的某个端口地址。...

libevent源码分析之bufferevent使用详解

libevent的bufferevent在event的基础上自己维护了一个buffer,这样的话,就不需要再自己管理一个buffer了。先看看structbufferevent这个结构体struct...

一次解决Linux内核内存泄漏实战全过程

什么是内存泄漏:程序向系统申请内存,使用完不需要之后,不释放内存还给系统回收,造成申请的内存被浪费.发现系统中内存使用量随着时间的流逝,消耗的越来越多,例如下图所示:接下来的排查思路是:1.监控系统中...

彻底搞清楚内存泄漏的原因,如何避免内存泄漏,如何定位内存泄漏

作为C/C++开发人员,内存泄漏是最容易遇到的问题之一,这是由C/C++语言的特性引起的。C/C++语言与其他语言不同,需要开发者去申请和释放内存,即需要开发者去管理内存,如果内存使用不当,就容易造成...

linux网络编程常见API详解_linux网络编程视频教程

Linux网络编程API函数初步剖析今天我们来分析一下前几篇博文中提到的网络编程中几个核心的API,探究一下当我们调用每个API时,内核中具体做了哪些准备和初始化工作。1、socket(family...

Linux下C++访问web—使用libcurl库调用http接口发送解析json数据

一、背景这两天由于一些原因研究了研究如何在客户端C++代码中调用web服务端接口,需要访问url,并传入json数据,拿到返回值,并解析。 现在的情形是远程服务端的接口参数和返回类型都是json的字符...

平衡感知调节:“系统如人” 视角下的架构设计与业务稳定之道

在今天这个到处都是数字化的时代,系统可不是一堆冷冰冰的代码。它就像一个活生生的“数字人”,没了它,业务根本转不起来。总说“技术要为业务服务”,但实际操作起来问题不少:系统怎么才能快速响应业务需求?...

谈谈分布式文件系统下的本地缓存_什么是分布式文件存储

在分布式文件系统中,为了提高系统的性能,常常会引入不同类型的缓存存储系统(算法优化所带来的的效果可能远远不如缓存带来的优化效果)。在软件中缓存存储系统一般可分为了两类:一、分布式缓存,例如:Memca...

进程间通信之信号量semaphore--linux内核剖析

什么是信号量信号量的使用主要是用来保护共享资源,使得资源在一个时刻只有一个进程(线程)所拥有。信号量的值为正的时候,说明它空闲。所测试的线程可以锁定而使用它。若为0,说明它被占用,测试的线程要进入睡眠...

Qt编写推流程序/支持webrtc265/从此不用再转码/打开新世界的大门

一、前言在推流领域,尤其是监控行业,现在主流设备基本上都是265格式的视频流,想要在网页上直接显示监控流,之前的方案是,要么转成hls,要么魔改支持265格式的flv,要么265转成264,如果要追求...

30 分钟搞定 SpringBoot 视频推拉流!实战避坑指南

30分钟搞定SpringBoot视频推拉流!实战避坑指南在音视频开发领域,SpringBoot凭借其快速开发特性,成为很多开发者实现视频推拉流功能的首选框架。但实际开发中,从环境搭建到流处理优...

取消回复欢迎 发表评论: