Python 网络爬虫实战:从零到部署的完整流程
off999 2025-08-01 20:05 68 浏览 0 评论
适用人群:初-中级 Python 开发者、数据分析师、运维/测试自动化工程师
工具栈:Python 3.11 + requests + BeautifulSoup / lxml + pandas + (可选) Selenium / Playwright
目录
- 环境准备
- 目标网站分析
- 编写基础爬虫(requests + BS4)
- 增强:并发爬取 & 反爬绕过
- 数据持久化(CSV / MySQL / MongoDB)
- 全流程异常处理与日志
- 项目打包部署 & 定时任务
- 合规与反爬道德守则
1 环境准备
python -m venv venv && source venv/bin/activate
pip install requests beautifulsoup4 lxml pandas tqdm
# 如需 JS 渲染:
pip install playwright && playwright install chromium
确保:pip >= 23,系统时间正确,否则 SSL 握手易报错。
2 目标网站分析(以某博客文章列表为例)
- F12 打开开发者工具 → Network → Doc
- 找到列表页 URL,观察分页参数:
- https://example.com/page/1 → 规律 /page/{pageNo}
- 右键 Copy > Copy selector 确定元素路径:
<h2 class="entry-title"><a href="文章链接">标题</a></h2>
- 判断是否需要登录/JS 渲染。若纯 HTML,可用 requests;否则使用 Playwright。
3 基础爬虫示例
import requests, time, random
from bs4 import BeautifulSoup
from urllib.parse import urljoin
HEADERS = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) "
"AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124 Safari/537.36"
}
def fetch_page(url: str) -> str:
resp = requests.get(url, headers=HEADERS, timeout=10)
resp.raise_for_status()
return resp.text
def parse_list(html: str, base: str) -> list[dict]:
soup = BeautifulSoup(html, "lxml")
for h2 in soup.select("h2.entry-title a"):
yield {
"title": h2.text.strip(),
"link": urljoin(base, h2["href"])
}
def main():
base = "https://example.com"
all_posts = []
for page in range(1, 6):
url = f"{base}/page/{page}"
html = fetch_page(url)
all_posts.extend(parse_list(html, base))
time.sleep(random.uniform(1, 3)) # 给服务器喘息
print(f"抓到 {len(all_posts)} 篇文章")
# TODO: 进一步抓取详情页 / 写入文件
if __name__ == "__main__":
main()
4 增强:并发爬取 & 反爬绕过
4-1 异步 + 协程
pip install httpx[http2] asyncio aiofiles
import asyncio, httpx, aiofiles, json
SEM = asyncio.Semaphore(10)
async def fetch(url, client):
async with SEM, client.get(url) as r:
r.raise_for_status()
return r.text
async def crawl(urls):
async with httpx.AsyncClient(headers=HEADERS, http2=True) as client:
tasks = [fetch(u, client) for u in urls]
return await asyncio.gather(*tasks)
# 调用: data = asyncio.run(crawl(url_list))
4-2 常见反爬应对
反爬手段 | 解决方案 |
UA / Referer 检测 | 伪造 headers |
Cookie / 登录态 | requests.Session + 手工/自动登陆 |
IP 黑名单 | 住宅代理 / VPN注意合法合规 |
JS 动态渲染 | Playwright 或 Selenium |
CAPTCHA | 极验/谷歌验证码需人工或打码平台 |
5 数据持久化
5-1 写 CSV / Excel
import pandas as pd
pd.DataFrame(all_posts).to_csv("posts.csv", index=False, encoding="utf-8-sig")
5-2 写 MySQL
import pymysql
conn = pymysql.connect(host="127.0.0.1", user="root", password="pwd", database="spider", charset="utf8mb4")
with conn.cursor() as cur:
cur.executemany("INSERT IGNORE INTO article(title,link) VALUES(%s,%s)",
[(d["title"], d["link"]) for d in all_posts])
conn.commit()
6 异常处理与日志
import logging, os
logging.basicConfig(
level=logging.INFO,
filename="spider.log",
format="%(asctime)s %(levelname)s %(message)s"
)
try:
html = fetch_page(url)
except (requests.Timeout, requests.HTTPError) as e:
logging.error("抓取失败 %s → %s", url, e)
7 部署与定时任务
Linux 系统 (crontab):
crontab -e
# 每日凌晨 2 点运行
0 2 * * * /usr/bin/python /home/spider/main.py >> /home/spider/cron.log 2>&1
Docker 打包:
FROM python:3.11-slim
COPY . /app
WORKDIR /app
RUN pip install -r requirements.txt
CMD ["python", "main.py"]
8 合法合规 & 道德守则
- 尊重 robots.txt:若站点明确禁止抓取,请勿爬取。
- 流量友好:控制并发、限速,避免压垮服务器。
- 勿爬敏感/隐私信息:遵守 GDPR、网络安全法。
- 遵照授权协议:对商业站点先取得书面许可。
- 标注数据来源:二次发布数据时注明原站点。
结论
- 核心流程:确定目标 → 模拟请求 → 解析 → 存储 → 迭代优化
- 充分利用异步、并发、分布式队列 (Redis + RSMQ/Celery) 获得更高抓取速率。
- 安全与合规永远排第一;任何超限操作都可能导致法律风险。
相关推荐
- 阿里云国际站ECS:阿里云ECS如何提高网站的访问速度?
-
TG:@yunlaoda360引言:速度即体验,速度即业务在当今数字化的世界中,网站的访问速度已成为决定用户体验、用户留存乃至业务转化率的关键因素。页面加载每延迟一秒,都可能导致用户流失和收入损失。对...
- 高流量大并发Linux TCP性能调优_linux 高并发网络编程
-
其实主要是手里面的跑openvpn服务器。因为并没有明文禁p2p(哎……想想那么多流量好像不跑点p2p也跑不完),所以造成有的时候如果有比较多人跑BT的话,会造成VPN速度急剧下降。本文所面对的情况为...
- 性能测试100集(12)性能指标资源使用率
-
在性能测试中,资源使用率是评估系统硬件效率的关键指标,主要包括以下四类:#性能测试##性能压测策略##软件测试#1.CPU使用率定义:CPU处理任务的时间占比,计算公式为1-空闲时间/总...
- Linux 服务器常见的性能调优_linux高性能服务端编程
-
一、Linux服务器性能调优第一步——先搞懂“看什么”很多人刚接触Linux性能调优时,总想着直接改配置,其实第一步该是“看清楚问题”。就像医生看病要先听诊,调优前得先知道服务器“哪里...
- Nginx性能优化实战:手把手教你提升10倍性能!
-
关注△mikechen△,十余年BAT架构经验倾囊相授!Nginx是大型架构而核心,下面我重点详解Nginx性能@mikechen文章来源:mikechen.cc1.worker_processe...
- 高并发场景下,Spring Cloud Gateway如何抗住百万QPS?
-
关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。高并发场景下网关作为流量的入口非常重要,下面我重点详解SpringCloudGateway如何抗住百万性能@m...
- Kubernetes 高并发处理实战(可落地案例 + 源码)
-
目标场景:对外提供HTTPAPI的微服务在短时间内收到大量请求(例如每秒数千至数万RPS),要求系统可弹性扩容、限流降级、缓存减压、稳定运行并能自动恢复。总体思路(多层防护):边缘层:云LB...
- 高并发场景下,Nginx如何扛住千万级请求?
-
Nginx是大型架构的必备中间件,下面我重点详解Nginx如何实现高并发@mikechen文章来源:mikechen.cc事件驱动模型Nginx采用事件驱动模型,这是Nginx高并发性能的基石。传统...
- Spring Boot+Vue全栈开发实战,中文版高清PDF资源
-
SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...
- Docker-基础操作_docker基础实战教程二
-
一、镜像1、从仓库获取镜像搜索镜像:dockersearchimage_name搜索结果过滤:是否官方:dockersearch--filter="is-offical=true...
- 你有空吗?跟我一起搭个服务器好不好?
-
来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。昨天闲的没事的时候,随手翻了翻写过的文章,发现一个很严重的问题。就是大多数时间我都在滔滔不绝的讲理论,却很少有涉及动手...
- 部署你自己的 SaaS_saas如何部署
-
部署你自己的VPNOpenVPN——功能齐全的开源VPN解决方案。(DigitalOcean教程)dockovpn.io—无状态OpenVPNdockerized服务器,不需要持久存储。...
- Docker Compose_dockercompose安装
-
DockerCompose概述DockerCompose是一个用来定义和管理多容器应用的工具,通过一个docker-compose.yml文件,用YAML格式描述服务、网络、卷等内容,...
- 京东T7架构师推出的电子版SpringBoot,从构建小系统到架构大系统
-
前言:Java的各种开发框架发展了很多年,影响了一代又一代的程序员,现在无论是程序员,还是架构师,使用这些开发框架都面临着两方面的挑战。一方面是要快速开发出系统,这就要求使用的开发框架尽量简单,无论...
- Kubernetes (k8s) 入门学习指南_k8s kubeproxy
-
Kubernetes(k8s)入门学习指南一、什么是Kubernetes?为什么需要它?Kubernetes(k8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。它...
欢迎 你 发表评论:
- 一周热门
-
-
抖音上好看的小姐姐,Python给你都下载了
-
全网最简单易懂!495页Python漫画教程,高清PDF版免费下载
-
Python 3.14 的 UUIDv6/v7/v8 上新,别再用 uuid4 () 啦!
-
python入门到脱坑 输入与输出—str()函数
-
宝塔面板如何添加免费waf防火墙?(宝塔面板开启https)
-
Python三目运算基础与进阶_python三目运算符判断三个变量
-
(新版)Python 分布式爬虫与 JS 逆向进阶实战吾爱分享
-
飞牛NAS部署TVGate Docker项目,实现内网一键转发、代理、jx
-
慕ke 前端工程师2024「完整」
-
失业程序员复习python笔记——条件与循环
-
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)
