百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python 网络爬虫实战:从零到部署的完整流程

off999 2025-08-01 20:05 94 浏览 0 评论

适用人群:初-中级 Python 开发者、数据分析师、运维/测试自动化工程师

工具栈:Python 3.11 + requests + BeautifulSoup / lxml + pandas + (可选) Selenium / Playwright





目录


  1. 环境准备
  2. 目标网站分析
  3. 编写基础爬虫(requests + BS4)
  4. 增强:并发爬取 & 反爬绕过
  5. 数据持久化(CSV / MySQL / MongoDB)
  6. 全流程异常处理与日志
  7. 项目打包部署 & 定时任务
  8. 合规与反爬道德守则






1 环境准备


python -m venv venv && source venv/bin/activate

pip install requests beautifulsoup4 lxml pandas tqdm

# 如需 JS 渲染:

pip install playwright && playwright install chromium

确保:pip >= 23,系统时间正确,否则 SSL 握手易报错。





2 目标网站分析(以某博客文章列表为例)



  1. F12 打开开发者工具 → Network → Doc
  2. 找到列表页 URL,观察分页参数:

  3. https://example.com/page/1 → 规律 /page/{pageNo}
  4. 右键 Copy > Copy selector 确定元素路径:


<h2 class="entry-title"><a href="文章链接">标题</a></h2>



  1. 判断是否需要登录/JS 渲染。若纯 HTML,可用 requests;否则使用 Playwright。






3 基础爬虫示例


import requests, time, random

from bs4 import BeautifulSoup

from urllib.parse import urljoin


HEADERS = {

"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) "

"AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124 Safari/537.36"

}


def fetch_page(url: str) -> str:

resp = requests.get(url, headers=HEADERS, timeout=10)

resp.raise_for_status()

return resp.text


def parse_list(html: str, base: str) -> list[dict]:

soup = BeautifulSoup(html, "lxml")

for h2 in soup.select("h2.entry-title a"):

yield {

"title": h2.text.strip(),

"link": urljoin(base, h2["href"])

}


def main():

base = "https://example.com"

all_posts = []

for page in range(1, 6):

url = f"{base}/page/{page}"

html = fetch_page(url)

all_posts.extend(parse_list(html, base))

time.sleep(random.uniform(1, 3)) # 给服务器喘息

print(f"抓到 {len(all_posts)} 篇文章")

# TODO: 进一步抓取详情页 / 写入文件

if __name__ == "__main__":

main()





4 增强:并发爬取 & 反爬绕过




4-1 异步 + 协程


pip install httpx[http2] asyncio aiofiles

import asyncio, httpx, aiofiles, json

SEM = asyncio.Semaphore(10)


async def fetch(url, client):

async with SEM, client.get(url) as r:

r.raise_for_status()

return r.text


async def crawl(urls):

async with httpx.AsyncClient(headers=HEADERS, http2=True) as client:

tasks = [fetch(u, client) for u in urls]

return await asyncio.gather(*tasks)


# 调用: data = asyncio.run(crawl(url_list))


4-2 常见反爬应对


反爬手段

解决方案

UA / Referer 检测

伪造 headers

Cookie / 登录态

requests.Session + 手工/自动登陆

IP 黑名单

住宅代理 / VPN注意合法合规

JS 动态渲染

Playwright 或 Selenium

CAPTCHA

极验/谷歌验证码需人工或打码平台





5 数据持久化




5-1 写 CSV / Excel


import pandas as pd

pd.DataFrame(all_posts).to_csv("posts.csv", index=False, encoding="utf-8-sig")


5-2 写 MySQL


import pymysql

conn = pymysql.connect(host="127.0.0.1", user="root", password="pwd", database="spider", charset="utf8mb4")

with conn.cursor() as cur:

cur.executemany("INSERT IGNORE INTO article(title,link) VALUES(%s,%s)",

[(d["title"], d["link"]) for d in all_posts])

conn.commit()





6 异常处理与日志


import logging, os

logging.basicConfig(

level=logging.INFO,

filename="spider.log",

format="%(asctime)s %(levelname)s %(message)s"

)


try:

html = fetch_page(url)

except (requests.Timeout, requests.HTTPError) as e:

logging.error("抓取失败 %s → %s", url, e)





7 部署与定时任务



Linux 系统 (crontab):

crontab -e

# 每日凌晨 2 点运行

0 2 * * * /usr/bin/python /home/spider/main.py >> /home/spider/cron.log 2>&1

Docker 打包:

FROM python:3.11-slim

COPY . /app

WORKDIR /app

RUN pip install -r requirements.txt

CMD ["python", "main.py"]





8 合法合规 & 道德守则



  1. 尊重 robots.txt:若站点明确禁止抓取,请勿爬取。
  2. 流量友好:控制并发、限速,避免压垮服务器。
  3. 勿爬敏感/隐私信息:遵守 GDPR、网络安全法。
  4. 遵照授权协议:对商业站点先取得书面许可。
  5. 标注数据来源:二次发布数据时注明原站点。






结论


  • 核心流程:确定目标 → 模拟请求 → 解析 → 存储 → 迭代优化
  • 充分利用异步、并发、分布式队列 (Redis + RSMQ/Celery) 获得更高抓取速率。
  • 安全与合规永远排第一;任何超限操作都可能导致法律风险。

相关推荐

安全教育登录入口平台(安全教育登录入口平台官网)

122交通安全教育怎么登录:122交通网的注册方法是首先登录网址http://www.122.cn/,接着打开网页后,点击右上角的“个人登录”;其次进入邮箱注册,然后进入到注册页面,输入相关信息即可完...

大鱼吃小鱼经典版(大鱼吃小鱼经典版(经典版)官方版)

大鱼吃小鱼小鱼吃虾是于谦跟郭麒麟的《我的棒儿呢?》郭德纲说于思洋郭麒麟作诗的相声,最后郭麒麟做了一首,师傅躺在师母身上大鱼吃小鱼小鱼吃虾虾吃水水落石出师傅压师娘师娘压床床压地地动山摇。...

谷歌地球下载高清卫星地图(谷歌地球地图下载器)
  • 谷歌地球下载高清卫星地图(谷歌地球地图下载器)
  • 谷歌地球下载高清卫星地图(谷歌地球地图下载器)
  • 谷歌地球下载高清卫星地图(谷歌地球地图下载器)
  • 谷歌地球下载高清卫星地图(谷歌地球地图下载器)
哪个软件可以免费pdf转ppt(免费的pdf转ppt软件哪个好)
哪个软件可以免费pdf转ppt(免费的pdf转ppt软件哪个好)

要想将ppt免费转换为pdf的话,我们建议大家可以下一个那个wps,如果你是会员的话,可以注册为会员,这样的话,在wps里面的话,就可以免费将ppt呢转换为pdfpdf之后呢,我们就可以直接使用,不需要去直接不需要去另外保存,为什么格式转...

2026-02-04 09:03 off999

电信宽带测速官网入口(电信宽带测速官网入口app)

这个网站看看http://www.swok.cn/pcindex.jsp1.登录中国电信网上营业厅,宽带光纤,贴心服务,宽带测速2.下载第三方软件,如360等。进行在线测速进行宽带测速时,尽...

植物大战僵尸95版手机下载(植物大战僵尸95 版下载)

1可以在应用商店或者游戏平台上下载植物大战僵尸95版手机游戏。2下载教程:打开应用商店或者游戏平台,搜索“植物大战僵尸95版”,找到游戏后点击下载按钮,等待下载完成即可安装并开始游戏。3注意:确...

免费下载ppt成品的网站(ppt成品免费下载的网站有哪些)

1、Chuangkit(chuangkit.com)直达地址:chuangkit.com2、Woodo幻灯片(woodo.cn)直达链接:woodo.cn3、OfficePlus(officeplu...

2025世界杯赛程表(2025世界杯在哪个国家)

2022年卡塔尔世界杯赛程公布,全部比赛在卡塔尔境内8座球场举行,2022年,决赛阶段球队全部确定。揭幕战于当地时间11月20日19时进行,由东道主卡塔尔对阵厄瓜多尔,决赛于当地时间12月18日...

下载搜狐视频电视剧(搜狐电视剧下载安装)

搜狐视频APP下载好的视频想要导出到手机相册里方法如下1、打开手机搜狐视频软件,进入搜狐视频后我们点击右上角的“查找”,找到自已喜欢的视频。2、在“浏览器页面搜索”窗口中,输入要下载的视频的名称,然后...

pubg免费下载入口(pubg下载入口官方正版)
  • pubg免费下载入口(pubg下载入口官方正版)
  • pubg免费下载入口(pubg下载入口官方正版)
  • pubg免费下载入口(pubg下载入口官方正版)
  • pubg免费下载入口(pubg下载入口官方正版)
永久免费听歌网站(丫丫音乐网)

可以到《我爱音乐网》《好听音乐网》《一听音乐网》《YYMP3音乐网》还可以到《九天音乐网》永久免费听歌软件有酷狗音乐和天猫精灵,以前要跳舞经常要下载舞曲,我从QQ上找不到舞曲下载就从酷狗音乐上找,大多...

音乐格式转换mp3软件(音乐格式转换器免费版)

有两种方法:方法一在手机上操作:1、进入手机中的文件管理。2、在其中选择“音乐”,将显示出手机中的全部音乐。3、点击“全选”,选中所有音乐文件。4、点击屏幕右下方的省略号图标,在弹出菜单中选择“...

电子书txt下载(免费的最全的小说阅读器)

1.Z-library里面收录了近千万本电子书籍,需求量大。2.苦瓜书盘没有广告,不需要账号注册,使用起来非常简单,直接搜索预览下载即可。3.鸠摩搜书整体风格简洁清晰,书籍资源丰富。4.亚马逊图书书籍...

最好免费观看高清电影(播放免费的最好看的电影)

在目前的网上选择中,IMDb(互联网电影数据库)被认为是最全的电影网站之一。这个网站提供了各种类型的电影和电视节目的海量信息,包括剧情介绍、演员表、评价、评论等。其还提供了有关电影制作背后的详细信息,...

孤单枪手2简体中文版(孤单枪手2简体中文版官方下载)

要将《孤胆枪手2》游戏的征兵秘籍切换为中文,您可以按照以下步骤进行操作:首先,打开游戏设置选项,通常可以在游戏主菜单或游戏内部找到。然后,寻找语言选项或界面选项,点击进入。在语言选项中,选择中文作为游...

取消回复欢迎 发表评论: