百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python开发爬虫的常用技术架构(python爬虫技术深入理解原理技术与开发电子档)

off999 2024-10-26 12:11 54 浏览 0 评论

爬虫(Web Crawler 或 Web Spider)是一种自动化程序,用于浏览互联网上的网页,并根据一定的规则自动抓取网页内容。爬虫的主要功能是从一个或多个起始网址开始,通过解析网页内容找到新的链接,然后继续访问这些新链接,从而遍历整个网站或者互联网的一部分。爬虫广泛应用于搜索引擎、数据挖掘、信息检索等领域。

1 基础知识

互联网上用来发布信息主要有两种,一种是基于WEB浏览器的网页,还有一种是基于各类操作系统平台的客户端应用。

因为WEB发展迅速,相关通讯协议基本都向HTTP靠齐,所以要获取信息HTTP需要有一定了解。而浏览器和WEB服务器作为主流使用HTTP协议通讯的客户端和服务端,也应该略有了解,便于识别哪些是合法访问,以及如何获得用户看到的数据。



另一部分基于Android、iOS、HarmonyOS、WIndows、Linux等操作系统的应用,这类则需要了解操作系统的SDK或者TCP/IP协议。对于一些私有协议,可以使用类似网络嗅探的方式去获取,可参考Wireshark、Winpcap之类的软件产品或者开发库。而对于大部分应用基本还是基于HTTP的协议。




如果要加快采集、分析、存储数据的速度,需要并行计算。所以线程、进程的概念要有一定的掌握。另外python提供了异步机制,能很好的解耦各个阶段的实现逻辑,所以异步机制和异步编程框架要有了解。包括asyncio和twist框架,如:

import asyncio

async def read_file(file_path):
    with open(file_path, 'r') as f:
        return f.read()

async def main():
    file_content = await read_file('example.txt')
    print(file_content)

asyncio.run(main())

获取数据

python3对http的库有内置的urllib,也有第外部组件库urllib3、request。可以较方便地通过url访问http服务。期中request会默认管理http头和cookie,urllib3则不会,使用中要特别注意下(可能相同的url,有不同的返回值)。

import sys  
  
def test_urllib(url):
    import urllib.request
    targetUrl = 'https://www.baidu.com'

    if url is not None and url.startswith('http'):
        targetUrl = url

    print(targetUrl)

    response = urllib.request.urlopen(targetUrl)
    html = response.read()
    print(html)

def test_urllib3(url):
    import urllib3
    targetUrl = 'https://www.baidu.com'

    if url is not None and url.startswith('http'):
        targetUrl = url

    http = urllib3.PoolManager()
    response = http.request('GET', targetUrl)
    html = response.data
    print(html)

print(len(sys.argv))

for i, arg in enumerate(sys.argv):
    print(f"{i}: {arg}")
    url = arg
    if url is not None and url.startswith('http'):
        test_urllib(arg)
        test_urllib3(arg)

对于一些非http协议的,需要个案考虑。这里不展开,但是可考虑一个并行框架twist,可帮助管理并发任务,提高开发效率。例如我们可以用twsit很轻松开发一个client和sever程序。

# server.py
from twisted.internet import protocol, reactor
from twisted.protocols import basic

class Echo(basic.LineReceiver):
    def connectionMade(self):
        self.sendLine(b'Welcome to the Twisted Echo Server!')

    def lineReceived(self, line):
        self.sendLine(line)  # Echo back the received line

class EchoFactory(protocol.Factory):
    def buildProtocol(self, addr):
        return Echo()

if __name__ == '__main__':
    port = 8000
    reactor.listenTCP(port, EchoFactory())
    print(f'Server running on port {port}...')
    reactor.run()

# client.py
from twisted.internet import reactor, protocol
from twisted.protocols import basic

class EchoClient(basic.LineReceiver):
    def connectionMade(self):
        self.sendLine(b'Hello, Server!')

    def lineReceived(self, line):
        print(f'Received from server: {line.decode()}')
        self.transport.loseConnection()  # Close the connection after receiving data

class EchoClientFactory(protocol.ClientFactory):
    protocol = EchoClient

    def clientConnectionFailed(self, connector, reason):
        print(f'Connection failed: {reason}')
        reactor.stop()

    def clientConnectionLost(self, connector, reason):
        print(f'Connection lost: {reason}')
        reactor.stop()

if __name__ == '__main__':
    server_address = 'localhost'
    server_port = 8000
    factory = EchoClientFactory()
    reactor.connectTCP(server_address, server_port, factory)
    reactor.run()


分析数据

这里不赘述,可按照思维导图的关键字,借助aigc工具逐个学习。特别关注下xml、json解析器,在爬虫的日常工作中,这些必不可少。

存储数据

存储数据到文件可关注二进制文件,例如图片、音乐、视频等,以及办公软件如excel、word,ppt等,还有常规的标准格式文件xml和json。

数据库方面可重点掌握sqlalchemy。当然也可以直接选择与mysql、redis、mongodb匹配的库。都可组织语言问问AIGC

爬虫进阶

爬虫涉及到的技术点较多,需要分析通讯协议和模拟运行环境,甚至还要破解一些安全手段(如验证码)等。这里可重点关注端侧的模拟工具,如selenium,appnium。另外对于中继这类也很重要,学习使用fiddler之类有助于分析通讯协议,和明确数据获取的目的。

使用框架

总体来说框架的选择较简单,因为scrapy发展的很好。但是如果只是小试牛刀,可以考虑简单的框架,如crawley,他提供了界面,管理爬虫。



参考资料

  1. Wireshark https://www.wireshark.org/
  2. WinPcap https://www.winpcap.org/
  3. Http https://www.rfc-editor.org/rfc/rfc2616.pdf
  4. 文小言、bito、豆包

相关推荐

系统小说排行榜完本经典之作

超级兑换系统超级修仙超级客栈系统貌似高手在异界重生之修仙系统超级修仙系统异界之兑换成圣(贱圣VS奸神)+超级兑换(火山飞狐)+穿越之无敌兑换(开心小帅)+兑换器修仙(轻舞流芒)+...

手机能修复u盘吗(手机修复u盘工具下载)

1.在手机上可以恢复u盘,当手机SD卡或U盘插入电脑中时,如果提示“文件或目录损坏且无法读取”的信息时,我们首先需要对手机SD卡或U盘进行目录修复操作。插入待修复的U盘,打开“我的电脑”,找到Sd卡...

怎么查电脑显卡的信息(电脑怎么查看显卡信息)

要查看电脑的显卡信息,可以按照以下步骤进行操作:1.使用快捷键Win+R打开“运行”对话框。2.在运行对话框中输入“dxdiag”并点击“确定”按钮,打开“DirectX诊断工具”。3....

电脑上找不到输入法怎么办(电脑中找不到输入法)

如果电脑上不显示输入法,您可以尝试以下解决方法:1.检查输入法设置:首先,您可以检查电脑的输入法设置。在Windows系统中,您可以点击任务栏右下角的输入法图标(一般为字母或语言标志),然后选择“显...

win10系统本地连接在哪里(window10的本地连接在哪)

要找到本地连接,可以按照以下步骤在Windows10系统中进行:1.点击“开始”菜单,然后选择“设置”(齿轮图标)。2.在设置窗口中选择“网络和Internet”选项。3.在“网络和Inter...

win10有32位版本吗(win10还有32位的吗)

64位版本好。32位的操作系统处理数据的能力较慢,支持的内存小,并且只支持基于32位的软件,不能运行64位的软件。64位的操作系统处理数据的能力较快,支持的内存较大,能运行32位的软件,也能运行6...

pdf打印机下载(pdf打印机安装程序下载)
  • pdf打印机下载(pdf打印机安装程序下载)
  • pdf打印机下载(pdf打印机安装程序下载)
  • pdf打印机下载(pdf打印机安装程序下载)
  • pdf打印机下载(pdf打印机安装程序下载)
账号密码大全真的(各种账号密码)

英雄号,是4399官方版本的账号:1973024549密码:123456这是自己的,不想玩了,送给看到的有缘人吧^o^1、默认的机顶盒密码6321,也可以进行更改,方法:首先,通过搜索“中国电信”...

windows server2019(windowsserver2019密钥激活码)

WindowsServer2019那是给服务器用的系统。服务器的作用是计算数据,而不是图像处理。所以WindowsServer2019里面精简了大量有关图形的功能。办公和打游戏是需要图像处理的...

一键还原系统怎么卸载(一键还原系统软件怎么用)

打开控制面板,点击“系统”,再点击“高级系统设置”,再点“高级”标签,再点“启动和故障恢复”里的“设置”,,出来新对话框,把“默认操作系统“选到”WIN10,然后下面的”显示操作系统列表的时间“选到0...

电脑装两个系统好不好(电脑装两个系统好不好用)

安装双系统的好处是根据应用不同,可以选用不同的操作系统,坏处是每次开机后都要对操作系统进行选择,否则就会进入默认操作系统1苹果电脑装双系统是不错的选择。2装双系统可以让用户在同一台电脑上同时运行不...

office2010以上版本(office2010各版本区别)

该版本不是最高的,但是可以满足日常办公,放心使用。DOC文件只有WORD能打开,估计你用的版本不是正版或有什么问题,请参考:microsoftoffice软件是装了高版本软件就自动卸载(或覆盖,建议...

强制申诉qq成功人工客服(qq申诉人工秒成功 客服电话)

QQ密码申诉结果,一般会在4小时内发到用户的联系邮箱。帐号申诉,是指通过提交个人资料及帐号使用信息,来证明用户是帐号主人的方式。申诉成功后可修改密码或密保。申诉结果一般会在4小时内发到用户的联系邮箱。...

google框架一键安装(谷歌框架三件套一键安装)

一加手机自带手机框架,需要下载Play商店激活。1、google服务框架是可以在系统软件里面可以删除的一个APK程序,但现在有很多的软件和游戏需要谷歌服务的支持,如果没有安装或者又删除系统软件的朋友可...

office2010家庭和学生版密钥

1.MicrosoftExcel2010家庭版的产品密钥是需要购买正版软件时提供的一串字符序列。2.这是为了确保用户使用正版软件,并且能够享受到软件的全部功能和服务。3.为了获得Micros...

取消回复欢迎 发表评论: