百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python完美采集某宝数据,到底A和B哪个是YYDS?(附源代码)

off999 2024-12-16 15:20 20 浏览 0 评论

目录


前言


准备


分析(x0)


分析(x1)


分析(x2)


分析(x3)


分析(x4)


总结


我有话说




前言


大家好,我叫善念。不说漂亮话,直接开始今天要采集的目标:某宝数据


今天要采用的方式是selenium自动化工具。


简单说下selenium的原理——利用网页元素控制浏览器。


准备


安装selenium模块:


pip install selenium



我采用的是利用selenium控制Chrome浏览器,所以咱们需要下载一个selenium与Chrome的桥梁——Chromedriver插件


下载地址


?


下载与你当前谷歌浏览器版本最相近的Chromedriver

?


那么像我的话,下载

? 即可。


Windows系统需下载32位,其它的自己看着办。点进去下载win32即可。


那么如何让Python与selenium连接起来呢,这里咱们需要配置一个环境变量,就是把Python与selenium处于同一个目录:


?


到此为止,咱们的环境就搭建好了。


分析(x0)


登录篇


谈谈selenium与requests的区别:


selenium:操控网页元素,模拟人去控制浏览器,放弃与底层协议的交互,控制于客户端表面(速度慢)


requests:模拟客户端向服务器发送协议请求,处于底层协议的交互。(速度快)


既然是模拟人去控制浏览器就好说了,想要采集某个网站第一步是做什么?


实例化一款需要被控制的浏览器,然后打开该网址:


from selenium import webdriver
driver = webdriver.Chrome()
driver.get('http://www.taobao.com')


?


然后在输入框中输入咱们需要查找的商品,再点击搜索即可。


咱们今天重点利用到的为xpath网页元素定位法,通过xpath语法去定位元素的位置,因为程序不是人,人可以肉眼知道哪里是输入框,哪里是按钮。而程序需要咱们去告诉它,给它制定位置。


# 输入Python
driver.find_element_by_id('q').send_keys('python')
# 点击搜索
driver.find_element_by_class_name('btn-search').click()



?


定位的方法很多,我这里两句代码用到的是为id定位和类名定位。


?



最后在停留在登录界面:

?


咱们采用扫码登录。


既然是这样子做的话,势必会需要一个时间供给你去登录,有人会采用延迟的方式,但是我不建议这样做。


因为延迟的时间不一定就能保证你刚好可以登录完,多了时间少了时间对咱们都不友好。少了时间还没登录上,程序就跑到别的地方去了报错了。多了时间你也懒得等。


所以在此之前咱们程序加上一行


input('扫码完成后请按Enter键')



这样子做的话,咱们可以人为的控制时间。最终登录完成。


分析(x1)


数据的提取


?


登录上去后可以看到很多的商品信息,咱们要采集的就是......都采集下来吧,什么图片、销量、地址、标题啥的


前面咱们提到了通过元素进行输入框自动输入、按钮点击。那么现在要做的就是通过元素定位去采集咱们想要的数据。


分析(x2)


?


通过元素分析我们可以发现,这里的每一个DIV标签都保存了一个商品的信息,而前面三个class属性略有不同。应该是他们自费的一个广告商品吧,排名指定的那种。


简单分析了一下可以看到第三个商品的图片地址在img标签的src中:


?


然后第47个商品的信息却不完善:

?


可以很清楚地发现这个商品的src的图片链接是不正常的,是没有图片的。


这个是为什么呢?还记得我前面文章(某音视频采集)讲到过的动态加载、瀑布流吗?当我们的滑动条往下滑的时候下面的数据才会加载出来,像瀑布一样地流出来。


所以如果我们想要采集到所有的商品图片,那么咱们就需要把这个下滑条往下面拉动 ,如何利用selenium控制这个下滑条往下面拉动呢?


    for x in range(1, 11, 2):

        time.sleep(0.5)
        j = x/10

        js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % j
        driver.execute_script(js)



每停顿0.5S的时间,拉动下滑条的十分之三的位置。

?


登录成功后按一下enter键,代码就会跳到下拉滑块的位置,执行下拉。


分析(x3)


数据都加载出来了后,咱们只管采集就好啦。采集的规则利用的是xpath定位法,这里我不做过多讲解。看我代码然后自己分析一下。


lis = driver.find_elements_by_xpath('//div[@class="items"]/div[@class="item J_MouserOnverReq  "]')
for li in lis:
    info = li.find_element_by_xpath('.//div[@class="row row-2 title"]').text
    price = li.find_element_by_xpath('.//a[@class="J_ClickStat"]').get_attribute('trace-price') + '元'
    deal = li.find_element_by_xpath('.//div[@class="deal-cnt"]').text
    image = li.find_element_by_xpath('.//div[@class="pic"]/a/img').get_attribute('src')
    name = li.find_element_by_xpath('.//div[@class="shop"]/a/span[2]').text
    position = li.find_element_by_xpath('.//div[@class="row row-3 g-clearfix"]/div[@class="location"]').text
    print(info + '|' + price + '|' + deal + '|' + name + '|' + image + '|' + position)


效果:


?



到此为止咱们第一页的商品数据已经采集下来了,那么如何采集所有页码的数据呢?


分析(x4)


在采集所有页码数据之前咱们先需要考虑的是什么?是这个商品总共有多少页吧?也许这个商品三十页,另一个商品100页,对不对?


而这个商品总页码在哪里看?

?


在哪里看咱们知道了,那么什么时候去采集到这个页码数呢?是不是当我们登录了之后就可以看到这个页码数了呀?那么咱们登录之后先把页码数采集下来!


token = driver.find_element_by_xpath('//*[@id="mainsrp-pager"]/div/div/div/div[1]')
token = token.text
token = int(re.compile('(\d+)').search(token).group(1))



最后就剩下如何进入下一页了,我经常提到的,看网页的url是否会发生什么变化。


?


url中一堆混乱看不懂?看我以前文章经常给你提到的参数冗余,看不懂先删掉,看下第二页的url:


?


再看第一页:


?


就s这个步长发生了变化吧,0-44就是说翻一页步长为44吧,构造下url:


for i in range(token-1):
    url = https://s.taobao.com/search?q={}&s={}'.format('python', 44 * num)



总结


不要觉得莫名其妙就写总结了,事实上是咱们已经把整个过程分析完了。


思路:进入网站——登录——采集到页码数——下拉滑块条——采集数据——翻页——下拉滑块条——采集数据——翻页......


搭配视频教程



我有话说


—— 爱一路艰辛,一路仁至义尽。


文章的话是现写的,每篇文章我都会说的很细致,所以花费的时间比较久,一般都是两个小时以上。每一个赞与评论收藏都是我每天更新的动力。


原创不易,再次谢谢大家的支持。


① 2000多本Python电子书(主流和经典的书籍应该都有了)


② Python标准库资料(最全中文版)


③ 项目源码(四五十个有趣且经典的练手项目及源码)


④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习)


⑤ Python学习路线图(告别不入流的学习)


私信小编01即可获取大量Python学习资源


相关推荐

阿里云国际站ECS:阿里云ECS如何提高网站的访问速度?

TG:@yunlaoda360引言:速度即体验,速度即业务在当今数字化的世界中,网站的访问速度已成为决定用户体验、用户留存乃至业务转化率的关键因素。页面加载每延迟一秒,都可能导致用户流失和收入损失。对...

高流量大并发Linux TCP性能调优_linux 高并发网络编程

其实主要是手里面的跑openvpn服务器。因为并没有明文禁p2p(哎……想想那么多流量好像不跑点p2p也跑不完),所以造成有的时候如果有比较多人跑BT的话,会造成VPN速度急剧下降。本文所面对的情况为...

性能测试100集(12)性能指标资源使用率

在性能测试中,资源使用率是评估系统硬件效率的关键指标,主要包括以下四类:#性能测试##性能压测策略##软件测试#1.CPU使用率定义:CPU处理任务的时间占比,计算公式为1-空闲时间/总...

Linux 服务器常见的性能调优_linux高性能服务端编程

一、Linux服务器性能调优第一步——先搞懂“看什么”很多人刚接触Linux性能调优时,总想着直接改配置,其实第一步该是“看清楚问题”。就像医生看病要先听诊,调优前得先知道服务器“哪里...

Nginx性能优化实战:手把手教你提升10倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!Nginx是大型架构而核心,下面我重点详解Nginx性能@mikechen文章来源:mikechen.cc1.worker_processe...

高并发场景下,Spring Cloud Gateway如何抗住百万QPS?

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。高并发场景下网关作为流量的入口非常重要,下面我重点详解SpringCloudGateway如何抗住百万性能@m...

Kubernetes 高并发处理实战(可落地案例 + 源码)

目标场景:对外提供HTTPAPI的微服务在短时间内收到大量请求(例如每秒数千至数万RPS),要求系统可弹性扩容、限流降级、缓存减压、稳定运行并能自动恢复。总体思路(多层防护):边缘层:云LB...

高并发场景下,Nginx如何扛住千万级请求?

Nginx是大型架构的必备中间件,下面我重点详解Nginx如何实现高并发@mikechen文章来源:mikechen.cc事件驱动模型Nginx采用事件驱动模型,这是Nginx高并发性能的基石。传统...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

Docker-基础操作_docker基础实战教程二

一、镜像1、从仓库获取镜像搜索镜像:dockersearchimage_name搜索结果过滤:是否官方:dockersearch--filter="is-offical=true...

你有空吗?跟我一起搭个服务器好不好?

来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。昨天闲的没事的时候,随手翻了翻写过的文章,发现一个很严重的问题。就是大多数时间我都在滔滔不绝的讲理论,却很少有涉及动手...

部署你自己的 SaaS_saas如何部署

部署你自己的VPNOpenVPN——功能齐全的开源VPN解决方案。(DigitalOcean教程)dockovpn.io—无状态OpenVPNdockerized服务器,不需要持久存储。...

Docker Compose_dockercompose安装

DockerCompose概述DockerCompose是一个用来定义和管理多容器应用的工具,通过一个docker-compose.yml文件,用YAML格式描述服务、网络、卷等内容,...

京东T7架构师推出的电子版SpringBoot,从构建小系统到架构大系统

前言:Java的各种开发框架发展了很多年,影响了一代又一代的程序员,现在无论是程序员,还是架构师,使用这些开发框架都面临着两方面的挑战。一方面是要快速开发出系统,这就要求使用的开发框架尽量简单,无论...

Kubernetes (k8s) 入门学习指南_k8s kubeproxy

Kubernetes(k8s)入门学习指南一、什么是Kubernetes?为什么需要它?Kubernetes(k8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。它...

取消回复欢迎 发表评论: