百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

python爬虫练习selenium+BeautifulSoup,爬b站搜索内容保存excel

off999 2024-12-01 02:18 25 浏览 0 评论

一、简介

前面文章已经介绍了selenium库使用,及浏览器提取信息相关方法。参考:python爬虫之selenium库

现在目标要求,用爬虫通过浏览器,搜索关键词,将搜索到的视频信息存储在excel表中。

二、创建excel表格,以及chrome驱动

n = 1
word = input('请输入要搜索的关键词:')
driver = webdriver.Chrome()
wait = WebDriverWait(driver,10)

excl = xlwt.Workbook(encoding='utf-8', style_compression=0)

sheet = excl.add_sheet('b站视频:'+word, cell_overwrite_ok=True)
sheet.write(0, 0, '名称')
sheet.write(0, 1, 'up主')
sheet.write(0, 2, '播放量')
sheet.write(0, 3, '视频时长')
sheet.write(0, 4, '链接')
sheet.write(0, 5, '发布时间')

三、创建定义搜索函数

里面有button_next 为跳转下一页的功能,之所有不用By.CLASS_NAME定位。看html代码可知

<button class="vui_button vui_pagenation--btn vui_pagenation--btn-side">下一页</button>

class名称很长,而且有空格,如果selenium用By.CLASS_NAME定位,有空格会报错:selenium.common.exceptions.NoSuchElementException: Message: no such element

所以这里用By.CSS_SELECTOR方法定位。

def search():
    driver.get("https://www.bilibili.com/")
    input = wait.until(EC.presence_of_element_located((By.CLASS_NAME, 'nav-search-input')))
    button = wait.until(EC.element_to_be_clickable((By.CLASS_NAME, 'nav-search-btn')))

    input.send_keys(word)
    button.click()
    print('开始搜索:'+word)
    windows = driver.window_handles
    driver.switch_to.window(windows[-1])
    get_source()
    #第1页跳转第2页
    button_next = driver.find_element(By.CSS_SELECTOR,'#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.flex_center.mt_x50.mb_x50 > div > div > button:nth-child(11)')
    wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.video-list.row > div:nth-child(1) > div > div.bili-video-card__wrap.__scale-wrap')))
    button_next.click()
    get_source()

四、定义跳转下一页函数

这里有调转下一页函数,那为什么在上面搜索函数也有下一页功能,因为分析代码。

#第2页的CSS_SELECTOR路径
#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.flex_center.mt_x50.mb_x50 > div > div > button:nth-child(11)

#后面页面的CSS_SELECTOR路径
#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.flex_center.mt_x50.mb_lg > div > div > button:nth-child(11)

第1页的CSS_SELECTOR和后面的页面的CSS_SELECTOR的不一样,所以把第1页跳第2页单独加在了上面搜索函数中。

def next_page():
    button_next = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.flex_center.mt_x50.mb_lg > div > div > button:nth-child(11)')))
    button_next.click()
    wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.video-list.row > div:nth-child(1) > div > div.bili-video-card__wrap.__scale-wrap')))
    get_source()

五、定义获取页面代码函数

上面定义的函数都有get_source()函数,这个函数就是现在需要创建的,用途获取页面代码,传入BeautifulSoup

def get_source():
    html = driver.page_source
    soup = BeautifulSoup(html, 'lxml')
    save_excl(soup)

六、获取元素并存到excel表

通过BeautifulSoup循环获取页面信息,并存到创建好的excel表中。

def save_excl(soup):
    list = soup.find(class_='video-list row').find_all(class_="bili-video-card")
    for item in list:
        # print(item)
        video_name = item.find(class_='bili-video-card__info--tit').text
        video_up = item.find(class_='bili-video-card__info--author').string
        video_date = item.find(class_='bili-video-card__info--date').string
        video_play = item.find(class_='bili-video-card__stats--item').text
        video_times = item.find(class_='bili-video-card__stats__duration').string
        video_link = item.find('a')['href'].replace('//', 'https://')
        print(video_name, video_up, video_play, video_times, video_link, video_date)

        global n

        sheet.write(n, 0, video_name)
        sheet.write(n, 1, video_up)
        sheet.write(n, 2, video_play)
        sheet.write(n, 3, video_times)
        sheet.write(n, 4, video_link)
        sheet.write(n, 5, video_date)

        n = n +1

七、定义main函数,循环获取跳转每一页

这里默认是10页的数据,后面就不获取了,可以自行调整页面数。最后保存表名。

def main():
    search()
    for i in range(1,10):
        next_page()
        i = i + 1
    driver.close()
if __name__ == '__main__':
    main()
    excl.save('b站'+word+'视频.xls')

八、最终代码执行效果

这里CSS_SELECTOR路径,我这里尽量的在最底层,所以比较长,因为短路径,经常性等待时间不够长,没有加载所有页面,提取不到信息而报错。

from selenium import webdriver
from selenium.webdriver.common.by import By
from bs4 import BeautifulSoup
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
import xlwt
import time

n = 1
word = input('请输入要搜索的关键词:')
driver = webdriver.Chrome()
wait = WebDriverWait(driver,10)

excl = xlwt.Workbook(encoding='utf-8', style_compression=0)

sheet = excl.add_sheet('b站视频:'+word, cell_overwrite_ok=True)
sheet.write(0, 0, '名称')
sheet.write(0, 1, 'up主')
sheet.write(0, 2, '播放量')
sheet.write(0, 3, '视频时长')
sheet.write(0, 4, '链接')
sheet.write(0, 5, '发布时间')

def search():
    driver.get("https://www.bilibili.com/")
    input = wait.until(EC.presence_of_element_located((By.CLASS_NAME, 'nav-search-input')))
    button = wait.until(EC.element_to_be_clickable((By.CLASS_NAME, 'nav-search-btn')))

    input.send_keys(word)
    button.click()
    print('开始搜索:'+word)
    windows = driver.window_handles
    driver.switch_to.window(windows[-1])
    wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,
                                               '#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.video.i_wrapper.search-all-list')))
    get_source()
    print('开始下一页:')
    button_next = driver.find_element(By.CSS_SELECTOR,
                                      '#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.flex_center.mt_x50.mb_x50 > div > div > button:nth-child(11)')
    button_next.click()
    #time.sleep(2)
    wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.video-list.row > div:nth-child(1) > div > div.bili-video-card__wrap.__scale-wrap > div > div > a > h3')))
    get_source()
    print("完成")

def next_page():
    button_next = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,
                                      '#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.flex_center.mt_x50.mb_lg > div > div > button:nth-child(11)')))
    button_next.click()
    print("开始下一页")
    #time.sleep(5)
    wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,
                                               '#i_cecream > div > div:nth-child(2) > div.search-content > div > div > div.video-list.row > div:nth-child(1) > div > div.bili-video-card__wrap.__scale-wrap > div > div > a > h3')))
    get_source()
    print("完成")
    
def save_excl(soup):
    list = soup.find(class_='video-list row').find_all(class_="bili-video-card")
    for item in list:
        # print(item)
        video_name = item.find(class_='bili-video-card__info--tit').text
        video_up = item.find(class_='bili-video-card__info--author').string
        video_date = item.find(class_='bili-video-card__info--date').string
        video_play = item.find(class_='bili-video-card__stats--item').text
        video_times = item.find(class_='bili-video-card__stats__duration').string
        video_link = item.find('a')['href'].replace('//', 'https://')
        print(video_name, video_up, video_play, video_times, video_link, video_date)

        global n

        sheet.write(n, 0, video_name)
        sheet.write(n, 1, video_up)
        sheet.write(n, 2, video_play)
        sheet.write(n, 3, video_times)
        sheet.write(n, 4, video_link)
        sheet.write(n, 5, video_date)

        n = n +1
        
def get_source():
    html = driver.page_source
    soup = BeautifulSoup(html, 'lxml')
    save_excl(soup)
    
def main():
    search()
    for i in range(1,10):
        next_page()
        i = i + 1
    driver.close()
    
if __name__ == '__main__':
    main()
    excl.save('b站'+word+'视频.xls')

执行输入MV执行结果:

在文件夹也生成了excel文件表

打开,信息保存完成

同理,输入其他关键词,也可以。

以上,简单爬取搜索信息就完成了,如果要在服务器上隐藏运行,参考我上篇文章:python爬虫之selenium库

相关推荐

手机双系统怎么切换(oppo手机双系统怎么切换)

realmeQ3有系统分身功能打开设置,直接到搜索栏搜索系统分身并开启,就可以开启系统分身功能了,设置系统分身时会请用户另外设置一个不同于主系统的密码,锁屏后解锁时输入主系统密码进入主系统,输入分身...

ie10浏览器官网入口(ie8_11浏览器官网)

在Windows10系统中,您可以按照以下步骤找到InternetExplorer(IE)浏览器:1.点击左下角的“开始”按钮。2.在弹出的菜单中,选择“设置”。3.在“系统”选项卡中,...

win10安装版非ghost(u盘安装win10非ghost)

建议不要在DOS环境下进行分区,这样的技术其实已经很久没有更新了,比如盘符显示乱码等等等等。建议进入PE环境进行分区操作,这样在引导错误时能够有专门的工具修复。我在此强力建议不要使用GHOST系统,虽...

win10关闭自动更新方法联想(联想笔记本关闭win10自动更新)

方法一鼠标单击左下角的开始菜单,选择设置;点击更新和安全;在默认界面,点击右侧的高级选项;将更新选项与更新通知下的所有选项关闭即可。方法二鼠标右键单击此电脑,选择管理;进入计算机管理界面,点击展开“服...

改wifi密码的网址(wifi改密码网站)

WiFi官方密码忘记了,用手机修改的话需要有相关的软件账号的登录才行,否则的话是无法登录进去进行密码的修改的,此外如果这个WiFi的话不是个人的WiFi应用,而是一个区域,或者说是平台的WiFi官方...

office2013激活工具免费(office2013激活工具哪个好用)
  • office2013激活工具免费(office2013激活工具哪个好用)
  • office2013激活工具免费(office2013激活工具哪个好用)
  • office2013激活工具免费(office2013激活工具哪个好用)
  • office2013激活工具免费(office2013激活工具哪个好用)
微星主板bios怎么进u盘装系统

一:首先将已经使用U启动软件制作好启动盘的U盘插入电脑主机后面的USB插口处,(注意:请不要用USB延长线来连接U盘,可能会造成无法读取U盘的情况!),然后开机启动计算机,待显示开机画面的时候连续按下...

电脑装机配置推荐(装机配置推荐2021)
  • 电脑装机配置推荐(装机配置推荐2021)
  • 电脑装机配置推荐(装机配置推荐2021)
  • 电脑装机配置推荐(装机配置推荐2021)
  • 电脑装机配置推荐(装机配置推荐2021)
windows运行启动项命令(windows如何启动运行)

1、鼠标右击“windows”键可以在其中找到“运行”栏。2、通过“运行”栏可以弹出窗口,在窗口中输入要运行的程序,比如命令行输入“cmd”。3、通过“cmd”即可进入windows命令行,在其中可以...

万能wifi钥匙手机版(万能wifi钥匙手机版 哪种比较好用)

就是通过WiFi万能钥匙,可以不用密码,连接室外的共享WIFI。最基本功能就是WiFi共享。一般的WiFi密码可以用万能钥匙解开,用之前要打开数据流量获取一下地理位置。WiFi万能钥匙并不万能,别再相...

如何更改电脑屏幕亮度(更改电脑屏幕亮度win10)
如何更改电脑屏幕亮度(更改电脑屏幕亮度win10)

系统:win71打开电脑,单击鼠标右键,出现菜单后,点击个性化2进入个性化,点击左下角的显示图标3进去显示页面,点击左侧的调整亮度4在下方有一个亮度调节条,鼠标左键按住调节条上面的框,向左拖,屏幕就会调暗,向右拖,屏幕就会调亮了。首先看一下...

2025-11-15 14:03 off999

cad2025破解版安装(cad2020破解下载)

中望cad2024安装步骤如下:关闭杀毒软件。下载软件并解压缩。解压后进入文件夹AutoCAD2024内,选中文件AutoCAD_2024_Simplified_Chinese_Win_64bit_...

十大免费cad网站(十大免费cad网站免费观看有风险)

1、CAD看图王这是一款非常专业的手机看图、DWG画图、CAD测量制图为一体的手机综合性绘图看图神器,全球累计用户超过3500多万,值得推荐下载!2、迅捷CAD看图迅捷CAD看图支持天正全系列的手机C...

老式联想台式电脑型号大全(老联想台式机主板型号有哪些)

有以下几款型号1、昭阳笔记本电脑针对行业客户设计的高品质笔记本电脑。高端、高性能的同时具备多重可信赖的安全保护方案。昭阳系列针对行业客户提供按需定制服务。2、旭日笔记本电脑联想旭日系列笔记本电脑是满足...

联想电脑官方售后维修服务网点

您可以通过联想官方网站的售后服务页面或者拨打联想客服热线进行售后维修网点查询。在官网上输入您所在的城市或地区,即可获得最近的维修网点信息。如果您有任何疑问,也可以直接致电联想客服热线,他们会为您提供详...

取消回复欢迎 发表评论: