百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python爬取新闻网站保存标题、内容、日期、图片等数据

off999 2024-11-22 19:03 22 浏览 0 评论

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

基本开发环境

  • Python 3.6
  • Pycharm
import requests
import parsel
import pdfkit
import csv
import threading

相关模块pip安装即可

确定目标网页


获取数据

  • 标题
  • 内容 保存成PDF
  • 日期
  • 图片 保存本地
  • 详情页url、日期、图片地址等等 保存csv


网站是静态网页,没有什么难度



详情页

同样是静态页面




网页源代码已经说明数据在什么地方了,利用相关的解析工具,对网页数据进行解析即可。

代码实现

  • 请求网页以及解析
def get_html(html_url):
    response = requests.get(url=html_url, headers=headers)
    return response

def get_pars(html_data):
    selector = parsel.Selector(html_data)
    return selector

  • 保存内容 PDF格式
html_str = """
<!doctype html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Document</title>
</head>
<body>
{article}
</body>
</html>
"""
def save_article(article, title):
    html_path = '重庆新闻\\' + title + '.html'
    pdf_path = '重庆新闻pdf\\' + title + '.pdf'
    html = html_str.format(article=article)
    with open(html_path, mode='w', encoding='utf-8') as f:
        f.write(html)
        print('{}已下载完成'.format(title))
    # exe 文件存放的路径
    config = pdfkit.configuration(wkhtmltopdf='C:\\Program Files\\wkhtmltopdf\\bin\\wkhtmltopdf.exe')
    # 把 html 通过 pdfkit 变成 pdf 文件
    pdfkit.from_file(html_path, pdf_path, configuration=config)

  • 保存csv文件
f = open('新闻.csv', mode='a', encoding='utf-8-sig', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['标题', '作者', '日期', '新闻详情页'])
csv_writer.writeheader()

  • 保存图片
def save_img(img_urls):
    for i in img_urls:
        img_url = 'http://news.cqu.edu.cn' + i
        img_content = get_html(img_url).content
        img_name = img_url.split('/')[-1]
        with open('新闻图片\\' + img_name, mode='wb') as f:
            f.write(img_content)

  • 主函数
def main(url):
    html_data = get_html(url).text
    selector = get_pars(html_data)
    lis = selector.css('body > div:nth-child(4) > div > div.lists .title a::attr(href)').getall()
    for li in lis:
        content_data = get_html(li).text
        li_selector = get_pars(content_data)
        title = li_selector.css('.dtitle::text').get()  # 新闻标题
        article = li_selector.css('.acontent').get()  # 新闻内容
        name_list = li_selector.css('.dinfoa a::text').getall()  # 作者
        name = '|'.join(name_list)
        date_list = li_selector.css('.ibox span::text').getall()
        date_str = ''.join(date_list)  # 新闻日期
        img_urls = li_selector.css('.acontent p img::attr(src)').getall()   # 获取新闻内图片
        dit = {
            '标题': title,
            '作者': name,
            '日期': date_str,
            '新闻详情页': li,
        }
        csv_writer.writerow(dit)
        save_article(article, title)
        save_img(img_urls)

if __name__ == '__main__':
    for page in range(1, 11):
        url = 'https://news.cqu.edu.cn/newsv2/news-127.html?&page={}'.format(page)
        main_thread = threading.Thread(target=main, args=(url,))
        main_thread.start()


  • 文件PDF



  • 详情页url
  • 相关图片

图片可以按照标题后缀数字123命名,这个地方可以优化



  • csv文件数据


完整代码

import requests
import parsel
import pdfkit
import csv
import threading

f = open('新闻.csv', mode='a', encoding='utf-8-sig', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['标题', '作者', '日期', '新闻详情页'])
csv_writer.writeheader()

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}

html_str = """
<!doctype html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Document</title>
</head>
<body>
{article}
</body>
</html>
"""

def get_html(html_url):
    response = requests.get(url=html_url, headers=headers)
    return response

def get_pars(html_data):
    selector = parsel.Selector(html_data)
    return selector

def save_article(article, title):
    html_path = '重庆新闻\\' + title + '.html'
    pdf_path = '重庆新闻pdf\\' + title + '.pdf'
    html = html_str.format(article=article)
    with open(html_path, mode='w', encoding='utf-8') as f:
        f.write(html)
        print('{}已下载完成'.format(title))
    # exe 文件存放的路径
    config = pdfkit.configuration(wkhtmltopdf='C:\\Program Files\\wkhtmltopdf\\bin\\wkhtmltopdf.exe')
    # 把 html 通过 pdfkit 变成 pdf 文件
    pdfkit.from_file(html_path, pdf_path, configuration=config)

def save_img(img_urls):
    for i in img_urls:
        img_url = 'http://news.cqu.edu.cn' + i
        img_content = get_html(img_url).content
        img_name = img_url.split('/')[-1]
        with open('新闻图片\\' + img_name, mode='wb') as f:
            f.write(img_content)

def main(url):
    html_data = get_html(url).text
    selector = get_pars(html_data)
    lis = selector.css('body > div:nth-child(4) > div > div.lists .title a::attr(href)').getall()
    for li in lis:
        content_data = get_html(li).text
        li_selector = get_pars(content_data)
        title = li_selector.css('.dtitle::text').get()  # 新闻标题
        article = li_selector.css('.acontent').get()  # 新闻内容
        name_list = li_selector.css('.dinfoa a::text').getall()  # 作者
        name = '|'.join(name_list)
        date_list = li_selector.css('.ibox span::text').getall()
        date_str = ''.join(date_list)  # 新闻日期
        img_urls = li_selector.css('.acontent p img::attr(src)').getall()   # 获取新闻内图片
        dit = {
            '标题': title,
            '作者': name,
            '日期': date_str,
            '新闻详情页': li,
        }
        csv_writer.writerow(dit)
        save_article(article, title)
        save_img(img_urls)

if __name__ == '__main__':
    for page in range(1, 11):
        url = 'https://news.cqu.edu.cn/newsv2/news-127.html?&page={}'.format(page)
        main_thread = threading.Thread(target=main, args=(url,))

相关推荐

阿里云国际站ECS:阿里云ECS如何提高网站的访问速度?

TG:@yunlaoda360引言:速度即体验,速度即业务在当今数字化的世界中,网站的访问速度已成为决定用户体验、用户留存乃至业务转化率的关键因素。页面加载每延迟一秒,都可能导致用户流失和收入损失。对...

高流量大并发Linux TCP性能调优_linux 高并发网络编程

其实主要是手里面的跑openvpn服务器。因为并没有明文禁p2p(哎……想想那么多流量好像不跑点p2p也跑不完),所以造成有的时候如果有比较多人跑BT的话,会造成VPN速度急剧下降。本文所面对的情况为...

性能测试100集(12)性能指标资源使用率

在性能测试中,资源使用率是评估系统硬件效率的关键指标,主要包括以下四类:#性能测试##性能压测策略##软件测试#1.CPU使用率定义:CPU处理任务的时间占比,计算公式为1-空闲时间/总...

Linux 服务器常见的性能调优_linux高性能服务端编程

一、Linux服务器性能调优第一步——先搞懂“看什么”很多人刚接触Linux性能调优时,总想着直接改配置,其实第一步该是“看清楚问题”。就像医生看病要先听诊,调优前得先知道服务器“哪里...

Nginx性能优化实战:手把手教你提升10倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!Nginx是大型架构而核心,下面我重点详解Nginx性能@mikechen文章来源:mikechen.cc1.worker_processe...

高并发场景下,Spring Cloud Gateway如何抗住百万QPS?

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。高并发场景下网关作为流量的入口非常重要,下面我重点详解SpringCloudGateway如何抗住百万性能@m...

Kubernetes 高并发处理实战(可落地案例 + 源码)

目标场景:对外提供HTTPAPI的微服务在短时间内收到大量请求(例如每秒数千至数万RPS),要求系统可弹性扩容、限流降级、缓存减压、稳定运行并能自动恢复。总体思路(多层防护):边缘层:云LB...

高并发场景下,Nginx如何扛住千万级请求?

Nginx是大型架构的必备中间件,下面我重点详解Nginx如何实现高并发@mikechen文章来源:mikechen.cc事件驱动模型Nginx采用事件驱动模型,这是Nginx高并发性能的基石。传统...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

Docker-基础操作_docker基础实战教程二

一、镜像1、从仓库获取镜像搜索镜像:dockersearchimage_name搜索结果过滤:是否官方:dockersearch--filter="is-offical=true...

你有空吗?跟我一起搭个服务器好不好?

来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。昨天闲的没事的时候,随手翻了翻写过的文章,发现一个很严重的问题。就是大多数时间我都在滔滔不绝的讲理论,却很少有涉及动手...

部署你自己的 SaaS_saas如何部署

部署你自己的VPNOpenVPN——功能齐全的开源VPN解决方案。(DigitalOcean教程)dockovpn.io—无状态OpenVPNdockerized服务器,不需要持久存储。...

Docker Compose_dockercompose安装

DockerCompose概述DockerCompose是一个用来定义和管理多容器应用的工具,通过一个docker-compose.yml文件,用YAML格式描述服务、网络、卷等内容,...

京东T7架构师推出的电子版SpringBoot,从构建小系统到架构大系统

前言:Java的各种开发框架发展了很多年,影响了一代又一代的程序员,现在无论是程序员,还是架构师,使用这些开发框架都面临着两方面的挑战。一方面是要快速开发出系统,这就要求使用的开发框架尽量简单,无论...

Kubernetes (k8s) 入门学习指南_k8s kubeproxy

Kubernetes(k8s)入门学习指南一、什么是Kubernetes?为什么需要它?Kubernetes(k8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。它...

取消回复欢迎 发表评论: