百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

python入门-Day 26: 优化与调试(python优化方法)

off999 2025-07-21 17:08 47 浏览 0 评论

优化与调试,内容包括处理模型运行中的常见问题(内存、依赖)、调整参数(如最大生成长度),以及练习改进 Day 25 的文本生成结果。我会设计一个结构化的任务,帮助你掌握优化和调试技巧,同时提升模型性能。


任务目标

  • 学会识别和解决大语言模型运行中的常见问题(如内存不足、依赖冲突)。
  • 掌握调整参数以优化生成结果的方法。
  • 改进 Day 25 的 GPT-2 文本生成代码,提升输出质量和效率。

任务详情

1. 处理模型运行中的常见问题

问题 1:内存不足(Memory Issues)

  • 场景:在本地运行 GPT-2 时,可能会因内存不足(尤其在低配 Mac 上)导致崩溃。
  • 解决方法
  • 检查内存使用
  • python
  • import torch print("可用内存 (GB):", torch.cuda.memory_available() / 1e9 if torch.cuda.is_available() else "N/A") print("已用内存 (GB):", torch.cuda.memory_allocated() / 1e9 if torch.cuda.is_available() else "N/A")
    • 对于 M3 芯片,使用 MPS:
    • python
    • if torch.backends.mps.is_available(): print("MPS 设备可用")
  • 使用更小模型:将 gpt2 替换为 distilgpt2(参数从 124M 减到 82M):
  • python
  • generator = pipeline("text-generation", model="distilgpt2", device="mps" if torch.backends.mps.is_available() else "cpu")
  • 减少批量大小:避免一次生成多条文本(num_return_sequences=1)。
  • 任务
  • 运行 Day 25 的代码,观察内存是否溢出。
  • 替换为 distilgpt2,比较内存占用和运行速度。

问题 2:依赖冲突(Dependency Issues)

  • 场景:你之前遇到的 torchvision::nms 错误,源于 PyTorch 和 torchvision 版本不匹配。
  • 解决方法
  • 检查版本:
  • python
  • import torch import torchvision print("PyTorch:", torch.__version__) print("torchvision:", torchvision.__version__)
  • 更新依赖:
  • pip install torch==2.6.0 torchvision==0.21.0 transformers --force-reinstall
  • 或重建环境:
  • conda create -n pythonAI python=3.12 conda activate pythonAI pip install torch torchvision transformers
  • 任务
  • 运行检查版本的代码,记录结果。
  • 如果版本不匹配,更新依赖并验证 from transformers import pipeline 是否正常。

2. 调整参数优化生成结果

  • 任务要求:调整 GPT-2 的生成参数,提升文本连贯性和质量。
  • 关键参数
  • max_length:控制生成文本长度。
  • temperature:控制随机性(越高越随机,推荐 0.7-1.0)。
  • top_k:限制采样范围(推荐 50)。
  • num_beams:使用束搜索提升连贯性(推荐 2-4)。
  • 示例代码
  • python
  • from transformers import pipeline import torch device = "mps" if torch.backends.mps.is_available() else "cpu" generator = pipeline("text-generation", model="gpt2", device=device) prompt = "Once upon a time" result = generator(prompt, max_length=100, temperature=0.7, top_k=50, num_beams=2, num_return_sequences=1) print("优化后的生成文本:") print(result[0]["generated_text"])
  • 任务
  • 运行代码,观察生成的文本质量。
  • 调整以下参数,记录变化:
  • max_length: 50 vs 150
  • temperature: 0.5(更保守) vs 1.2(更随机)
  • top_k: 20 vs 100
  • num_beams: 1(无束搜索) vs 4

3. 练习:改进 Day 25 的生成结果

  • Day 25 原代码
  • python
  • from transformers import pipeline generator = pipeline("text-generation", model="gpt2") prompt = "Once upon a time" result = generator(prompt, max_length=50, num_return_sequences=1) print("生成文本:", result[0]["generated_text"])
  • 问题
  • 输出可能不连贯(例如突然中断或重复)。
  • 运行慢(未用 M3 的 MPS)。
  • 缺乏多样性或创意。
  • 改进代码
  • python
  • import time import torch from transformers import pipeline # 设置设备 device = "mps" if torch.backends.mps.is_available() else "cpu" print(f"使用设备: {device}") # 加载模型 start_time = time.time() generator = pipeline("text-generation", model="distilgpt2", device=device) print(f"模型加载耗时: {time.time() - start_time:.2f} 秒") # 输入提示词 prompt = "Once upon a time in a distant kingdom" # 生成文本 start_time = time.time() result = generator( prompt, max_length=100, # 增加长度,生成完整故事 temperature=0.8, # 适度随机性 top_k=40, # 限制词汇范围,提升连贯性 num_beams=4, # 束搜索改善质量 num_return_sequences=1, # 单条输出 no_repeat_ngram_size=2 # 避免重复短语 ) print(f"生成耗时: {time.time() - start_time:.2f} 秒") # 输出结果 print("改进后的生成文本:") print(result[0]["generated_text"])
  • 改进点
  • 使用 distilgpt2:更轻量,加载和推理更快。
  • 启用 MPS:利用 M3 的 GPU 加速。
  • 优化参数
  • max_length=100:生成更长的故事。
  • temperature=0.8:平衡创意和连贯性。
  • top_k=40:控制输出多样性。
  • num_beams=4:提升文本逻辑性。
  • no_repeat_ngram_size=2:防止短语重复。
  • 计时:监控性能。
  • 任务
  • 运行改进代码,比较与 Day 25 原输出的质量和速度。
  • 修改 prompt 为其他内容(例如 "In a futuristic city"),生成一段文字。
  • 调整参数,尝试生成至少 3 句话的连贯故事。
  • 挑战:如果输出仍不理想,添加 top_p=0.9(核采样),观察效果。

进阶挑战(可选)

  • 内存优化
  • 使用 torch.no_grad() 减少推理时的内存占用:
  • python
  • with torch.no_grad(): result = generator(prompt, max_length=100, num_beams=4)
  • 调试输出
  • 检查生成过程中的 token:
  • python
  • inputs = generator.tokenizer(prompt, return_tensors="pt").to(device) outputs = generator.model.generate(**inputs, max_length=100, num_beams=4) print("生成的 token:", outputs) print("解码文本:", generator.tokenizer.decode(outputs[0]))
  • 多设备兼容
  • 添加 CPU/GPU 切换逻辑,测试不同设备的性能。

学习成果

  • 完成任务后,你将:
  • 能识别和解决内存不足、依赖冲突等问题。
  • 掌握参数调整对生成结果的影响。
  • 改进 Day 25 的代码,生成更高质量的文本。

这个任务应该能帮助你深入理解模型优化和调试!如果运行中遇到问题(例如内存溢出或依赖错误),请告诉我具体错误,我会帮你解决。快试试吧!

相关推荐

Linux 网络协议栈_linux网络协议栈

前言;更多学习资料(包含视频、技术学习路线图谱、文档等)后台私信《资料》免费领取技术点包含了C/C++,Linux,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,Z...

揭秘 BPF map 前生今世_bpfdm

1.前言众所周知,map可用于内核BPF程序和用户应用程序之间实现双向的数据交换,为BPF技术中的重要基础数据结构。在BPF程序中可以通过声明structbpf_map_def...

教你简单 提取fmpeg 视频,音频,字幕 方法

ffmpeg提取视频,音频,字幕方法(HowtoExtractVideo,Audio,SubtitlefromOriginalVideo?)1.提取视频(ExtractVi...

Linux内核原理到代码详解《内核视频教程》

Linux内核原理-进程入门进程进程不仅仅是一段可执行程序的代码,通常进程还包括其他资源,比如打开的文件,挂起的信号,内核内部的数据结构,处理器状态,内存地址空间,或多个执行线程,存放全局变量的数据段...

Linux C Socket UDP编程详解及实例分享

1、UDP网络编程主要流程UDP协议的程序设计框架,客户端和服务器之间的差别在于服务器必须使用bind()函数来绑定侦听的本地UDP端口,而客户端则可以不进行绑定,直接发送到服务器地址的某个端口地址。...

libevent源码分析之bufferevent使用详解

libevent的bufferevent在event的基础上自己维护了一个buffer,这样的话,就不需要再自己管理一个buffer了。先看看structbufferevent这个结构体struct...

一次解决Linux内核内存泄漏实战全过程

什么是内存泄漏:程序向系统申请内存,使用完不需要之后,不释放内存还给系统回收,造成申请的内存被浪费.发现系统中内存使用量随着时间的流逝,消耗的越来越多,例如下图所示:接下来的排查思路是:1.监控系统中...

彻底搞清楚内存泄漏的原因,如何避免内存泄漏,如何定位内存泄漏

作为C/C++开发人员,内存泄漏是最容易遇到的问题之一,这是由C/C++语言的特性引起的。C/C++语言与其他语言不同,需要开发者去申请和释放内存,即需要开发者去管理内存,如果内存使用不当,就容易造成...

linux网络编程常见API详解_linux网络编程视频教程

Linux网络编程API函数初步剖析今天我们来分析一下前几篇博文中提到的网络编程中几个核心的API,探究一下当我们调用每个API时,内核中具体做了哪些准备和初始化工作。1、socket(family...

Linux下C++访问web—使用libcurl库调用http接口发送解析json数据

一、背景这两天由于一些原因研究了研究如何在客户端C++代码中调用web服务端接口,需要访问url,并传入json数据,拿到返回值,并解析。 现在的情形是远程服务端的接口参数和返回类型都是json的字符...

平衡感知调节:“系统如人” 视角下的架构设计与业务稳定之道

在今天这个到处都是数字化的时代,系统可不是一堆冷冰冰的代码。它就像一个活生生的“数字人”,没了它,业务根本转不起来。总说“技术要为业务服务”,但实际操作起来问题不少:系统怎么才能快速响应业务需求?...

谈谈分布式文件系统下的本地缓存_什么是分布式文件存储

在分布式文件系统中,为了提高系统的性能,常常会引入不同类型的缓存存储系统(算法优化所带来的的效果可能远远不如缓存带来的优化效果)。在软件中缓存存储系统一般可分为了两类:一、分布式缓存,例如:Memca...

进程间通信之信号量semaphore--linux内核剖析

什么是信号量信号量的使用主要是用来保护共享资源,使得资源在一个时刻只有一个进程(线程)所拥有。信号量的值为正的时候,说明它空闲。所测试的线程可以锁定而使用它。若为0,说明它被占用,测试的线程要进入睡眠...

Qt编写推流程序/支持webrtc265/从此不用再转码/打开新世界的大门

一、前言在推流领域,尤其是监控行业,现在主流设备基本上都是265格式的视频流,想要在网页上直接显示监控流,之前的方案是,要么转成hls,要么魔改支持265格式的flv,要么265转成264,如果要追求...

30 分钟搞定 SpringBoot 视频推拉流!实战避坑指南

30分钟搞定SpringBoot视频推拉流!实战避坑指南在音视频开发领域,SpringBoot凭借其快速开发特性,成为很多开发者实现视频推拉流功能的首选框架。但实际开发中,从环境搭建到流处理优...

取消回复欢迎 发表评论: