鹤啸九天 自律更自由,平凡不平庸 Less is More

Pytorch学习笔记

2019-05-11
鹤啸九天
阅读量

Notes(温馨提示):

  1. ★ 首次阅读建议浏览:导航指南
  2. 右上角工具条搜索文章,右下角二维码关注微信公众号(鹤啸九天),底栏分享、赞赏、评论
  3. ★ 转载请注明文章来源,知识点积累起来不容易,水滴石穿,绳锯木断,谢谢理解
  4. ★ 如有疑问,邮件讨论,欢迎贡献优质资料


PyTorch学习笔记

2017 年 1 月,FAIR(Facebook AI Research)发布 PyTorch。

  • PyTorchTorch 基础上用 python 语言重新打造的一款深度学习框架。
  • Torch 是采用 Lua 语言为接口的机器学习框架,但因为 Lua 语言较为小众,导致 Torch 学习成本高,因此知名度不高。

Pytorch 是基于 Python 的科学计算库,面向以下两种人群:

  • 将其代替 Numpy 来利用 GPUs 的威力;
  • 提供更加灵活和快速的深度学习研究平台。

深度学习框架

【2022-4-8】中国开源深度学习框架第六年:百度飞桨国内综合份额第一,全球开发者超400万和讯网地址

  • 国际两大主流深度学习框架TensorFlow、PyTorch之外,中国的开源框架,发展怎么样?
  • 百度飞桨(PaddlePaddle),深度学习开源框架的先头兵,在2016年就已率先对外发布。
  • 2020年,国内开源框架迎来了第一波集中爆发。
    • 独角兽旷视拿出工业级深度学习框架天元(MegEngine),一流科技OneFlow、华为昇思(MindSpore)也在同年登场。
    • 学界方面,清华大学开源了支持即时编译的深度学习框架计图(Jittor)。
  • 过去几年中,“开源”、“AI底层”成为了国内AI厂商们十分重视的发展战略。

发展历史

PyTorch 历史

PyTorch 的发展

  • 2017 年 1 月正式发布 PyTorch。
  • 2018 年 4 月更新 0.4.0 版,支持 Windows 系统,caffe2 正式并入 PyTorch。
  • 2018 年 11 月更新 1.0 稳定版,已成为 Github 上增长第二快的开源项目。
  • 2019 年 5 月更新 1.1.0 版,支持 TensorBoard,增强可视化功能。
  • 2019 年 8 月更新 1.2.0 版,更新 Torchvision,torchaudio 和torchtext,支持更多功能。

目前 PyTorch 超越 Tensorflow。

深度学习框架渊源

  • 【2021-3-3】深度学习框架编年史:搞深度学习的那帮人,不是疯子,就是骗子!
  • 2002年,瑞士是物理和数学领域的领跑者。也在2002年,瑞士戴尔莫尔感知人工智能(Idiap)研究所诞生了第一个机器学习库Torch。
    • 机器学习库Torch,出自“葡萄酒产区”研究所的一份研究报告(三位作者分别是:Ronan Collobert、Samy Bengio、Johnny Mariéthoz)。其中一位作者姓本吉奥(Bengio),没错,这位眉毛粗粗的科学家,就是深度学习三巨头之一,约舒亚·本吉奥(Yoshua Bengio)的兄弟。2007年他跳槽去了谷歌。
  • 2007年,加拿大蒙特利尔大学开发了第一个深度学习框架Theano(行业祖师爷)。框架和图灵奖获得者颇有渊源,约舒亚·本吉奥(Yoshua Bengio)和伊恩·古德费洛(Ian Goodfellow)都有参与Theano。
    • 库和框架的不同之处,在于境界。库是兵器库,框架则是一套武林绝学的世界观,程序员在这个世界观的约束下去练(编)拳(程)法(序),结果被框架所调用。框架接管了程序的主控制流。有了框架,才能做到只关注算法的原理和逻辑,不用去费事搞定底层系统、工程的事。
  • 2013年,著名的Caffe框架诞生,发音和“咖啡”相似,是“快速特征提取的卷积框架”论文的英文简称。贾扬清第一个C++项目
    • 贾扬清已经在美国加州大学伯克利分校攻读博士学位,开启了计算机视觉的相关研究。那时候,他常被一个问题困扰:怎样训练和设计深度学习的网络?为此,贾扬清想造一个通用工具。
  • 2013年,Parameter Server(参数服务器)的两位著名教授走向台前,邢波(Eric Xing)教授和Alex Smola教授,现在两位均在美国卡内基梅隆大学(CMU)任教。
    • 参数服务器是个编程框架,也支持其他AI算法,对深度学习框架有重要影响。
    • 高校实验室善于技术创新,深度学习框架的很多精髓创意源于此地。但是,深度学习框架复杂性高、工程量极大,长期负责复杂产品,高校并不擅长。多年后,高校出生的深度学习框架,都以某种方式“进入”企业,或者被企业赶超
  • 2015年11月,谷歌大脑团队开发的TensorFlow开源,原创者之一是谷歌天才科学家,杰夫·迪恩(Jeff Dean)。谷歌的搜索、油管、广告、地图、街景和翻译的背后,都有其身影。
    • TensorFlow直译,张量(tensor)在图中流动(flow)。由此也可获知,数据流图是框架的重要技术。数据流图由算子组成,算子又分为大算子和小算子。Caffe是大算子抽象,TensorFlow是小算子抽象。小算子好处是灵活,坏处是性能优化难。
    • 在2000年下半年的时候,Jeff Dean的代码速度突然激增了40倍,原因是他把自己的键盘升级到了USB 2.0。编译器从来不会给Jeff Dean警告,但Jeff Dean会警告编译器。—— 段子
  • 2015 年是一个重要的年份,何恺明等人的研究成果,突破了边界,在准确率上再创新高,风头一时无二。
  • 2015年,谷歌AI研究员弗朗索瓦·乔莱特(Francois Chollet)几乎是独自完成了著名的Keras 框架的开发,为谷歌再添一条护城河,大有“千秋万代,一统江湖”的势头。
  • 2016年,微软CNTK(Cognitive Toolkit)伸手接过女神(内部孵化项目Minerva)的接力棒,可惜魔障难消,用的人少,没有推广开,于2019年停止维护。
  • 2016年,贾扬清从谷歌TensorFlow团队离职,跳槽到了Facebook公司。与谷歌挥手道别,四载光阴(实习两年,工作两年),往事依稀,他的内心充满感怀。
  • 2016年5月,陈天奇读博二开发的MXNet(读作“mixnet”,mix是中文“混合”之意)开源,浓缩了当时的精华,合并了几个原来有的项目,陈天奇cxxnet、参数服务器、智慧女神、颜水成学生林敏的purine2。仅一年时间里,就做出了完整的架构。团队中还有一位闻名遐迩的大神,李沐(现任亚马逊公司资深主任科学家,principal scientist)。2017年9月,MXNet被亚马逊选为官方开源平台。
  • 2017年,祖师爷Theano官宣退休。贾扬清借鉴谷歌TensorFlow框架里面的一些新思想,实现了一个全新的开源Caffe2。三十而立的他,成长为遍历世界级产品的第一高手。
  • 2018年,PyTorch接纳Caffe2后,意外崛起,上演令谷歌框架王冠落地的戏剧性一幕。易用性确实可以抢客户,但谷歌没有想到脸书抢了这么多。后来者确实可以居上,但谷歌没有想到脸书仅用如此短的时间。
    • 谷歌出发最早,为何没有独坐钓鱼台?为什么是脸书抢了市场?
    • 谷歌野心非常大,初期想做很大很全的工具。虽然完备性很强,但是,系统过度复杂。虽然以底层操作为主,有很多基础的功能,但是这些功能没能封装得很好,需要开发者自己解决(定义),手动工作过多。
    • 仅仅是丢市场还不够惨,PyTorch框架带火了背后的技术(动态执行等),脸书开始左右技术趋势。
  • 微软在智慧女神和CNTK两次滑铁卢之后,依然斗志昂扬准备第三次入局。微软思路清奇地设计了ONNX(全称Open Neural Network Exchange),一种开放式深度学习神经网络模型的格式,用于统一模型格式标准。
  • 2016 年8月,百度PaddlePaddle开源,PaddlePaddle作为国内唯一的开源深度学习框架,此后两年多,都是孤家寡人。2013年,百度第一位T11徐伟,同时也是百度深度学习框架PaddlePaddle的原创者和奠基人。
  • 2019年,百度PaddlePaddle有了中文名,名叫“飞桨”。国外产品连个中文名都懒得起。
  • 2019年2月,一流科技获得千万级Pre-A轮投资,袁进辉是创始人兼CEO。邢波教授团队和袁进辉团队双剑合璧开发了OneFlow
    • 2014年,微软亚研院副院长马维英(现任清华大学智能产业研究院讲席教授、首席科学家)找到一位研究员,名叫袁进辉,他是清华大学计算机专业的博士,师从张钹院士。
    • 来自美国CMU的教授,名叫邢波,此时任微软亚研院顾问一职,他擅长的领域包括大规模计算系统。
  • 2020年,国产深度学习框架井喷。国产深度学习框架的“元年”。
    • 3月20日,清华大学计图(Jittor)。
    • 3月25日,旷视科技天元(MegEngine) 。
    • 3月28日,华为MindSpore。
    • 7月31日,一流科技OneFlow。OneFlow有两个创新点:一会自动安排数据通信。二把数据通信和计算的关系协调好,让整体效率更高。
  • 守旧的经验是,既然国外开源了,就抓紧学。既然人家成了事实工业标准,就尽力参与。总是慢了好几拍,Linux这轮就是这样。
  • 引用某游戏厂商的经典台词是:“别催了,在抄了,在抄了。”
  • 可惜竞争从来不是游戏。
  • 深度学习框架的台词是:“不能照抄,不能舔狗,舔到最后,一无所有。”
  • 这世界上唯一能够碾压国内一线城市房价增速的,只有AI模型的规模,虽然硬件和软件的进步已经将每年的训练成本降低了37%;但是,AI模型越来越大,以每年10倍的速度增长。
  • 前美国国防部咨询顾问,史蒂夫·马奎斯的说法是:“开源项目,来源于最纯粹的竞争。如果一个开源项目在商业世界获得了成功,那决不会是出于侥幸,决不会是因为其它竞争者恰好被规章制度所累、被知识产权法约束、被人傻钱多的金主拖垮。一个开源项目胜出了,背后只会有一个原因——它真的比其他竞争者都要好。”

Tensorflow v.s. Pytorch

结论:

  • 如果是工程师,应该优先选TensorFlow2.
  • 如果是学生/研究人员,应该优先选择Pytorch.
  • 如果时间足够,最好TensorFlow2和Pytorch都要学习掌握。
  • 理由如下:
    • 1,在工业界最重要的是模型落地,目前国内的大部分互联网企业只支持TensorFlow模型的在线部署,不支持Pytorch。 并且工业界更加注重的是模型的高可用性,许多时候使用的都是成熟的模型架构,调试需求并不大。
    • 2,研究人员最重要的是快速迭代发表文章,需要尝试一些较新的模型架构。而Pytorch在易用性上相比TensorFlow2有一些优势,更加方便调试。 并且在2019年以来在学术界占领了大半壁江山,能够找到的相应最新研究成果更多。
    • 3,TensorFlow2和Pytorch实际上整体风格已经非常相似了,学会了其中一个,学习另外一个将比较容易。两种框架都掌握的话,能够参考的开源模型案例更多,并且可以方便地在两种框架之间切换。
  • Keras库在2.3.0版本后将不再更新,用户应该使用tf.keras

总结:

  • (1)模型可用性:pytorch更好
  • (2)部署便捷性:TensorFlow更好
    • Serving 和 TFLite 比 PyTorch 的同类型工具要稳健一些。而且,将 TFLite 与谷歌的 Coral 设备一起用于本地 AI 的能力是许多行业的必备条件。相比之下,PyTorch Live 只专注于移动平台,而 TorchServe 仍处于起步阶段。
    • 既想用 TensorFlow 的部署基础设施,又想访问只能在 PyTorch 中使用的模型,作者推荐使用 ONNX 将模型从 PyTorch 移植到 TensorFlow。
  • (3)生态系统对比:TensorFlow 胜出

2022年了,PyTorch和TensorFlow你选哪个?

选择指南:

  • (1)工程师
    • TensorFlow 强大的部署框架和端到端的 TensorFlow Extended 平台是很珍贵的。能在 gRPC 服务器上进行轻松部署以及模型监控和工件跟踪是行业应用的关键
    • 仅在 PyTorch 中可用的 SOTA 模型,那也可以考虑使用 PyTorch(TorchServe)
    • 移动应用,也可以用pytorch live
    • 音频或视频输入,应该使用 TensorFlow
    • 用 AI 的嵌入式系统或 IoT 设备,鉴于 TFLite + Coral 生态系统,用tf
  • (2)研究者
    • 大概率会使用 PyTorch,坚持使用,大多数 SOTA 模型都适用于 PyTorch;
    • 但强化学习领域的一些研究应该考虑使用 TensorFlow。原生 Agents 库,并且 DeepMind 的 Acme框架和Sonnet
    • 想用TPU训练,但不想用TensorFlow,那考虑探索谷歌的JAX。JAX 本身不是神经网络框架,而是更接近于具有自动微分能力的 GPU/TPU 的 NumPy 实现。
    • 不用TPU 训练,那最好是坚持使用 PyTorch
  • (3)教授,因课程重点而已
    • 培养具备行业技能的深度学习工程师,胜任整个端到端深度学习任务,而不仅仅是掌握深度学习理论,那应该使用 TensorFlow
    • 深度学习理论和理解深度学习模型的底层原理/高级课程/研究,那应该使用 PyTorch。
  • (4)职业转型
    • 对框架完全不熟悉,请使用 TensorFlow,因为它是首选的行业框架。
  • (5)业余爱好者
    • 大项目,部署到物联网/嵌入式设备,TensorFlow + TFLite
    • 了解深度学习,PyTorch
    • 入门即可,keras

HuggingFace 使得深度学习从业者仅借助几行代码就能将训练、微调好的 SOTA 模型整合到其 pipeline 中。

  • HuggingFace中大约有85%的模型只能在PyTorch上用,剩下的模型还有一半也可以在 PyTorch 上用。
  • 相比之下,只有16%的模型能在 TensorFlow 上用,只有 8% 是 TensorFlow 所独有的。
  • Top 30 个模型中,能在 TensorFlow 上用的还不到 2/3,但能在 PyTorch 上用的却达到了 100%,没有哪个模型只能在 TensorFlow 上用。
  • 8个顶级研究期刊论文中框架采用情况:PyTorch 的采用率增长迅速,几年时间就从原来的 7% 长到了近 80%。 很多转向 PyTorch 的研究者都表示 TensorFlow 1 太难用了。尽管 2019 年发布的 TensorFlow 2 改掉了一些问题,但彼时,PyTorch 的增长势头已经难以遏制。
  • 2018 年还在用 TensorFlow 的论文作者中,有 55% 的人在 2019 年转向了 PyTorch,但 2018 年就在用 PyTorch 的人有 85% 都留了下来。
  • Papers with Code 本季度创建的 4500 个库中,有 60% 是在 PyTorch 中实现的,只有 11% 是在 TensorFlow 中实现的。相比之下,TensorFlow 的使用率在稳步下降,2019 年 TensorFlow 2 的发布也没有扭转这一趋势。
    • 大公司:
  • Google AI:谷歌发布的论文自然会用 TensorFlow。鉴于在论文方面谷歌比 Facebook 更高产,一些研究者可能会发现掌握 TensorFlow 还是很有用的。
  • DeepMind:DeepMind 也用 TensorFlow,而且也比 Facebook 高产。他们创建了一个名叫 Sonnet 的 TensorFlow 高级 API,用于研究目的。有人管这个 API 叫「科研版 Keras」,那些考虑用 TensorFlow 做研究的人可能会用到它。此外,DeepMind 的 Acme 框架可能对于强化学习研究者很有用。
  • OpenAI:OpenAI 在 2020 年宣布了全面拥抱 PyTorch 的决定。但他们之前的强化学习基线库都是在 TensorFlow 上部署的。基线提供了高质量强化学习算法的实现,因此 TensorFlow 可能还是强化学习从业者的最佳选择。
  • JAX:谷歌还有另一个框架——JAX,它在研究社区中越来越受欢迎。与 PyTorch 和 TensorFlow 相比,JAX 的开销要小得多。但同时,JAX 和前两个框架差别也很大,因此迁移到 JAX 对于大多数人来说可能并不是一个好选择。目前,有越来越多的模型 / 论文已经在用 JAX,但未来几年的趋势依然不甚明朗。

模型部署

TensorFlow Serving

  • TensorFlow Serving 用于在服务器上部署 TensorFlow 模型,无论是在内部还是在云上,并在 TensorFlow Extended(TFX)端到端机器学习平台中使用。Serving 使得用模型标记(model tag)将模型序列化到定义良好的目录中变得很容易,并且可以选择在保持服务器架构和 API 静态的情况下使用哪个模型来进行推理请求。
  • Serving 可以帮用户轻松地在 gRPC 服务器上部署模型,这些服务器运行谷歌为高性能 RPC 打造的开源框架。gRPC 的设计意图是连接不同的微服务生态系统,因此这些服务器非常适合模型部署。Serving 通过 Vertex AI 和 Google Cloud 紧密地集成在一起,还和 Kubernetes 以及 Docker 进行了集成。

TensorFlow Lite:

  • TensorFlow Lite 用于在移动或物联网 / 嵌入式设备上部署 TensorFlow 模型。TFLite 对这些设备上的模型进行了压缩和优化,并解决了设备上的 AI 的 5 个约束——延迟、连接、隐私、大小和功耗。可以使用相同的 pipeline 同时导出基于标准 Keras 的 SavedModels(和 Serving 一起使用)和 TFLite 模型,这样就能比较模型的质量。
  • TFLite 可用于 Android、iOS、微控制器和嵌入式 Linux。TensorFlow 针对 Python、Java、C++、JavaScript 和 Swift 的 API 为开发人员提供了广泛的语言选项。

PyTorch 用户需要使用 Flask 或 Django 在模型之上构建一个 REST API,但现在他们有了 TorchServe 和 PyTorch Live 的本地部署选项。

TorchServe:

  • TorchServe 是 AWS 和 Facebook 合作的开源部署框架,于 2020 年发布。它具有端点规范、模型归档和指标观测等基本功能,但仍然不如 TensorFlow。TorchServe 同时支持 REST 和 gRPC API。

PyTorch Live:

  • PyTorch 于 2019 年首次发布 PyTorch Mobile,旨在为部署优化的机器学习模型创建端到端工作流,适用于 Android、iOS 和 Linux。
  • PyTorch Live 于 12 月初发布,以移动平台为基础。它使用 JavaScript 和 React Native 来创建带有相关 UI 的跨平台 iOS 和 Android AI 应用。设备上的推理仍然由 PyTorch Mobile 执行。Live 提供了示例项目来辅助入门,并计划在未来支持音频和视频输入。

生态系统

Pytorch生态

  • Hub
    • PyTorch Hub 作为面向研究的官方平台,用于与预训练模型共享存储库。Hub 拥有广泛类别的模型,包括用于音频、视觉、NLP 任务的模型,还有用于生成任务的 GAN 模型。
  • SpeechBrain
    • SpeechBrain 是 PyTorch 的官方开源语音工具包。SpeechBrain 能够完成自动语音识别(ASR)、说话人识别、验证和分类等任务。如果你不想构建任何模型,而是想要一个具有情感分析、实体检测等功能的即插即用工具,可以选择使用 AssemblyAI 的 Speech-to-Text API。
    • 当然,PyTorch 的工具页面还有很多其他有用的库,包括为计算机视觉和自然语言处理量身定制的库,例如 fast.ai。
  • TorchElastic
    • TorchElastic 是 AWS 和 Facebook 2020 年联合发布的分布式训练工具,可管理工作进程并协调重启行为,以便用户在计算节点集群上训练模型,这些节点可以动态变化而不会影响训练。因此,TorchElastic 可防止因服务器维护或网络问题等导致的灾难性故障,不会丢失训练进度。TorchElastic 具有与 Kubernetes 集成的特性,并已集成到 PyTorch 1.9+ 中。
  • TorchX
    • TorchX 是一个用于快速构建和部署机器学习应用程序的 SDK。TorchX 包括 Training Session Manager API,可在支持的调度程序上启动分布式 PyTorch 应用程序。TorchX 负责启动分布式作业,同时原生支持由 TorchElastic 局部管理的作业。
  • Lightning
    • PyTorch Lightning 有时被称为 PyTorch 的 Keras。虽然这种类比并不准确,但 Lightning 的确是简化 PyTorch 中模型工程和训练过程的有用工具,自 2019 年首次发布以来已经逐渐趋于成熟。Lightning 以面向对象的方式处理建模过程,定义了可重用和可跨项目使用的可共享组件。

【2023-7-9】 torchkeras 详见介绍

  • torch4keras 功能: 像使用keras一样使用pytorch, 是从 bert4torch 中抽象出来的 trainer, 适用于一般神经网络的训练,用户仅需关注网络结构代码的实现,而无需关注训练工程代码

功能介绍

  • 模型训练: 模型训练过程和keras很相似
    • model.compile(optimizer,loss, scheduler,metric) 指定loss, 优化器,scheduler,mertrics;
    • model.fit(train_dataloader, epoch, steps_per_epoch) 进行模型训练
  • 特色功能:
    • 进度条展示训练过程;
    • 自带和自定义metric;
    • 自带Evaluator, Checkpoint, Tensorboard, Logger等keras自带的Callback,也可自定义Callback;
    • 支持dp和ddp的多卡训练
  • 设计初衷:前期功能是作为bert4torch和rec4torch的Trainer,用户可用于各类pytorch模型训练

TensorFlow生态

  • Hub
    • TensorFlow Hub 是一个经过训练的机器学习模型库,可以进行微调,让用户只需几行代码就能使用像 BERT 这样的模型。Hub 包含适用于不同用例的 TensorFlow、TensorFlow Lite 和 TensorFlow.js 模型,可用于图像、视频、音频和文本处理。
  • Model Garden
    • 如果现成的预训练模型不适用于用户的应用,那么 TensorFlow 的存储库 Model Garden 可以提供 SOTA 模型的源代码。对于想要深入了解模型工作原理,或根据自己的需要修改模型的用户,Model Garden 将非常有用。
    • Model Garden 包含谷歌维护的官方模型、研究人员维护的研究模型和社区维护的精选社区模型。TensorFlow 的长期目标是在 Hub 上提供来自 Model Garden 的模型的预训练版本,并使 Hub 上的预训练模型在 Model Garden 中具有可用的源代码。
  • Extended(TFX):
    • TensorFlow Extended 是 TensorFlow 用于模型部署的端到端平台。该平台的功能强大,包括:加载、验证、分析和转换数据;训练和评估模型;使用 Serving 或 Lite 部署模型;跟踪 artifact 及其依赖项。TFX 还可以与 Jupyter 或 Colab 一起使用,并且可以使用 Apache Airflow/Beam 或 Kubernetes 进行编排。TFX 与 Google Cloud 紧密集成,可与 Vertex AI Pipelines 一起使用。
  • Vertex AI
    • Vertex AI 是 Google Cloud 今年刚刚发布的统一机器学习平台,旨在统一 GCP、AI Platform 和 AutoML,成为一个平台。Vertex AI 能够以无服务器方式编排工作流,帮助用户自动化、监控和管理机器学习系统。Vertex AI 还可以存储工作流的 artifact,让用户可以跟踪依赖项和模型的训练数据、超参数和源代码。
  • Coral
    • 尽管有各种各样的 SaaS 公司依赖基于云的人工智能,但许多行业对本地人工智能的需求也在不断增长,Google Coral 就是为了满足这一需求而创建的。Coral 是一个完整的工具包,可以使用本地 AI 构建产品。Coral 于 2020 年发布,解决了部署部分 TFLite 中提到的实现板载 AI 的问题,克服了隐私和效率等方面的困难。
    • Coral 提供了一系列用于原型设计、生产和传感的硬件产品,其中一些本质上是增强型的树莓派,专为 AI 应用程序创建,能够利用 Edge TPU 在低功耗设备上进行高性能推理。Coral 还提供用于图像分割、姿态估计、语音识别等任务的预编译模型,为希望创建本地 AI 系统的开发人员提供支持。创建模型的基本步骤如下面的流程图所示。
  • TensorFlow.js
    • TensorFlow.js 是一个用于机器学习的 JavaScript 库,允许用户使用 Node.js 在浏览器和服务器端训练和部署模型。
  • Cloud
    • TensorFlow Cloud 是一个可以将本地环境连接到 Google Cloud 的库,它的 API 旨在弥补本地机器上模型构建和调试与 GCP 上分布式训练和超参数调整之间的差距,而无需使用 Cloud Console。
  • Colab
    • Google Colab 是一个基于云的 notebook 环境,与 Jupyter 非常相似。Colab 易于连接到 Google Cloud 进行 GPU 或 TPU 训练,并且 Colab 还可以和 PyTorch 一起使用。
  • Playground
    • Playground 是一个小而精致的可视化工具,用于帮助用户理解神经网络的基础知识。要户可以更改 Playground 内置神经网络的层数和大小,以实时查看神经网络是如何学习特征的,用户还可以看到改变学习率和正则化强度等超参数如何影响不同数据集的学习过程。Playground 允许实时播放学习过程,以高度直观的方式查看输入在训练过程中是如何转换的。Playground 还提供了一个开源的小型神经网络库,是它自身的构建基础,用户能够查看其源代码的具体细节。
  • Datasets
    • 谷歌研究院的 Datasets 是谷歌定期发布的数据集的整合资源。谷歌还提供了数据集搜索以访问更广泛的数据集资源。当然,PyTorch 用户也可以利用这些数据集。

TorchServe

  • 【2020-4-27】PyTorch 1.5 发布,与AWS联手推出TorchServe
  • PyTorch 1.5 发布,升级了主要的 torchvision (视觉),torchtext(文本) 和 torchaudio(语音) 库,并推出将模型从 Python API 转换为 C++ API 等功能。
  • Facebook 还和 Amazon 合作,推出了两个重磅的工具:TorchServe 模型服务框架 和 TorchElastic Kubernetes 控制器。
    • TorchServe 旨在为大规模部署 PyTorch 模型推理,提供一个干净、兼容性好的工业级路径。
    • TorchElastic Kubernetes 控制器,可让开发人员快速使用 Kubernetes 集群,在 PyTorch 中创建容错分布式训练作业。
  • 【2021-1-19】pytorch模型部署工具TorchServe

如何评价 PyTorch 在 2020 年 4 月推出的 TorchServe?

  • TorchServe 旨在为大规模部署 PyTorch 模型推理,提供一个干净、兼容性好的工业级路径。其主要的特点包括有:
    • 原生态 API:支持用于预测的推理 API,和用于管理模型服务器的管理 API。
    • 安全部署:包括对安全部署的 HTTPS 支持。
    • 强大的模型管理功能:允许通过命令行接口、配置文件或运行时 API 对模型、版本和单个工作线程进行完整配置。
    • 模型归档:提供执行「模型归档」的工具,这是一个将模型、参数和支持文件打包到单个持久工件的过程。使用一个简单的命令行界面,可以打包和导出为单个「.mar」文件,其中包含提供 PyTorch 模型所需的一切。该 .mar 文件可以共享和重用。
    • 内置的模型处理程序:支持涵盖最常见用例,如图像分类、对象检测、文本分类、图像分割的模型处理程序。TorchServe 还支持自定义处理程序。
    • 日志记录和指标:支持可靠的日志记录和实时指标,以监视推理服务和端点、性能、资源利用率和错误。还可以生成自定义日志并定义自定义指标。
    • 模型管理:支持同时管理多个模型或同一模型的多个版本。你可以使用模型版本回到早期版本,或者将流量路由到不同的版本进行 A/B 测试。
    • 预构建的图像:准备就绪后,可以在基于 CPU 和 NVIDIA GPU 的环境中,部署 TorchServe 的 Dockerfile 和 Docker 镜像。
  • 综上可知,这次的 TorchServe 在推理任务上,将会有很大的使用空间,对于广大开发者来说是一件好事。这一点可以留着以后去慢慢验证。对于这次 Facebook 和 AWS 合作,明显可以看出双方在各取所长,试图打造一个可以反抗谷歌 TensorFlow 垄断的方案。
  • 问题:
    • 为什么 TorchServe 采用 Java 开发,而没有像 TensorFlow Serving 一样采用更好性能的C++,抑或是采用 Golang?
  • TorchServe Architecture
  • Model Server for PyTorch Documentation

Basic Features

Advanced Features

  • Advanced settings - Describes advanced TorchServe configurations.
  • Custom Model Service - Describes how to develop custom inference services.
  • Unit Tests - Housekeeping unit tests for TorchServe.
  • Benchmark - Use JMeter to run TorchServe through the paces and collect benchmark data

Default Handlers

  • Image Classifier - This handler takes an image and returns the name of object in that image
  • Text Classifier - This handler takes a text (string) as input and returns the classification text based on the model vocabulary
  • Object Detector - This handler takes an image and returns list of detected classes and bounding boxes respectively
  • Image Segmenter - This handler takes an image and returns output shape as [CL H W], CL - number of classes, H - height and W - width

端侧部署 ExecuTorch

【2023-10-18】端侧AI推理,高效部署PyTorch模型:官方新工具,Meta已经用上了

2023 年 PyTorch 大会宣布了一个用于在边缘和移动设备上实现 AI 推理的解决方案: ExecuTorch

ExecuTorch 理解成一个 PyTorch 平台,其能提供基础设施来运行 PyTorch 程序,从 AR/VR 可穿戴设备到标准的 iOS 和 Android 设备的移动部署。

ExecuTorch 最大优势是可移植性,能够在移动和嵌入式设备上运行。不仅如此,ExecuTorch 还可以提高开发人员的工作效率。

ExecuTorch 可以有效地将 PyTorch 模型部署到边缘设备。ExecuTorch 的优点包括:

  • 可移植性:与各种计算平台兼容,从高端移动手机到高度受限的嵌入式系统和微控制器。
  • 提高生产力:开发人员能够使用相同的工具链和 SDK,从而提高生产力。
  • 提高性能:由于轻量级运行时和充分利用 CPU、NPU 和 DSP 等硬件功能,为最终用户提供了无缝和高性能的体验。

由于 ExecuTorch 严重依赖 PyTorch 相关知识,因而想要熟练掌握 ExecuTorch,还需提前补充相关知识。官方文档已经提供了入门级教程。例如,在构建 ExecuTorch Android 演示应用程序示例当中,大家可以跟随指导教程,从而熟悉如何使用 ExecuTorch。

PyTorch 教程

PyTorch 的设计哲学是解决当务之急,也就是说即时构建运行计算图

PyTorch 基于python的科学计算包,针对两类受众:

  • 代替Numpy从而利用GPU的强大功能;
  • 提供最大灵活性和速度的深度学习研究平台。

PyTorch 是一个建立在 Torch 库之上的 Python 包,旨在加速深度学习应用。

  • PyTorch 提供一种类似 NumPy 的抽象方法来表征张量(或多维数组),利用 GPU 来加速训练。

PyTorch经验分享:新手如何搭建PyTorch程序

资料

安装

pytorch 使用文档

  • 根据提示分别选择系统(Linux、Mac 或者 Windows),安装方式(Conda,Pip,LibTorch 或者源码安装)、编程语言(Python 2.7 或者 Python 3.5,3.6,3.7 或者是 C++),

Pytorch

安装:

pip install torch 
pip install torchvision # 视觉数据集
pip install torchtext # 文本数据集
pip install torchaudio # 音频数据集

验证:

python -c "import torch;x = torch.rand(5, 3);print(x)"

GPU

如何检查PyTorch是GPU还是CPU版?

以下命令:

import torch
torch.cuda.is_available() # True
torch.cuda.device_count() # 1
torch.cuda.current_device() # 0
torch.cuda.device(0) # <torch.cuda.device at 0x7efce0b03be0>
torch.cuda.get_device_name(0) # 'GeForce GTX 950M'

【2023-2-20】安装GPU版本(CPU版本执行时报错,找不到CUDA,实际上路径存在)

  • 错误:No CUDA runtime is found, using CUDA_HOME='/usr/local/cuda'详见
  • 升级pytorch, 去 torch 官网选择合适版本
# 如:cuda 11.3, python 3.7.3时
pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113

问题

gcc 版本低

【2024-3-27】GPU上启动InternLM训练时,中途报错

错误信息

You're trying to build PyTorch with a too old version of GCC. We need GCC 9 or later

原因

  • PyTorch版本过高,而系统 gcc版本又太低(<9.0)

解决办法: 更新gcc

本地信息

gcc -v
# gcc version 8.3.0 (Debian 8.3.0-6)
cuda 11.6
pytorch 2.2.1

解法

  • ① make 源码编译,参考
  • ② conda
conda install -c 3dhubs gcc-5

fused_adam

【2024-3-27】GPU上启动InternLM训练时,中途报错

  • gcc 版本低 → ninja 执行有误 → 构建 fused_adam 错误
# ① gcc 问题
You're trying to build PyTorch with a too old version of GCC. We need GCC 9 or later
# ② ninja 问题
subprocess.CalledProcessError: Command '['ninja', '-v']' returned non-zero exit status 1.
# ③ fused_adam 问题
RuntimeError: Error building extension 'fused_adam'

数据集

【2023-1-28】PyTorch中的数据集Torchvision和Torchtext

Torchtext 中的数据集

  • IMDB:IMDB是一个用于情感分类的数据集,其中包含一组 25,000 条高度极端的电影评论用于训练,另外 25,000 条用于测试。使用以下类加载这些数据torchtext:torchtext.datasets.IMDB()
  • WikiText2:WikiText2语言建模数据集是一个超过 1 亿个标记的集合。它是从维基百科中提取的,并保留了标点符号和实际的字母大小写。它广泛用于涉及长期依赖的应用程序。可以从torchtext以下位置加载此数据:torchtext.datasets.WikiText2()

除了上述两个流行的数据集,torchtext 库中还有更多可用的数据集,例如 SST、TREC、SNLI、MultiNLI、WikiText-2、WikiText103、PennTreebank、Multi30k 等。

数据模块细分为 4 个部分:

  • 数据收集:样本和标签。
  • 数据划分:训练集、验证集和测试集
  • 数据读取:对应于PyTorch 的 DataLoader。其中 DataLoader 包括 Sampler 和 DataSet。Sampler 的功能是生成索引, DataSet 是根据生成的索引读取样本以及标签。
  • 数据预处理:对应于 PyTorch 的 transforms

datasets

Torchvision 中的数据集

  • MNIST: 手写数字识别,超过 60,000 张训练图像和 10,000 张测试图像
  • Fashion MNIST:类似于MNIST,但该数据集包含T恤、裤子、包包等服装项目,而不是手写数字,训练和测试样本数分别为60,000和10,000。
  • EMNIST:EMNIST数据集是 MNIST 数据集的高级版本。它由包括数字字母的图像组成。如果正在处理基于从图像中识别文本的问题,EMNIST是一个不错的选择。
  • CIFAR:CIFAR数据集有两个版本,CIFAR10和CIFAR100。CIFAR10 由 10 个不同标签的图像组成,而 CIFAR100 有 100 个不同的类。这些包括常见的图像,如卡车、青蛙、船、汽车、鹿等。
  • COCO:COCO数据集包含超过 100,000 个日常对象,如人、瓶子、文具、书籍等。这个图像数据集广泛用于对象检测和图像字幕应用
  • IMAGE-NET:ImageNet 是用于训练高端神经网络的旗舰数据集之一。它由分布在 10,000 个类别中的超过 120 万张图像组成。通常,这个数据集加载在高端硬件系统上,因为单独的 CPU 无法处理这么大的数据集。

torch.utils.data.Dataset

功能:

  • Dataset 是抽象类,所有自定义的 Dataset 都需要继承该类,并且重写__getitem__()方法和__len__()方法 。__getitem__方法的作用是接收一个索引,返回索引对应的样本和标签,这是自己需要实现的逻辑。__len__()方法是返回所有样本的数量。

数据读取包含 3 个方面

  • 读取哪些数据:每个 Iteration 读取一个 Batchsize 大小的数据,每个 Iteration 应该读取哪些数据。
  • 从哪里读取数据:如何找到硬盘中的数据,应该在哪里设置文件路径参数
  • 如何读取数据:不同的文件需要使用不同的读取方法和库

pytorch 数据读取流程图

  • 首先在 for 循环中遍历 DataLoader
  • 然后根据是否采用多进程,决定使用单进程或者多进程的 DataLoaderIter。
  • 在DataLoaderIter 里调用Sampler生成 Index 的 list
  • 再调用 DatasetFetcher 根据index获取数据。
    • 在DatasetFetcher里会调用Dataset的__getitem__()方法获取真正的数据。这里获取的数据是一个 list,其中每个元素是 (img, label) 的元组,再使用 collate_fn()函数整理成一个 list,里面包含两个元素,分别是 img 和 label 的tenser

详见:DataLoader 与 DataSet

from torchvision.datasets import MNIST 

# Download MNIST  
data_train = MNIST('~/mnist_data', train=True, download=True) 
torchvision.datasets.FashionMNIST() # fashion MNIST
torchvision.datasets.EMNIST()
torchvision.datasets.CIFAR10() # cifar10
torchvision.datasets.CIFAR100() # cifar100
torchvision.datasets.CocoCaptions() # COCO
torchvision.datasets.ImageNet() # imagenet

DataLoader

torch.utils.data.DataLoader()

torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_last=False, timeout=0, worker_init_fn=None, multiprocessing_context=None)

构建可迭代的数据装载器

  • dataset: Dataset 类,决定数据从哪里读取以及
  • batchsize:
  • num_works: num_works: 是否多进程
  • shuffle: 每个 epoch
  • drop_last: 当样本数不能被 batchsize 整除时,是否舍弃最后一批数据

Epoch, Iteration, Batchsize

  • Epoch: 所有训练样本都已经输入到模型中,称为一个 Epoch
  • Iteration: 一批样本输入到模型中,称为一个 Iteration
  • Batchsize: 批大小,决定一个 iteration 有多少样本,也决定了一个 Epoch 有多少个 Iteration

collate_fn 用法

  • collate_fn函数可对样本进一步处理(任何处理),返回值一个有结构的batch。
  • 而DataLoader每次迭代的返回值就是collate_fn的返回值
indices = next(self.sample_iter)
batch = self.collate_fn([dataset[i] for i in indices])

【2023-9-12】Pytorch中DataLoader的基本用法

DataLoader支持的两种数据集

  • Map格式:即 key,value形式,例如 {0: ‘张三’, 1: ‘李四’}
  • Iterator格式:例如数组迭代器
    • python中,只要是for循环的数据,都是Iterator格式的数据
# list 是一个迭代器,for循环本质上调用next函数
data = [0,1,2,3,4]
for item in data:
    print(item, end=' ')
# 等效写法
data = [0,1,2,3,4]
data_iter = iter(data) # 返回一个迭代器

item = next(data_iter, None) # 获取迭代器的下一个值
while item is not None:
    print(item, end=' ')
    item = next(data_iter, None)

DataLoader 用法

定义dataloader,接受三个重要的参数

  • dataset: 数据集
  • batch_size: 要将数据集切分为多少份
  • shuffle: 是否对数据集进行随机排序

Map 格式

Map格式的DataLoader

dataset = {0: '张三', 1:'李四', 2:'王五', 3:'赵六'}

dataloader = DataLoader(dataset, batch_size=2)

for i, value in enumerate(dataloader):
    print(i, value)

Iterator 格式

from torch.utils.data import DataLoader

data = [i for i in range(100)] # 定义数据集,需要是一个可迭代的对象

dataloader = DataLoader(dataset=data, batch_size=6, shuffle=False) 

for i, item in enumerate(dataloader): # 迭代输出
    print(i, item)

输入一个数据集​​0~99​​​,通过​​dataloader​​将数据集分成100/6 =17份,每份6个数据,最后一份因为不满6个,所以只返回了4个。

自定义的IterableDataset

  • 可迭代对象在初始化中会调用一次​​__init__​​​方法,在获取迭代器时会调用一次​​__iter__​​​方法,之后在获取元素时,每获取一个元素都会调用一次​​__next__​​方法
from torch.utils.data import DataLoader
from torch.utils.data import IterableDataset

class MyDataset(IterableDataset):
    # 自定义数据集
    def __init__(self):
        print('init...')
    
    def __iter__(self):
        print('iter...') # 获取迭代器
        self.n = 1
        return self
    
    def __next__(self):
        print('next...') # 获取下一个元素
        x = self.n
        self.n += 1
        
        if x >= 100: # 当x到100时停止
            raise StopIteration
        return x

dataloader = DataLoader(MyDataset(), batch_size=5)

for i, item in enumerate(dataloader):
    print(i, item)

基本概念

PyTorch由4个主要包装组成:

  • 1、Torch:类似于Numpy的通用数组库,可以在将张量类型转换为(torch.cuda.TensorFloat)并在GPU上进行计算。
  • 2、torch.autograd:用于构建计算图形并自动获取渐变的包
  • 3、torch.nn:具有共同层和成本函数的神经网络库
  • 4、torch.optim:具有通用优化算法(如SGD,Adam等)的优化包

叶子节点

在反向传播过程中,只有叶子节点的导数结果会被最后保留下来

  • requires_grad = False 的tensor,一定是叶子节点
  • requires_grad = True 时
    • 当这个tensor是用户创建,是叶子节点
    • 当这个tensor是由其他运算操作产生时,不是叶子节点

非叶子节点(即中间变量)是通过用户所定义的叶子节点,通过一系列运算生成的,用完后即被释放

  • 叶子节点的 grad_fn属性都为空;
  • 非叶子节点的 grad_fn不为空

inplace操作

在不更改变量内存地址的情况下,直接修改变量的值

PyTorch 通过 tensor._version 来检测 tensor 是否发生了 inplace 操作。

  • 每次 tensor 在进行 inplace 操作时,变量 _version 就会加1,其初始值为0

整体结构

PyTorch 构建模型的几大要素

  • 数据:数据读取,数据清洗,数据划分和数据预处理,比如:读取图片如何预处理及数据增强。
  • 模型:构建模型模块,组织复杂网络,初始化网络参数,定义网络层。
  • 损失函数:创建损失函数,设置损失函数超参数,根据不同任务选择合适的损失函数。
  • 优化器:根据梯度使用某种优化器更新参数,管理模型参数,管理多个参数组实现不同学习率,调整学习率。
  • 迭代训练:组织4 个模块进行反复训练。
    • 观察训练效果,绘制 Loss/ Accuracy 曲线,用 TensorBoard 进行可视化分析。

图解

主要组件

深度学习任务中,简单的PyTorch程序主要包含以下这4个模块。

  • 网络模型定义文件,如 network.py
  • 数据读取文件,如 dataset.py
  • 训练接口程序,如 train.py
  • 测试接口程序,如 evaluate.py
  • 包含之前提到的 networkdatasettrainevaluate。当然也包含定制的模块,比如
    • cal_metrics 用来计算实验指标
    • cfg 用来设置某些超参数
    • image_io_and_process 用来对图像进行预处理和后处理
    • loss_functions 用来定义与实现某些损失
    • utils 用来承载一些其他操作,比如读写txt文档。

组件详解

详解:

  1. 网络模型定义文件,比如名称为network.py
    • 定义一个Python类,并继承 torch.nn.Module 这个类。
    • 重写构造函数 __init__ 来定义网络中使用的层,在定义层或者模块的时候,经常会使用到 torch.nn 这个库。
    • 再重写父类的 forward 函数,在其中使用 __init__ 函数中定义的层实现网络的前传过程
  2. 数据读取文件,比如名称为dataset.py。
    • PyTorch与其他框架具有鲜明差异的一点,就是数据读取接口非常规范
    • PyTorch通过继承 torch.utils.data.Dataset 这个类实现自己的数据集读取。
    • 继承时,重写三个函数:__init__函数,__getitem__函数和__len__函数。
    • __init__函数:初始化,比如读取一下所需的记录数据的txt或者xml文件,传入一些预处理参数等等。
    • __getitem__函数:规定每个batch训练给网络喂数据的时候,应该采用怎样的数据读取方式,以及做怎样的预处理。
    • __len__函数:数据集中有多少数据 - 训练程序中,只需要使用 torch.utils.data.DataLoader 开始在每一次训练中对数据集进行读取与遍历就行
    • train_data_loader = torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=default_collate, pin_memory=False, drop_last=False,timeout=0, worker_init_fn=None) - 除去dataset,用的比较多的是batch_sizeshufflenum_workerspin_memory这几个参数。
    • batch_size 指定一个批次的数据容量
    • shuffle 指定是否打乱数据
    • num_workers 指定用多少个线程对数据进行读取
    • pin_memory 指定是否将数据放入显存。
  3. 训练接口程序,比如名称为train.py。与其他深度学习框架类似,都是先搭建(模型),然后在图上进行训练
    • 四个步骤,引用数据、引用模型、定义损失函数、定义优化器
    • ① 引用之前定义的数据读取接口
    • ② 引用model,即网络,需要的话就载入预训练参数。
    • ③ 定义loss。
    • ④ 定义优化器。 - 然后在for循环中进行可训练参数更新了。
  4. 测试接口程序,比如名称为evaluate.py
    • 测试程序比训练程序简单很多,主要先进行两个步骤:
    • 定义网络
    • 载入已训练参数 - 然后就可以读取测试样本进行前传了。需要注意的是,在进行模型的测试时,需要将model置为测试模式,对应代码中的model.eval()

训练中要注意

  1. 第一点是保存模型加载预训练参数
    • 保存模型的已训练参数(也可以保存整个模型),通过 torch.save 函数完成;
    • 加载预训练参数,通过model的父类,即 torch.nn.Module 的 load_state_dict 完成。里面的“strict”参数表示是否需要将预训练模型里面的参数与model里面的完全对齐。
  2. 第二点是使用GPU训练
    • 如果需要使用GPU训练时,需要使用到 to(device) 函数,意思就是将数据或者模型放到GPU上面。
  3. 第三点是参数更新过程,在进行参数更新时,一共分成三步:
    • 将可训练参数梯度置零 optimizer.zero_grad()
    • 根据损失值求梯度 loss.backward()
    • 更新可训练参数 optimizer.step()
  4. 第四点是将model置为训练模式
    • 对应代码中的 model.train()
    • 训练模式会对某些定义的网络模块有影响,比如使用dropout层,在训练时会被激活。

PyTorch程序比较规范,简洁与清晰。并且在PyTorch中还使用到了非常多的面向对象的规范,有许多操作都是通过继承Python类进行实现的。

模式 train+eval

PyTorch 训练和测试时, 一定要把实例化的model指定train/eval,eval()时,框架会自动把BN和Dropout固定住,不会取平均,而是用训练好的值,不然的话,一旦test的batch_size过小,很容易就会被BN层导致生成图片颜色失真极大

pytorch 提供两种方式切换训练评估(推断)模式。model.train() 和 model.eval()

  • BN层: model.train() 保证BN层用每一批数据的均值和方差,而model.eval()是保证BN用全部训练数据的均值和方差;
  • 而对于Dropout,model.train()是随机取一部分网络连接来训练更新参数,而model.eval()是利用到了所有网络连接。

训练完train样本后,生成的模型model要用来测试样本。

分析:

  • model.train() :启用 BatchNormalization 和 Dropout
  • model.eval() :不启用 BatchNormalization 和 Dropout

model(test)之前,需要加上 model.eval(),否则,输入数据(即使不训练)会改变权值。

  • model中含有batch normalization层所带来的的性质。
  • one classification 时,训练集和测试集的样本分布是不一样,尤其需要注意这一点。

【2024-3-25】

  • 训练阶段 model.train() 让模型适应训练数据变化,并防止过拟合;
  • 而验证和测试阶段 model.eval() 保证模型在新数据上的表现一致性,并且避免因为BN层在小批量数据上的不稳定统计,导致预测结果波动以及Dropout带来的不确定性。
# 定义一个网络
class Net(nn.Module):
    def __init__(self, l1=120, l2=84):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, l1)
        self.fc2 = nn.Linear(l1, l2)
        self.fc3 = nn.Linear(l2, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

	# 实例化这个网络
    Model = Net()
     
    # 训练模式使用.train()
    Model.train(mode=True)
    
    # 测试模型使用.eval()
    Model.eval()

源码分析

代码示例

代码示例

# (1)======= 模型定义 =======
class My_Network(nn.Module):
    """
      模型定义: 继承自nn.Module, 实现 __init__ 和 forward 函数
    """
    # 
    def __init__(self): # 重写构造函数定义网络结构
        super(network, self).__init__()
        self.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1) # 3×3卷积
        self.bn1 = nn.BatchNorm2d(64) # BatchNorm
        self.relu = nn.ReLU() # 激活
        self.maxpool = nn.MaxPool2d(kernel_size=2, stride=2) # 最大池化
        self.fc = nn.Linear(64 * 14 * 14, 512) # 全连接,将[n, (64*14*14)]变成[n, 512]
        for m in self.modules(): # 对可训练参数进行初始化(上面定义的所有模块都存储在此)
            if isinstance(m, nn.Conv2d):
                nn.init.xavier_normal_(m.weight)
            elif isinstance(m, nn.BatchNorm2d) or isinstance(m, nn.BatchNorm1d):
                nn.init.constant_(m.weight, 1)
                nn.init.constant_(m.bias, 0)
            elif isinstance(m, nn.Linear):
                nn.init.xavier_normal_(m.weight)
                nn.init.constant_(m.bias, 0)

    def forward(self, x): # 重写forward实现前传, 定义网络结构
        # 前传,输入x尺寸为[n, c, 28, 28]
        x = self.conv1(x)
        x = self.bn1(x)
        x = self.relu(x)
        x = self.maxpool(x)
        x = x.view(x.size(0), -1) # 将4维Tensor变成2维,作为全连接的输入
        x = self.fc(x)
        return x

# (2)======= 数据读取 =======
class My_Dataset(torch.utils.data.Dataset):
    """
      数据集处理函数,重写函数:__init__, __getitem__, __len__
    """
    def __init__(self, data_txt_path):
        data_list = read_txt(data_txt_path) # 读取一下记录数据与标签的txt
        self.data_list = np.random.permutation(data_list) # 打乱一下txt
        self.transform = T.ToTensor() # 预处理,将数据转化成[n, c, h, w]的形式,并归一化到[0,1]

    def __getitem__(self, index):
        sample = self.data_list[index] # 读取txt中的一行,是一个数据对(image_path, label)
        image_path = sample.split(' ')[0]
        label = int(sample.split(' ')[-1])
        resized_image = read_image(image_path) # 读取一下图像
        image = self.transform(resized_image) # 转化成Tensor
        return image.float(), label 

    def __len__(self):
        # 数据量
        return len(self.data_list)

# (3)======= 训练 ==========
from __future__ import print_function
import torch.nn
from torch.nn import DataParallel
import torch.optim
import torch.utils.data
import argparse

#import 所需的各种模块
parser = argparse.ArgumentParser(description="")
#添加各种自定义参数
args = parser.parse_args()

def main():
    device = torch.device("cuda") # 注明用GPU
    train_dataset = My_Dataset(txt_path) # 实例化数据集处理对象
    train_data_loader = torch.utils.data.DataLoader(train_dataset, batch_size, shuffle, num_workers) # 读数据
    model = My_Network() # 实例化模型
    #若有预训练参数,可以载入预训练参数
    model.load_state_dict(torch.load(ckpt_path), strict=False)
    #定义损失,比如criterion = torch.nn.CrossEntropyLoss()
    criterion = My_Loss # 损失函数
    model.to(device)
    model = DataParallel(model) # 将模型训练放在多张GPU上并行
    optimizer = torch.optim.SGD(model.parameters(), lr, weight_decay) # 优化器
    model.train() #将模型置为训练模式
    # 开始训练
    for i in range(epoch):
        for ii, data in enumerate(train_data_loader):
            data_input, label = data
            data_input = data_input.to(device)
            label = label.to(device).long()
            output = model(data_input)
            loss = criterion(output, label)
            print("loss =: ", loss)
            optimizer.zero_grad() #首先梯度置零
            loss.backward() #然后求梯度
            optimizer.step() #通过梯度更新参数
            iters = i * len(train_data_loader) + ii
            if iters % save_interval == 0:
                torch.save(model.state_dict(), save_path) # 保存模型
 
if __name__ == "__main__":
    main()

# (4)======= 测试 =======
from __future__ import print_function
import torch.nn
from torch.nn import DataParallel
import torch.optim
import torch.utils.data
import argparse
#import 所需的各种模块

parser = argparse.ArgumentParser(description="")
#添加各种自定义参数
args = parser.parse_args()
 
def main():
    device = torch.device("cuda")
    model = My_Network() # 模型实例化
    model = DataParallel(model) # 多GPU
    model.load_state_dict(torch.load(snapshot_path)) #载入参数
    model.to(device)
    model.eval() #将模型置为测试模式
 
    for eval_data_path in eval_data_list:
        eval_data = read_image(eval_data_path)
        data = torch.from_numpy(eval_data) #将data转化为Tensor
        data = data.to(device)
        output = model(data) #前传得到结果
        #自定义操作,比如计算精度
 
if __name__ == "__main__":
    main(

网络结构

只需要定义forward函数,就可以使用autograd为您自动定义backward函数(计算梯度)。 可以在forward函数中使用任何张量操作。

import torch
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):

    def __init__(self):
        super(Net, self).__init__()
        # 1 input image channel, 6 output channels, 5x5 square convolution
        # kernel
        self.conv1 = nn.Conv2d(1, 6, 5)
        self.conv2 = nn.Conv2d(6, 16, 5)
        # an affine operation: y = Wx + b
        self.fc1 = nn.Linear(16 * 5 * 5, 120)  # 5*5 from image dimension
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        # Max pooling over a (2, 2) window
        x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
        # If the size is a square, you can specify with a single number
        x = F.max_pool2d(F.relu(self.conv2(x)), 2)
        x = torch.flatten(x, 1) # flatten all dimensions except the batch dimension
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

# input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d
#      -> view -> linear -> relu -> linear -> relu -> linear
#      -> MSELoss
#      -> loss

# 模型定义
net = Net()
print(net)
# 网络参数
params = list(net.parameters())
print(len(params))
print(params[0].size())  # conv1's .weight
# 输入数据
input = torch.randn(1, 1, 32, 32)
# 输出数据
out = net(input)
print(out)
# 使用随机梯度将所有参数和反向传播的梯度缓冲区归零
net.zero_grad() # 将梯度缓冲区手动设置为零
out.backward(torch.randn(1, 10))

注意

  • torch.nn仅支持小批量。 整个torch.nn包仅支持作为微型样本而不是单个样本的输入。
    • 例如,nn.Conv2d将采用nSamples x nChannels x Height x Width的 4D 张量。
    • 如果只有一个样本,只需使用input.unsqueeze(0)添加一个假批量尺寸。

回顾:

  • torch.Tensor-一个多维数组,支持诸如backward()的自动微分操作。 同样,保持相对于张量的梯度。
  • nn.Module-神经网络模块。 封装参数的便捷方法,并带有将其移动到 GPU,导出,加载等的帮助器。
  • nn.Parameter-一种张量,即将其分配为Module的属性时,自动注册为参数。
  • autograd.Function-实现自动微分操作的正向和反向定义。 每个Tensor操作都会创建至少一个Function节点,该节点连接到创建Tensor的函数,并且编码其历史记录。

计算图

Autograd 在由函数对象组成的有向无环图(DAG)中记录数据(张量)和所有已执行的操作(以及由此产生的新张量)。

示例:

  • 只有1个layer的网络,输入x,参数w和b,以及一个loss function
import torch
 
x = torch.ones(5)  # input tensor
y = torch.zeros(3)  # expected output
w = torch.randn(5, 3, requires_grad=True)
b = torch.randn(3, requires_grad=True)
z = torch.matmul(x, w)+b
loss = torch.nn.functional.binary_cross_entropy_with_logits(z, y)
# 设置 原地可变
w.requires_grad_(True)
b.requires_grad_(True)
# 偏导
print(z.grad_fn)
print(loss.grad_fn)
# 计算Loss对w和b的偏导,只需要使用
loss.backward() # 第一次执行正常
loss.backward(retain_graph=True) # 更正,加参数 retain_graph,这次多次调用 backward不出错
print(w.grad)
print(b.grad)
loss.backward() # 再次执行会出错!因为中间变量已经释放

注意

  • 只能计算图里叶子的梯度,内部的点不能算
  • 一张图只能计算1次梯度,要保留节点的话,backward 要传 retain_graph=True

得到的计算图(Computational Graph): DAG(有向无环图)

在DAG 中,叶子是输入张量,是输出张量。 通过从根到叶跟踪此图,可以使用链式规则自动计算梯度。

在正向传播中,Autograd 同时执行两项操作:

  • 运行请求的操作以计算结果张量,并且
  • 在 DAG 中维护操作的梯度函数。

当在 DAG 根目录上调用 .backward() 时,反向传递开始。 autograd然后:

  • 从每个 .grad_fn 计算梯度,
  • 将它们累积在各自的张量的 .grad 属性中,然后
  • 使用链式规则,一直传播到叶子张量。

下面是示例中 DAG 的直观表示。 在图中,箭头指向前进的方向。 节点代表正向传播中每个操作的反向函数。 蓝色的叶节点代表我们的叶张量a和b。

注意

  • DAG 在 PyTorch 中是动态的。
  • 图是从头开始重新创建的;
  • 在每个.backward()调用之后,Autograd 开始填充新图。 所以允许用户在模型中使用控制流语句。 用户可以根据需要在每次迭代中更改形状,大小和操作。

如果使用.grad_fn属性向后跟随loss,您将看到一个计算图

# input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d
#       -> view -> linear -> relu -> linear -> relu -> linear
#       -> MSELoss
#       -> loss
# 调用loss.backward()时,整个图将被微分。 损失,并且图中具有requires_grad=True的所有张量将随梯度累积其.grad张量
print(loss.grad_fn)  # MSELoss
print(loss.grad_fn.next_functions[0][0])  # Linear
print(loss.grad_fn.next_functions[0][0].next_functions[0][0])  # ReLU

模型格式

保存哪些信息

提供哪些模型信息,让对方能够完全复现模型?

  • 模型代码
  • (1)如何定义模型结构,包括模型有多少层/每层有多少神经元等等信息;
  • (2)如何定义的训练过程,包括epoch batch_size等参数;
  • (3)如何加载数据和使用;
  • (4)如何测试评估模型。
  • 模型参数:提供了模型代码之后,对方确实能够复现模型,但是运行的参数需要重新训练才能得到,而没有办法在我们的模型参数基础上继续训练,因此对方还希望我们能够把模型的参数也保存下来给对方。
  • (1)包含 model.state_dict(),这是模型每一层可学习的节点的参数,比如weight/bias;
  • (2)包含 optimizer.state_dict(),这是模型的优化器中的参数;
  • (3)包含 其他参数信息,如epoch/batch_size/loss等。
  • 数据集
  • (1)包含 训练模型使用的所有数据;
  • (2)可以提示对方如何去准备同样格式的数据来训练模型。
  • 使用文档
  • (1)根据使用文档的步骤,每个人都可以重现模型;
  • (2)包含了模型的使用细节和我们相关参数的设置依据等信息。

可以看到,根据提供的模型代码/模型参数/数据集/使用文档,就可以有理由相信对方是有手就会了,那么目的就达到了。

模型重现的关键是:模型结构/模型参数/数据集,那么提供或者希望别人提供这些信息,需要一个交流的规范,而 .pt .pth .bin 以及 .onnx 就是约定的格式。

模型格式类型

【2023-9-26】Pytorch格式 .pt .pth .bin .onnx 详解

  • 支持的模型保存格式包括:.pt 和 .pth .bin .onnx

不同后缀只是用于提示文件可能包含的内容,但是具体内容要看模型提供者编写的README.md才知道。

  • 使用torch.load()方法加载模型信息时,不是根据文件后缀进行读取,而是根据文件的实际内容自动识别
  • 因此对于torch.load()方法而言,不管把后缀改成是什么,只要文件是对的都可以读取。

一切皆文件”的思维才是正确打开计算机世界的思维方式

文件后缀只作为提示作用

  • 在Windows系统中也会用于提示系统默认如何打开或执行文件
  • 除此之外,文件后缀不应该成为我们认识和了解文件阻碍。
格式 解释 适用场景 可对应的后缀
.pt.pth PyTorch 默认模型文件格式,保存和加载完整 PyTorch 模型,包含模型结构和参数等信息。 需要保存和加载完整的 PyTorch 模型的场景,例如在训练中保存最佳的模型或在部署中加载训练好的模型。 .pt 或 .pth
.bin 一种通用的二进制格式,可以用于保存和加载各种类型的模型和数据。 需要将 PyTorch 模型转换为通用的二进制格式的场景。 .bin
ONNX 一种通用的模型交换格式,可以用于将模型从一个深度学习框架转换到另一个深度学习框架或硬件平台。在 PyTorch 中,可以使用 torch.onnx.export 函数将 PyTorch 模型转换为 ONNX 格式。 需要将 PyTorch 模型转换为其他深度学习框架或硬件平台可用的格式的场景。 .onnx
TorchScript PyTorch 提供的一种序列化和优化模型的方法,可以将 PyTorch 模型转换为一个序列化的程序,并使用 JIT 编译器对模型进行优化。在 PyTorch 中,可以使用 torch.jit.trace 或 torch.jit.script 函数将 PyTorch 模型转换为 TorchScript 格式。 需要将 PyTorch 模型序列化和优化,并在没有 Python 环境的情况下运行模型的场景。 .pt 或 .pth

导出哪些信息,就取决于场景,务必在readme.md中写清楚

保存场景 保存方法 文件后缀
整个模型 model = Net()
torch.save(model, PATH)
.pt .pth .bin
模型参数 model = Net()
torch.save(model.state_dict(), PATH)
.pt .pth .bin
checkpoints使用 model = Net()
torch.save({‘epoch’: 10, ‘model_state_dict’: model.state_dict(), ‘optimizer_state_dict’: optimizer.state_dict(), ‘loss’: loss,}, PATH)
.pt .pth .bin
ONNX通用保存 model = Net()
model.load_state_dict(torch.load(“model.bin”))
example_input = torch.randn(1, 3)
torch.onnx.export(model, example_input, “model.onnx”, input_names=[“input”], output_names=[“output”])
.onnx
TorchScript无python环境使用 model = Net()
model_scripted = torch.jit.script(model) # Export to TorchScript model_scripted.save(‘model_scripted.pt’)
使用时:
model = torch.jit.load(‘model_scripted.pt’)
model.eval()
.pt .pth

.pt .pth格式

一个完整的Pytorch模型文件,包含了如下参数:

  • model_state_dict:模型参数
  • optimizer_state_dict:优化器的状态
  • epoch:当前的训练轮数
  • loss:当前的损失值

.pt文件的保存和加载示例(注意,后缀也可以是 .pth ):

  • .state_dict():包含所有的参数和持久化缓存的字典,model和optimizer都有这个方法
  • torch.save():将所有的组件保存到文件中
import torch
import torch.nn as nn

# 定义一个简单的模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(10, 5)
        self.fc2 = nn.Linear(5, 1)

    def forward(self, x):
        x = self.fc1(x)
        x = self.fc2(x)
        return x

model = Net()

# 保存模型
torch.save({
            'epoch': 10,
            'model_state_dict': model.state_dict(),
            'optimizer_state_dict': optimizer.state_dict(),
            'loss': loss,
            }, PATH)
# 加载模型
model = Net()
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']
model.eval()

.bin格式

.bin文件是一个二进制文件,可以保存Pytorch模型的参数和持久化缓存。

  • .bin文件的大小较小,加载速度较快,因此在生产环境中使用较多。
import torch
import torch.nn as nn

# 定义一个简单的模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(10, 5)
        self.fc2 = nn.Linear(5, 1)

    def forward(self, x):
        x = self.fc1(x)
        x = self.fc2(x)
        return x

model = Net()
# 保存参数到.bin文件
torch.save(model.state_dict(), PATH)
# 加载.bin文件
model = Net()
model.load_state_dict(torch.load(PATH))
model.eval()

.onnx格式

上述保存的文件可以通过PyTorch提供的torch.onnx.export函数转化为ONNX格式,这样可以在其他深度学习框架中使用PyTorch训练的模型。转化方法如下:

import torch
import torch.onnx

# 将模型保存为.bin文件
model = torch.nn.Linear(3, 1)
torch.save(model.state_dict(), "model.bin")
# torch.save(model.state_dict(), "model.pt")
# torch.save(model.state_dict(), "model.pth")

# 将.bin文件转化为ONNX格式
model = torch.nn.Linear(3, 1)
model.load_state_dict(torch.load("model.bin"))
# model.load_state_dict(torch.load("model.pt"))
# model.load_state_dict(torch.load("model.pth"))
example_input = torch.randn(1, 3)
torch.onnx.export(model, example_input, "model.onnx", input_names=["input"], output_name

加载ONNX格式的代码可以参考以下示例代码:

import onnx
import onnxruntime

# 加载ONNX文件
onnx_model = onnx.load("model.onnx")

# 将ONNX文件转化为ORT格式
ort_session = onnxruntime.InferenceSession("model.onnx")

# 输入数据
input_data = np.random.random(size=(1, 3)).astype(np.float32)

# 运行模型
outputs = ort_session.run(None, {"input": input_data})

# 输出结果
print(outputs)
注意需要安装onnx和onnxruntime两个Python包此外还需要使用numpy等其他常用的科学计算库

保存完整模型

之前的方式都是保存了.state_dict(),但是没有保存模型结构,在其他使用时,必须先重新定义相同结构的模型(或兼容模型),才能够加载模型参数进行使用,如果想直接把整个模型都保存下来,避免重新定义模型,可以按如下操作:

# 保存模型
PATH = "entire_model.pt"
# PATH = "entire_model.pth"
# PATH = "entire_model.bin"
torch.save(model, PATH)

# 加载模型
model = torch.load("entire_model.pt")
model.eval()

损失函数

什么是损失函数

【2023-1-18】损失函数权威指南

损失函数用于衡量预测输出与提供的目标值之间的误差。通过将预测输出与预期输出进行比较来确定模型的性能

  • 损失函数告诉我们算法模型离实现预期结果还有多远。
  • “损失”一词是指模型因未能产生预期结果而受到的惩罚。

损失函数(称J)采用一对 < 输出, 目标 > 输入,并计算一个值,该值估计输出与目标之间的距离。

  • 预测输出 (y_pred)
  • 目标值 (y)
  • 损失:$ Loss=J(y_pred,y) $

PyTorch 的 torch.nn 模块有多个标准损失函数。

  • 平均绝对误差损失MAE):又称L1损失,计算实际值和预测值之间的绝对差之和的平均值。 $\operatorname{loss}(x, y)=|x-y|$
  • 均方误差损失MSE):又称L2损失,计算实际值和预测值之间的平方差的平均值。惩罚大误差。 $\operatorname{loss}(x, y)=(x-y)^{2}$
  • 负对数似然损失NLL):负对数似然损失函数 (NLL) 仅适用于以 softmax 函数作为输出激活层的模型。
    • Softmax 是指计算层中每个单元的归一化指数函数的激活函数。
    • NLL 使用否定含义,因为概率(或可能性)在0和1之间变化,并且此范围内值的对数为负。 最后,损失值变为正值。
    • 模型因做出正确预测的概率较小而受到惩罚,并因预测概率较高而受到鼓励。 对数执行惩罚。NLL 不仅关心预测是否正确,还关心模型对高分预测的确定性
    • 适用场景:多分类问题
  • 交叉熵损失CE):衡量两个概率分布之间的差异
    • 用于计算一个分数,体现预测值和实际值之间的平均差异
    • 与负对数似然损失(NLL)不同,交叉熵惩罚不正确但置信度高的预测,以及正确但置信度较低的预测。
    • 交叉熵函数有多种变体,最常见的是二元交叉熵 (BCE)。 BCE Loss主要用于二元分类模型
    • 适用场景:
      • ① 二元分类任务,Pytorch 中的默认损失函数。
      • ② 创建有信心的模型——预测将是准确的,而且概率更高。
  • 铰链嵌入损失Hinge):Hinge Embedding Loss 用于计算输入张量 x 和标签张量 y 时的损失。
    • Hinge Loss 函数,只要实际类别值和预测类别值之间的符号存在差异,就可以给出更多错误。
    • 适用场景:目标值介于 {1, -1} 之间,这使其适用于二元分类任务
      • ① 分类问题,尤其是在确定两个输入是不同还是相似时。
      • ② 学习非线性嵌入或半监督学习任务。
  • 边际排名损失MRL):Margin Ranking Loss 计算一个标准来预测输入之间的相对距离。
    • 直接从一组给定的输入进行预测。
    • $ \operatorname{loss}(x, y)=\max (0,-y *(x 1-x 2)+\operatorname{margin}) $
    • 适用场景:排名问题
  • 三元组边际损失TML):Triplet Margin Loss 计算衡量模型中三重态损失的标准。
    • 此损失函数可以计算损失,前提是输入张量 x1、x2、x3 以及值大于零的边距。
    • 三元组由 a(锚点)、p(正例)和 n(负例)组成。
    • $ \mathrm{L}(\mathrm{a}, \mathrm{p}, \mathrm{n})=\max \left{\mathrm{d}\left(\mathrm{a}{\mathrm{i}}, \mathrm{p}{\mathrm{i}}\right)-\mathrm{d}\left(\mathrm{a}{\mathrm{i}}, \mathrm{n}{\mathrm{i}}\right)+\operatorname{margin}, 0\right} $
    • 适用场景
      • ① 确定样本之间存在的相对相似性。
      • ② 用于基于内容的检索问题
  • Kullback-Leibler 散度KL):Kullback-Leibler 散度,缩写为 KL 散度,计算两个概率分布之间的差异。
    • 计算在预测概率分布用于估计预期目标概率分布的情况下丢失的信息量(以位表示)。
    • 输出两个概率分布的接近程度。
      • 如果预测的概率分布与真实的概率分布相差甚远,就会导致很大的损失。
      • 如果 KL Divergence 的值为零,则意味着概率分布相同。
    • KL 散度的行为就像交叉熵损失,它们在处理预测概率和实际概率的方式上存在关键差异。 Cross-Entropy 根据预测的置信度对模型进行惩罚,而 KL Divergence 则不会。 KL 散度仅评估概率分布预测与地面实况分布有何不同。
    • $\operatorname{loss}(x, y)=y \cdot(\log y-x)$
    • 适用场景
      • 逼近复杂函数
      • 多类分类任务
      • 如果你想确保预测的分布与训练数据的分布相似

广义上讲,PyTorch 中的损失函数分为两大类:回归损失和分类损失。(监督学习范畴)

  • 当模型预测连续值(例如人的年龄)时,会使用回归损失函数
  • 当模型预测离散值时使用分类损失函数,例如电子邮件是否为垃圾邮件。
  • 当模型预测输入之间的相对距离时使用排名损失函数,例如根据产品在电子商务搜索页面上的相关性对产品进行排名。

PyTorch提供常见的 Loss Functions

  • nn.MSELoss (Mean Square Error)
  • nn.NLLLoss (Negative Log Likelihood)
  • nn.CrossEntropyLoss (交叉熵)
import torch
import torch.nn as nn
# ----- 数据准备 -------
input = torch.randn(3, 5, requires_grad=True)
target = torch.randn(3, 5)
# target = torch.tensor([1, 0, 4]) # 多分类,NLL
# target = torch.empty(3, dtype=torch.long).random_(5) # 交叉熵
# ----- 损失函数 -------
loss = nn.L1Loss() # MAE
loss = nn.MSELoss() # MSE
output = loss(input, target)
# NLL 负对数似然
m = nn.LogSoftmax(dim=1)
loss = nn.NLLLoss() # NLL
output = loss(m(input), target)
# 交叉熵
loss = nn.CrossEntropyLoss() # CE 交叉熵
# Hinge loss
loss = nn.HingeEmbeddingLoss() # Hinge loss
# 边际排名损失函数
input_one = torch.randn(3, requires_grad=True)
input_two = torch.randn(3, requires_grad=True)
target = torch.randn(3).sign()
ranking_loss = nn.MarginRankingLoss()
output = ranking_loss(input_one, input_two, target)
output.backward()
# 三元组边际损失
anchor = torch.randn(100, 128, requires_grad=True)
positive = torch.randn(100, 128, requires_grad=True)
negative = torch.randn(100, 128, requires_grad=True)

triplet_margin_loss = nn.TripletMarginLoss(margin=1.0, p=2)
output = triplet_margin_loss(anchor, positive, negative)
# KL散度
input = torch.randn(2, 3, requires_grad=True)
target = torch.randn(2, 3)

kl_loss = nn.KLDivLoss(reduction = 'batchmean')
output = kl_loss(input, target)
# ----- 反向传播 -------
output.backward()
# ----- 输出 -------
print('input: ', input)
print('target: ', target)
print('output: ', output)

一个简单的损失是:nn.MSELoss,它计算输入和目标之间的均方误差。

import torch
import torch.nn as nn

output = net(input)
target = torch.randn(10)  # a dummy target, for example
target = target.view(1, -1)  # make it the same shape as output
criterion = nn.MSELoss()

loss = criterion(output, target)
print(loss)

net.zero_grad()     # zeroes the gradient buffers of all parameters
print('conv1.bias.grad before backward')
print(net.conv1.bias.grad)
loss.backward()
print('conv1.bias.grad after backward')
print(net.conv1.bias.grad)

如何创建自己的简单交叉熵损失函数?

  1. 方法一:创建自定义损失函数作为 python 函数
  2. 方法二:使用类定义创建自定义损失函数
# 方法一
def myCustomLoss(my_outputs, my_labels):
    #specifying the batch size
    my_batch_size = my_outputs.size()[0]
    #calculating the log of softmax values           
    my_outputs = F.log_softmax(my_outputs, dim=1)
    #selecting the values that correspond to labels
    my_outputs = my_outputs[range(my_batch_size), my_labels]
    #returning the results
    return -torch.sum(my_outputs)/number_examples
# 方法二
class DiceLoss(nn.Module):
    def __init__(self, weight=None, size_average=True):
        super(DiceLoss, self).__init__()

    def forward(self, inputs, targets, smooth=1):
        inputs = F.sigmoid(inputs)
        inputs = inputs.view(-1)
        targets = targets.view(-1)
        intersection = (inputs * targets).sum()
        dice = (2.*intersection + smooth)/(inputs.sum() + targets.sum() + smooth)
        return 1 - dice

如何监控损失函数?

  • 定义accuracy,结合Matplotlib 绘制
  • notebook中监控PyTorch loss
  • 使用 Neptune 监控 PyTorch 损失:网页形式监控

Autograd 的微分

神经网络(NN)是在某些输入数据上执行的嵌套函数的集合。 这些函数由参数(由权重和偏差组成)定义,这些参数在 PyTorch 中存储在张量中。

训练 NN 分为两个步骤:

  • 正向传播:在正向传播中,NN 对正确的输出进行最佳猜测。 它通过其每个函数运行输入数据以进行猜测。
  • 反向传播:在反向传播中,NN 根据其猜测中的误差调整其参数。 它通过从输出向后遍历,收集有关函数参数(梯度)的误差导数并使用梯度下降来优化参数来实现。

torch.autograd 是 PyTorch 的自动差分引擎,求向量微积分

  • torch.autograd 是用于计算向量雅可比积的引擎

根据链式规则,向量-雅可比积将是l相对于x的梯度:

  • 示例中使用的是 vector-Jacobian 乘积的这一特征。 external_grad 表示 v

torch.autograd 跟踪所有将其 requires_grad 标志设置为True的张量的操作。

  • 对于不需要梯度的张量,将此属性设置为False会将其从梯度计算 DAG 中排除。
  • 即使只有一个输入张量具有 requires_grad=True,操作的输出张量也将需要梯度。
import torch
# requires_grad 提示 autograd 跟踪该张量的所有操作
a = torch.tensor([2., 3.], requires_grad=True)
b = torch.tensor([6., 4.], requires_grad=True)
Q = 3*a**3 - b**2 # 损失函数示例,对a的偏导 9a^2,对b的偏导 -2b
# Q上调用.backward()时,Autograd 将计算这些梯度并将其存储在各个张量的.grad属性中
external_grad = torch.tensor([1., 1.])
# 在Q.backward()中显式传递gradient参数,因为是向量。 gradient是与Q形状相同的张量,它表示Q相对于本身的梯度
Q.backward(gradient=external_grad)
# check if collected gradients are correct, 梯度现在沉积在a.grad和b.grad中
print(9*a**2 == a.grad) # tensor([True, True])
print(-2*b == b.grad) # tensor([True, True])

x = torch.rand(5, 5)
y = torch.rand(5, 5)
z = torch.rand((5, 5), requires_grad=True)

a = x + y
print(f"Does `a` require gradients? : {a.requires_grad}") # False 不需要剃度
b = x + z
print(f"Does `b` require gradients?: {b.requires_grad}") # True 需要剃度

NN 中,不计算梯度的参数通常称为冻结参数。 如果事先知道不需要参数梯度,则“冻结”模型的一部分很有用(通过减少自动梯度计算,这会带来一些性能优势)。

  • 微调中,我们冻结了大部分模型,通常仅修改分类器层以对新标签进行预测。
from torch import nn, optim

model = torchvision.models.resnet18(pretrained=True)
# Freeze all the parameters in the network
for param in model.parameters(): # 模型中的所有参数都将冻结
    param.requires_grad = False
#  10 个标签的新数据集中微调模
# 新增 分类器的新线性层
model.fc = nn.Linear(512, 10) # (默认情况下未冻结)
# 计算梯度的唯一参数是model.fc的权重和偏差
# Optimize only the classifier
optimizer = optim.SGD(model.fc.parameters(), lr=1e-2, momentum=0.9)

不算梯度

模型已经训练后,不算剃度,节省时间

  • no_grad
  • detach
z = torch.matmul(x, w)+b
print(z.requires_grad) # True
 
with torch.no_grad(): # False
    z = torch.matmul(x, w)+b
print(z.requires_grad)
# 另一个办法是用.detach()
z = torch.matmul(x, w)+b
z_det = z.detach()
print(z_det.requires_grad)

当输出 tensor、雅可比积时,也不能计算梯度

inp = torch.eye(5, requires_grad=True)
out = (inp+1).pow(2)
out.backward(torch.ones_like(inp), retain_graph=True)

Variable

autograd.Variableautograd 包的核心类. 包裹着Tensor, 支持几乎所有Tensor的操作,并附加额外的属性. 一旦完成前向计算,可以通过.backward() 方法来自动计算所有的梯度.

  • tensor变成variable之后才能进行反向传播求梯度
  • 用变量.backward()进行反向传播之后,var.grad中保存了var的梯度
  • Variable的运算结果也是Variable,但是,中间结果反向传播中不会被求导(),这和TensorFlow不太一致,TensorFlow中中间运算果数据结构均是Tensor

Variable 有三个比较重要的组成属性: data , grad, grad_fn

  • data tensor 数值,存储了Tensor,是本体的数据
  • grad 反向传播梯度,保存了data的梯度,本事是个Variable而非Tensor,与data形状一致
  • grad_fn 操作,比如通过加减还是乘除来得到的;指向Function对象,用于反向传播的梯度计算之用

自动求导的实现还有一个非常重要的类,即函数(Function).

  • 变量(Variable)和函数(Function)是相互联系的, 并形成一个非循环图来构建一个完整的计算过程.
  • 每个变量有一个.grad_fn属性, 指向创建该变量的一个Function, 用户自己创建的变量的grad_fn属性为None.
# py
import torch
from torch.autograd import Variable

# x = Variable(tensor, requires_grad = True)
x = Variable(torch.one(2,2), requires_grad = True)
print(x)#其实查询的是x.data,是个tensor
y = torch.cos(x)     # 传入Variable
x_tensor_cos = torch.cos(x.data)  # 传入Tensor

y = x.sum()
y.backward()  # 反向传播
x.grad  # Variable的梯度保存在Variable.grad中
# 所以要归零
x.grad.data.zero_()  # 归零梯度,注意,在torch中所有的inplace操作都是要带下划线的,虽然就没有.data.zero()方法

Variable 和 tensor 的区别和联系

  • Variable 是篮子,而 tensor 是鸡蛋,鸡蛋应该放在篮子里才能方便拿走(定义variable时一个参数就是tensor)
  • Variable 这个篮子除了装了 tensor 外, 还有 requires_grad 参数,表示是否需要对其求导,默认为 False

Variable有一些属性

  • grad梯度 variable.grad 是 d(y)/d(variable) 保存的是变量 y 对 variable 变量的梯度值,如果 requires_grad 参数为 False,所以variable.grad 返回值为None,如果为 True,返回值就为对 variable 的梯度值
  • grad_fn,对于用户自己创建的变量 Variable() grad_fn 是为 none 的,也就是不能调用 backward 函数,但对于由计算生成的变量,如果存在一个生成中间变量的 requires_grad 为 true,那其的 grad_fn 不为 none,反则为none
  • data,这个就很简单,这个属性就是装的鸡蛋(tensor)
import numpy as np
import torch
from torch.autograd import Variable

x = Variable(torch.ones(2,2), requires_grad = False)
temp = Variable(torch.zeros(2,2), requires_grad = True)

y = x + temp + 2
y = y.mean() #求平均数
 
y.backward() #反向传递函数,用于求y对前面的变量(x)的梯度
print(x.grad) # d(y)/d(x)
print(temp.grad) # d(y)/d(temp)
# 每次backward后,grad值是会累加的,所以利用BP算法,每次迭代是需要将grad清零的。
x.grad.data.zero_() # in-place操作需要加上_,即zero_

训练

总结

最简单的更新规则是随机梯度下降(SGD):

  • weight = weight - learning_rate * gradient
# 更新权重
learning_rate = 0.01
for f in net.parameters():
    f.data.sub_(f.grad.data * learning_rate)

import torch.optim as optim

# create your optimizer
optimizer = optim.SGD(net.parameters(), lr=0.01)

# in your training loop:
optimizer.zero_grad()   # zero the gradient buffers
output = net(input)
loss = criterion(output, target)
loss.backward()
optimizer.step()    # Does the update

超参

三个超参数

  • Epochs数:数据集迭代次数
  • Batch size:单次训练样本数
  • Learning Rate:学习速度

优化器

torch.optim 中实现了多种优化算法

Optimizer

  • 初始化优化器,给它需要优化的参数,和超参数Learning Rate
optimizer = torch.optim.SGC(model.parameters(),lr = learning_rate)
# 优化器在每个epoch里做三件事
optimizer.zero_grad() # 将梯度清零
loss.backward() # 进行反向传播
optimizer.step() # 根据梯度更新参数

详见站内专题:

模型保存

加载/保存

如何保存和加载训好的模型?

保存和加载模型权重

  • 通过 torch.save 方法,将模型保存到 state_dict 类型的字典里。
import torch
import torchvision.models as models

model = models.vgg16(pretrained=True)
# 保存模型
torch.save(model.state_dict(), 'model_weights.pth')
# gpu中的模型保存到 cpu
torch.load('classifier.pt', map_location=torch.device('cpu'))

先构造相同类型的模型,然后把参数加载进去 load_state_dict

# 实例化模型
model = models.vgg16() # we do not specify pretrained=True, i.e. do not load default weights
# 导入权重
model.load_state_dict(torch.load('model_weights.pth'))
model.eval() # 必须步骤

注意

  • 一定要调一下 model.eval() ,防止后续出错

保存和加载模型,先实例化模型,再导入权值

有没有办法直接保存和加载整个模型呢?

  • 不传 mode.state_dict() 参数,改为 model
# 保存方式
torch.save(model,'model.pth') 
# 直接加载方式
model = torch.load('model.pth')

自动保存最佳模型

best_loss=float('inf') #初始化最好的损失为无穷大

for epoch in range(num_epochs):
  # 训练模型

  # 评估模型
  val_loss = evaluate_model(model, val_loader)
  # 保存最好的模型
  if val_loss < best_loss:
    best_loss = val_loss
    torch.save(model.state_dict), 'best_model.pth')

demo

PyTorch快速入门(直白核心版)

import torch
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
 
training_data = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=ToTensor()
)
 
test_data = datasets.FashionMNIST(
    root="data",
    train=False,
    download=True,
    transform=ToTensor()
)
 
train_dataloader = DataLoader(training_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)
 
class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork, self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
        )
    def forward(self, x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits
 
model = NeuralNetwork()
 
learning_rate = 1e-3
batch_size = 64
epochs = 5
 
# Initialize the loss function
loss_fn = nn.CrossEntropyLoss()
 
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
 
def train_loop(dataloader, model, loss_fn, optimizer):
    size = len(dataloader.dataset)
    for batch, (X, y) in enumerate(dataloader):
        # Compute prediction and loss
        pred = model(X)
        loss = loss_fn(pred, y)
        # Backpropagation
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        if batch % 100 == 0:
            loss, current = loss.item(), batch * len(X)
            print(f"loss: {loss:>7f}  [{current:>5d}/{size:>5d}]")
 
 
def test_loop(dataloader, model, loss_fn):
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    test_loss, correct = 0, 0
 
    with torch.no_grad():
        for X, y in dataloader:
            pred = model(X)
            test_loss += loss_fn(pred, y).item()
            correct += (pred.argmax(1) == y).type(torch.float).sum().item()
 
    test_loss /= num_batches
    correct /= size
    print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f} \n")
 
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
 
epochs = 10
for t in range(epochs):
    print(f"Epoch {t + 1}\n-------------------------------")
    train_loop(train_dataloader, model, loss_fn, optimizer)
    test_loop(test_dataloader, model, loss_fn)
print("Done!")

torch 知识点

PyTorch常用代码段

torch.nn 模块

【2023-1-14】PyTorch torch.nn 模块 Layer 总结

torch.nn 模块是 Pytorch 对 Layer 的总结

torch.nn 模块中的类分为 4 种:

  • (1)容器类nn.modules.container 类,是一系列层的组合。
    • 先通过索引先获取模块类,再按照模块类的方法
    • 主要为 nn.Sequential()
  • (2)模型类,继承 nn.module 类,自行构建的神经网络模型,具体为 nn.modules.module.Module 类
    • 通过 .modules() 方法得到一个迭代器,获得模型中的所有模块类(也可能有容器类)
    • .modules()方法的第一个模型本身。对于嵌套的模块(即容器类),会以此往其子模块遍历
  • (3)模块类,nn.modules 类下除了容器类(nn.modules.container)和模型类(nn.modules.module.Module)均被划为此类,即
    • 含有学习参数的类: nn.Linear();
    • 不含学习参数的类: nn.Sigmoid() 和 nn.MSELoss() 等
    • 使用 type() 函数查看实例化对象,可以得到 < class ‘torch.nn.modules….’ > 的信息
    • 通过特定的属性,返回 nn.parameter 类,再学习参数类的方法(即 .data 属性)得到, 如:对于 nn.Linear() 层,包括 2 种属性:.weight 和 .bias
    • 一些函数层(如:激活函数层,维度和尺寸改变层,损失函数层)可以通过 torch 模块中或 torch.nn.functional 模块中的函数实现;不需要先定义层,直接当做函数使用。
      • 激活函数层 nn.Sigmoid():torch.nn.functional.sigmoid() 和 torch.sigmoid(),但是 PyTorch 官方推荐使用后者
      • 展平层 torch.nn.Flatten():torch.flatten()
      • 损失函数层 nn.MSELoss(): nn.functional.mse_loss()
  • (4)学习参数类nn.parameter
    • 这里为了与函数或实例的传入参数区分,加上了限定词学习,即网络模型需要学习(即,训练,或优化)的参数
    • 一般为 nn.Parameter() 类初始化的实例
    • 使用 type() 函数查看实例化对象,可以得到 < class ‘torch.nn.parameter.Parameter’ > 的信息
    • 直接通过 .data 属性(或 .detach() 方法),得到学习参数值
    • 返回 tensor 数据类型,且 autograd 启动

所有网络模型都是继承于nn.Module

  • torch.nn

注意

  • 容器类(nn.modules.container)和模型类(nn.modules.module.Module)也是 nn.modules 类。

torch.nn 模块中类(即,层类)的使用:先定义,再输入

总结

  • 一个 module 里可包含多个子 module。
    • 比如 LeNet 是一个 Module,里面包括多个卷积层、池化层、全连接层等子 module
  • module 相当于运算,必须实现 forward() 函数
  • 每个 module 都有 8 个字典管理自己的属性

通用层和容器层(Containers)

  • torch.nn.Parameter() 用于 wrap 待优化的模型参数 Tensor
  • torch.nn.Sequential() 将多个网络层,按照先后顺序串联起来
  • torch.nn.Module() 用来管理模型待优化的参数
    • nn.ModuleList:像 python 的 list 一样包装多个网络层,可以迭代; 包装一组网络层,以迭代方式调用网络层, 主要有以下 3 个方法:
      • append():在 ModuleList 后面添加网络层
      • extend():拼接两个 ModuleList
      • insert():在 ModuleList 的指定位置中插入网络层
    • nn.ModuleDict:像 python 的 dict一样包装多个网络层,通过 (key, value) 的方式为每个网络层指定名称。包装一组网络层,以索引的方式调用网络层,主要有以下 5 个方法:
      • clear():清空 ModuleDict
      • items():返回可迭代的键值对 (key, value)
      • keys():返回字典的所有 key
      • values():返回字典的所有 value
      • pop():返回一对键值,并从字典中删除

容器总结

  • nn.Sequetial:顺序性,各网络层之间严格按照顺序执行,常用于 block 构建,在前向传播时的代码调用变得简洁
  • nn.ModuleList:迭代行,常用于大量重复网络构建,通过 for 循环实现重复构建
  • nn.ModuleDict:索引性,常用于可选择的网络层

线性层

  • torch.nn.Linear():对输入数据最后的一个维度上实现
  • torch.nn.LazyLinear()

稀疏层 Sparse Layers

  • torch.nn.Embedding() 用于词向量的嵌入
import torch.nn as nn
import torch.nn.functional as F

# ------- 先定义,再输入 -------
layer = nn.Linear(params)        # 先定义,设置层的参数
# 一般在 nn.Module 模型的初始化函数 __init__() 中定义
output_data = layer(input_data)  # 输入数据,得到输出数据
# 一般在函数 forward() 中定义
# -------  等效表达 -------
input = torch.rand((3, 5))
# 方法 1:
layer = nn.Sigmoid()
output1 = layer(input)
# 方法 2:
output2 = F.sigmoid(input)
# 方法 3:
output3 = torch.sigmoid(input)

# 输出
print(ouput1.size())
print(torch.sum(torch.abs(output2 - output1)))
# -------  parameter -------
w = nn.Parameter(torch.Tensor([1., 1.,])) 
print(w.detach()) # 返回新的tensor
print(w.data) # tensor数值,与原tensor共用
print(w.grad) # tensor梯度值,与原tensor共用
# -------  sequential -------
# 构建输入层为5,隐含层为3,输出层为1,激活函数为sigmoid的神经网络
model = nn.Sequential(
    nn.Linear(5, 3), 
    nn.Sigmoid(),
    nn.Linear(3, 1), 
    nn.Sigmoid(),
    nn.Flatten(0, -1)
)
# -------  模型定义 -------
class MyModel(torch.nn.Module):
    def __init__(self):
        super(MyModel, self).__init__()
		# 放入需要学习的参数
    # 正向传播
    def forward(self, x):
        return y
    
    # 损失函数
    def loss_func(self, y_pred, y_true):
        return loss
    
    # 评估函数(准确率)
    def metric_func(self, y_pred, y_true):
        return metric
    
    # 优化器
    @property
    def optimizer(self):
        return torch.optim.Adam(self.parameters(), lr=0.001)

1. 基本配置

导入包

import torch
import torch.nn as nn
#import torchvision

print(torch.__version__)
print(torch.version.cuda)
print(torch.backends.cudnn.version())
print(torch.cuda.get_device_name(0))

可复现性

在硬件设备(CPU、GPU)不同时,完全的可复现性无法保证,即使随机种子相同。但是,在同一个设备上,应该保证可复现性。具体做法是,在程序开始的时候固定torch的随机种子,同时也把numpy的随机种子固定。

np.random.seed(0)
torch.manual_seed(0)
torch.cuda.manual_seed_all(0)

torch.backends.cudnn.deterministic = True
torch.backends.cudnn.benchmark = False

显卡设置

# 判断当前环境GPU是否可用, 然后将tensor导入GPU内运行
if torch.cuda.is_available():
  tensor = tensor.to('cuda')
# ------------
# 如果只需要一张显卡
# Device configuration 
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# 常用语句:有GPU用GPU,没有用CPU
device = "cuda" if torch.cuda.is_available() else "cpu"
print(f"Using {device} device")

# 如果需要指定多张显卡,比如0,1号显卡。
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1'
# 清除显存
torch.cuda.empty_cache()

也可以在命令行运行代码时设置显卡:

# 命令行指定显卡
CUDA_VISIBLE_DEVICES=0,1
python train.py
# 命令行重置GPU的指令(清楚显存)
nvidia-smi --gpu-reset -i [gpu_id]

CUDA Tensor

如果电脑支持 GPU 加速, 可以将 Tensor 放到 GPU 上.

Tensors可以用 .to() 方法来将其移动到任意设备(CPU/GPU)上.

a = torch.Tensor([[2, 3], [4, 8], [7, 9]])
print(a)
if torch.cuda.is_available():
    device = torch.device("cuda")
    y = torch.ones_like(x, device=device)  # 显示创建在 GPU 上的一个 tensor
    # 把tensor a 放到GPU上了
    # a_cuda = a.cuda() # 方法1 
    a_cuda = a.to(device) # 方法2(建议)
    print(a_cuda)

2. 张量(Tensor)

数学上,张量就是向量矩阵的推广

PyTorch 张量是同一数据类型的元素组成的多维矩阵。

虽然 PyTorch 接口是 Python,但底层主要都是用 C++实现的,而在 Python 中集成 C++代码通常被称为「扩展」

张量是一种包含某种标量类型(比如浮点数和整型数等)的 n 维数据结构。功能与 NumPy 的 ndarray 对象类似

Tensor 表面上像是 Python 列表,但是本质上完全不一样。图见文章

  • Python 列表或元组是一些散落在内存块中的 Python 对象的集合
  • Tensor 是原始 C 语言数字类型的连续内存块视图。无论 Tensor 的形状是什么(3行2列还是2行3列),其中的数据在底层都是分配在连续的内存块中。

张量由一些数据构成,以及描述属性的元数据

  • 张量大小、所包含的元素的类型(dtype)、步幅(stride)
  • 张量所在的设备(CPU 内存?CUDA 内存?)

三个独立地确定张量类型的配套参数:

  • device(设备):描述了实际存储张量的物理内存,比如在 CPU、英伟达 GPU(cuda)、AMD GPU(hip)或 TPU(xla)上。设备之间各不相同的特性是有各自自己的分配器(allocator),这没法用于其它设备。
  • layout(布局):描述了对物理内存进行逻辑解读的方式。最常用的布局是有步幅的张量(strided tensor),但稀疏张量的布局不同,其涉及到一对张量,一个用于索引,一个用于数据;MKL-DNN 张量的布局更加奇特,比如 blocked layout,仅用步幅不能表示它。
  • dtype(数据类型):描述了张量中每个元素实际存储的数据的类型,比如可以是浮点数、整型数或量化的整型数。

张量原理

tensor数据采用头信息区(Tensor)和存储区 (Storage)分开存储的形式;

  • 定义张量A,其形状size、步长stride、索引信息都存储在头信息区,真实数据在存储区
  • 对A进行修改操作,赋值给B,此时B的头信息区变化,但数据存储区与A共享—— 浅拷贝</span>
import torch
# -------张量属性-----
a = torch.arange(5)  # ③ 初始化张量 a 为 [0, 1, 2, 3, 4]
b = a[2:]            # 截取张量a的部分值并赋值给b,b其实只是改变了a对数据的索引方式
print('a:', a)
print('b:', b)
print('ptr of storage of a:', a.storage().data_ptr())  # 打印a的存储区地址
print('ptr of storage of b:', b.storage().data_ptr())  # 打印b的存储区地址,可以发现两者是共用存储区
tensor = torch.rand(3,4)
print(f"Shape of tensor: {tensor.shape}") # 形状(维数) Shape of tensor: torch.Size([3, 4]) 
print(f"Datatype of tensor: {tensor.dtype}") # 数据类型 Datatype of tensor: torch.float32 
print(f"Device tensor is stored on: {tensor.device}") # 存储设备 Device tensor is stored on: cpu
print('==================================================================')
b[1] = 0    # 修改b中索引为1,即a中索引为3的数据为0
print('a:', a)
print('b:', b)
print('ptr of storage of a:', a.storage().data_ptr())  # 打印a的存储区地址,可以发现a的相应位置的值也跟着改变,说明两者是共用存储区
print('ptr of storage of b:', b.storage().data_ptr())  # 打印b的存储区地址
#  运行结果
# a: tensor([0, 1, 2, 3, 4])
# b: tensor([2, 3, 4])
# ptr of storage of a: 2862826251264
# ptr of storage of b: 2862826251264
# ==================================================================
# a: tensor([0, 1, 2, 0, 4])
# b: tensor([2, 0, 4])
# ptr of storage of a: 2862826251264
# ptr of storage of b: 2862826251264

张量存储方式:多维数组以一维展开的几种方式

  • C/C++中使用的是行优先方式(row major)
  • Matlab、Fortran使用的是列优先方式(column major)
  • PyTorch中Tensor底层实现是C,也是使用行优先顺序。
t = torch.arange(12).reshape(3,4)
t
#tensor([[ 0,  1,  2,  3],
#        [ 4,  5,  6,  7],
#        [ 8,  9, 10, 11]])
t.stride() # (4, 1) 连续
t.flatten()
#tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])
t2 = t.transpose(0,1)
t2
#tensor([[ 0,  4,  8],
#        [ 1,  5,  9],
#        [ 2,  6, 10],
#        [ 3,  7, 11]])
t2.stride() # (1, 4) 不连续
t.data_ptr() == t2.data_ptr() # True 底层数据是同一个一维数组
t.is_contiguous(),t2.is_contiguous() # t连续,t2不连续

张量定义

张量命名是一个非常有用的方法,可以方便地使用维度名字来做索引或其他操作,大大提高了可读性、易用性,防止出错。

  • 注意:rand 和 rand_like 只能生成浮点型!
import torch
# ------- 张量定义 -------
data = [[1, 2], [3, 4]]
x_data = torch.tensor(data) # ① 直接根据已有数据创建,python list 转 tensor
x = torch.tensor([5.5, 3])  # tensor方法直接用参数初始化
x = torch.Tensor(5, 3) # 注意区别:Tensor!未初始化
np_array = np.array(data)
x_np = torch.from_numpy(np_array) # ② numpy 转 tensor
# 继承已有张量的数据属性(结构、类型), 也可以重新指定新的数据类型
x_ones = torch.ones_like(x_data)   # ③ 参照已有张量“画瓢”,保留 x_data 的属性
print(f"Ones Tensor: \n {x_ones} \n")
x_rand = torch.rand_like(x_data, dtype=torch.float)   # 重写 x_data 的数据类型:int -> float
print(f"Random Tensor: \n {x_rand} \n")
# 利用randn_like方法得到相同张量尺寸的一个新张量, 并且采用随机初始化来对其赋值
y = torch.randn_like(x, dtype=torch.float)
# 利用news_methods方法得到一个张量
x = x.new_ones(5, 3, dtype=torch.double)
# 指定维度生成张量
shape = (2,3,)
rand_tensor = torch.rand(shape) # 随机数
rand_tensor = torch.rand(5, 3) # 随机数矩阵:5*3
ones_tensor = torch.ones(shape) # 全1
zeros_tensor = torch.zeros(shape) # 全0
x = torch.zeros(5, 3, dtype=torch.long) # 指定数值类型

print(f"Random Tensor: \n {rand_tensor} \n")
print(f"Ones Tensor: \n {ones_tensor} \n")
print(f"Zeros Tensor: \n {zeros_tensor}")

# ---- rand & rand_like 用法 ------
t = torch.rand(10)
t = torch.rand(3,3)
t = torch.rand(size = (3,3))
t = torch.rand(size = [3,3])
t = torch.rand(size=(3,3), dtype=torch.float32) # 指定data_type
# 使用种子
gen = torch.Generator()
gen.manual_seed(2947587447)
tensor = torch.rand(size=(4,3), generator = gen)
#z3 = torch.rand_like(z2) # Error ! torch.rand is only implemented for float types
z3 = torch.rand_like(z2, dtype=torch.float32)

# 未初始化矩阵,所分配的内存中的任何值都将显示为初始值
x = torch.empty(5, 3) # 趋近于0的随机数,如:1.5975e-43
# 在PyTorch 1.3之前,需要使用注释
# Tensor[N, C, H, W]
images = torch.randn(32, 3, 56, 56)
images.sum(dim=1)
images.select(dim=1, index=0)
# PyTorch 1.3之后
NCHW = [N, C, H, W]
images = torch.randn(32, 3, 56, 56, names=NCHW)
images.sum('C') # 使用维度名字索引
images.select('C', index=0)
# 也可以这么设置
tensor = torch.rand(3,4,1,2,names=('C', 'N', 'H', 'W'))
# 使用align_to可以对维度方便地排序
tensor = tensor.align_to('N', 'C', 'H', 'W')

new_* 方法

  • new_* 方法用于替换之前的new方法,从已有张量中创建新张量(相同类型、设备)
  • It seems that in the newer versions of PyTorch there are many of various new_* methods that are intended to replace this “legacy” new method.
  • So if you have some tensor t = torch.randn((3, 4)) then you can construct a new one with the same type and device using one of these methods, depending on your goals:
t = torch.randn((3, 4)) # 原始张量
a = t.new_tensor([1, 2, 3])  # same type, device, new data
b = t.new_empty((3, 4))      # same type, device, non-initialized
c = t.new_zeros((2, 3))      # same type, device, filled with zeros
# 查看张量信息
for x in (t, a, b, c):
    print(x.type(), x.device, x.size())
# torch.FloatTensor cpu torch.Size([3, 4])
# torch.FloatTensor cpu torch.Size([3])
# torch.FloatTensor cpu torch.Size([3, 4])
# torch.FloatTensor cpu torch.Size([2, 3])

Tensor 与 tensor 对比

相同:

  • Tensor 和 tensor 都用于生成新张量

异同:

  • torch.Tensor 主要tensor,所有tensor都是torch.Tensor的实例。
    • torch.Tensortorch.FloatTensor的别名。
    • torch.Tensor([1,2]) 调用 Tensor类构造函数 __init__,生成单精度浮点类型的张量
  • torch.tensor是一个函数,返回一个tensor.
    • torch.tensor(data, dtype=None, device=None, requires_grad=False)
    • data 可以是:list, tuple, NumPy ndarray, scalar和其他类型。
    • torch.tensor 从data中的数据部分做拷贝(而不是直接引用),根据原始数据类型生成相应的 torch.LongTensor、torch.FloatTensor和torch.DoubleTensor
a = torch.Tensor([1,2]) # 直接生成 FloatTensor
a # tensor([1., 2.])
a.type() # 'torch.FloatTensor'
# ----------------
a = torch.tensor([1,2]) # 根据数据类型自动适配 int
a # tensor([1, 2])
a.type() # 'torch.LongTensor'
a = torch.tensor([1.,2.]) # 自动适配 float
a.type() # 'torch.FloatTensor'
a = np.zeros(2,dtype=np.float64)
a = torch.tensor(a) # 自动适配 double
a.type() # 'torch.DoubleTensor'

区别1

  • torch.Tensor(data) 将输入 data 转化 torch.FloatTensor
    • torch.Tensor() 只能指定数据类型为torch.float,所以torch.Tensor() 是 torch.empty() 的一个特殊情况
  • torch.tensor(data): (未指定dype的类型时) 将 data 自动转化为 torch.FloatTensor、torch.LongTensor、torch.DoubleTensor等类型,转化类型依据于data的类型或者dtype的值

区别2

  • 使用如下语句:tensor_without_data = torch.Tensor() 可以创建一个空的FloatTensor
  • 而使用 tensor_without_data = torch.tensor() 时候则会报错

如何创建一个空的tensor?

tensor_without_data = torch.Tensor() # tensor([])
tensor_without_data = torch.tensor(()) # tensor([])
tensor_without_data = torch.empty([]) # tensor(0.)

所以 torch.Tensor 同时具有 torch.tensor 和 torch.empty 的功能

  • 但使用 torch.Tensor 可能会使代码 confusing,所以最好还是使用 torch.tensor 和 torch.empty,而不是 torch.Tensor。

Tensor 与 numpy

Tensor 和 Numpy 数组可相互转换,并且两者转换后共享在 CPU 内存空间,即: 改变其中一个的数值,另一个变量也会随之改变。

Tensor(在CPU上) 与 numpy 数据共享基础内存位置, 因此改变其中一个的值, 另一个也会随之被改变.

  • CharTensor外,CPU上的所有张量都支持与 NumPy 相互转换。
  • 用类似于Numpy的方式对张量进行操作, 可以像 numpy 一样 Tensor 切片

Tensor 与 numpy 互转

  • 类似引用,没有新建内存,二者修改同步
# tensor → numpy
t = torch.ones(5)
n = t.numpy()
# numpy → tensor
n =  np.ones(5)
t = torch.from_numpy(n)

代码

import numpy as np
import torch
# Numpy array --> Torch Tensor
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a, 1, out=a)
print(a) # [2. 2. 2. 2. 2.]
print(b) # tensor([2., 2., 2., 2., 2.], dtype=torch.float64)
# Torch Tensor --> Numpy array
a = torch.ones(5)
print(a) # tensor([1., 1., 1., 1., 1.])
b = a.numpy()
print(b) # [1., 1., 1., 1., 1.]
a.add_(1)
print(a) # tensor([2., 2., 2., 2., 2.])
print(b) # [2. 2. 2. 2. 2.]
# tensor 切片
print(b[: 3]) # tensor([2., 2., 2.], dtype=torch.float64)
# ----- 索引 --------
# numpy 一样通过索引获取其中元素,同时改变它的值。
a = torch.zeros((3, 2))
print(a)
a[0, 1] = 100
print(a)
# tensor([[  0., 100.],
#         [  0.,   0.],
#         [  0.,   0.]])
tensor = torch.ones(4,4)
print(tensor[0]) 	    # 第一行(0开始)
print(tensor[;,0])		# 第一列(0开始)
print(tensor[...,-1]) # 最后一列

# 张量中只有一个元素, 可以用.item()将值取出, 作为一个python number
x = torch.randn(1) # 生成一个元素的张量
print(x) # tensor([0.5374])
print(x.item()) # 0.5374473929405212
x = torch.randn(2, 2)
print(x[1, 1]) # 输出张量:tensor(2.1489)
print(x[1, 1].item()) # 输出元素:2.1488616466522217

张量基本信息

0.4.0 以后版本,Variable 消失, 融入 Tensor 中

因此, Tensor 除了具有 Variable 5个属性,还有另外 3个属性。

张量的变量属性:

  • data:保存张量的数据
  • grad:保存反向传播过程中计算的梯度值
  • grad_fn:指向后向图中的一个节点
  • is_leaf:该张量是否是图中的叶子节点
  • requires_grad
    • 如果对于某个操作,其所有输入张量的requires_grad属性均为false,那么该操作的输出张量的
    • requires_grad属性也是false,同时也不会生成后向图,且输出张量也是叶子节点
    • 张量a和b都是requires_grad=False, c=a*b 为 False
    • 张量a是requires_grad=True,张量b是False,c=a*b 为 True

另外3个属性

  • dtype: 张量的数据类型,如 torch.FloatTensor,torch.cuda.FloatTensor。
  • shape: 张量的形状。如 (64, 3, 224, 224)
  • device: 张量所在设备 (CPU/GPU),GPU 是加速计算的关键
维度 叶子节点(requires_grad都是false) 非叶子节点(requires_grad有true)
c=a*b graph

torch的tensor也有步长属性。tensor的步长是从索引中的一个维度跨到下一个维度中间的跨度

  • 卷积神经网络中卷积核对特征图的卷积操作也是有stride属性,但这两个stride可完全不是一个意思

Tensor 索引和 Python 列表索引一样, 但 Tensor 还支持更高级的索引方式。

t[t>3]
import torch

tensor = torch.randn(3,4,5)
print(tensor.type())  # 数据类型
print(tensor.size())  # 张量的shape,是个元组
print(tensor.dim())   # 维度的数量
print('size   of a:', a.size())    # 查看a的shape
print('stride of a:', a.stride())  # 查看a的stride
print(a.storage_offset()) # 初始偏移量
print(a.storage())    # 打印a的储存区真实的数据
print('ptr of storage of a: ', a.storage().data_ptr())  # 查看a的storage区的地址

a = torch.arange(6).reshape(2, 3)  # 初始化张量 a
b = torch.arange(6).view(3, 2)     # 初始化张量 b
print('a:', a)
print('stride of a:', a.stride())  # 打印a的stride
print('b:', b)
print('stride of b:', b.stride())  # 打印b的stride

#   运行结果
# a: tensor([[0, 1, 2],
#            [3, 4, 5]])
# stride of a: (3, 1)
#  
# b: tensor([[0, 1],
#            [2, 3],
#            [4, 5]])
# stride of b: (2, 1)

张量类型

PyTorch有9种CPU张量类型和9种GPU张量类型。

torch.Tensor 是一种包含单一数据类型元素的多维矩阵。

  • torch.Tensor 是默认的tensor类型(torch.FlaotTensor)的简称。

实际上,Torch定义了7种CPU tensor类型和8种GPU tensor类型:

Data type CPU tensor GPU tensor
32-bit floating point torch.FloatTensor torch.cuda.FloatTensor
64-bit floating point torch.DoubleTensor torch.cuda.DoubleTensor
16-bit floating point N/A torch.cuda.HalfTensor
8-bit integer (unsigned) torch.ByteTensor torch.cuda.ByteTensor
8-bit integer (signed) torch.CharTensor torch.cuda.CharTensor
16-bit integer (signed) torch.ShortTensor torch.cuda.ShortTensor
32-bit integer (signed) torch.IntTensor torch.cuda.IntTensor
64-bit integer (signed) torch.LongTensor torch.cuda.LongTensor

每一个张量tensor都有一个相应的torch.Storage用来保存其数据。

  • 类tensor提供了一个存储的多维的、横向视图,并且定义了在数值运算。

Tensor 数据类型

  • torch.float32 或 torch.float:32位浮点,默认数据类型
  • torch.float64 或 torch.double:64位双精度浮点
  • torch.float16 或 torch.half:16位半精度浮点
  • torch.int8:有符号8位整数
  • torch.uint8:无符号8位整数
  • torch.int16 或 torch.short:有符号16位整数
  • torch.int32 或 torch.int:有符号32位整数
  • torch.int64 或 torch.long:有符号64位整数

注意:

  • 改变tensor的函数操作会用一个下划线后缀来标示。否则,不会改变原tensor值!
  • torch.FloatTensor.abs_()会在原地计算绝对值,并返回改变后的tensor
  • tensor.FloatTensor.abs()将会在一个新的tensor中计算结果。
  • 类似的,in-place运算还有:acos_, asin_, add_, addbmm_, addcmul_, ceil_
  • 更多信息,参考官网
# 通过list或序列构建tensor
a = torch.FloatTensor([[1, 2, 3], [4, 5, 6]])
print(a[1][2]) # 6.0
a[0][1] = 8 # 索引和切片来获取和修改张量
print(a)
# 指定大小,创建tensor
torch.IntTensor(2, 4).zero_()

张量类型

  • torch.Tensor 相当于torch.FloatTensor ,32位浮点型
  • torch.DoubleTensor 64位浮点型
  • torch.ShortTensor 16位整型
  • torch.IntTensor 32位整型
  • torch.LongTensor 64位整型

类型转换

  • 浮点型变化: 精度提升
    • 32位与64位合并的tensor为64位
  • 整型变化:
    • 16位与64位合并的tensor为64位
  • 浮点型+整型向更大的变化
    • 浮点与整型合并为浮点

示例

import torch

# Tensor相当于FloatTensor
a = torch.Tensor([[1, 2], [3, 4], [5, 6]])
print(a)
print(a.type())

# 指定数据类型为64位浮点型
a = torch.DoubleTensor([[1, 2], [3, 4], [5, 6]])
print(a)
print(a.type())
# 16位整型
a = torch.ShortTensor ([[1, 2], [3, 4], [5, 6]])
print(a)
print(a.type())
# 32位整型
a = torch.IntTensor ([[1, 2], [3, 4], [5, 6]])
print(a)
print(a.type())
# torch.LongTensor:64位整型
a = torch.LongTensor ([[1, 2], [3, 4], [5, 6]])
print(a)
print(a.type())
# 类型转化
a = torch.ShortTensor  ([[1, 2], [3, 4]])
b = torch.LongTensor([[5, 6], [7, 8]])
result = torch.cat([a,b], 0) # 拼接两个tensor
print(result)
print(result.dtype) # 64位
数据类型转换

方法

  • 直接转换:直接使用float, long转换
    • tensor.int()
    • tensor.type(torch.IntTensor)
  • 参考转换:
    • type_as转成指定变量同类型
# 设置默认类型,pytorch中的FloatTensor远远快于DoubleTensor
torch.set_default_tensor_type(torch.FloatTensor)
# 类型转换
tensor = tensor.cuda()
tensor = tensor.cpu()
newtensor = tensor.char() # char
tensor = tensor.float()
newtensor = tensor.byte() # short类型
tensor = tensor.long()
newtensor = tensor.half() # 半精度浮点类型
newtensor = tensor.int() # 整型
newtensor = tensor.double()

# type_as 转换为指定变量的类型
tensor1=torch.FloatTensor(4)
tensor2=torch.IntTensor(3)
tensor1=tensor1.type_as(tensor2) # type_as转换
tensor1.type(torch.FloatTensor) # type 转换

torch.Tensor与np.ndarray转换

  • 除了CharTensor,其他所有CPU上的张量都支持转换为numpy格式然后再转换回来。
ndarray = tensor.cpu().numpy()
tensor = torch.from_numpy(ndarray).float()
tensor = torch.from_numpy(ndarray.copy()).float() # If ndarray has negative stride.

Torch.tensor与PIL.Image转换

# pytorch中的张量默认采用[N, C, H, W]的顺序,并且数据范围在[0,1],需要进行转置和规范化
# torch.Tensor -> PIL.Image
image = PIL.Image.fromarray(torch.clamp(tensor*255, min=0, max=255).byte().permute(1,2,0).cpu().numpy())
image = torchvision.transforms.functional.to_pil_image(tensor)  # Equivalently way

# PIL.Image -> torch.Tensor
path = r'./figure.jpg'
tensor = torch.from_numpy(np.asarray(PIL.Image.open(path))).permute(2,0,1).float() / 255
tensor = torchvision.transforms.functional.to_tensor(PIL.Image.open(path)) # Equivalently way
# np.ndarray与PIL.Image的转换
image = PIL.Image.fromarray(ndarray.astype(np.uint8))

ndarray = np.asarray(PIL.Image.open(path))
# 从只包含一个元素的张量中提取值
value = torch.rand(1).item()

张量索引

张量索引方法

  • Python 风格索引,按step采样
  • 指定特定索引 index_select
  • 任意维度索引 ...
  • mask 索引: masked_select 条件筛选
  • take 索引: take 打平后再索引
import torch

# 譬如:4张图片,每张三个通道,每个通道28行28列的像素
a = torch.rand(4, 3, 28, 28) # 4张图片数据, 3个通道
print(a[0].shape) #取到第一个维度 torch.Size([3, 28, 28])
print(a[0, 0].shape) # 取到二个维度 torch.Size([28, 28])
print(a[1, 2, 2, 4])  # 具体到某个元素 tensor(0.1076)
# 在第一个维度上取后0和1,等同于取第一、第二张图片
print(a[:2].shape)  
# 在第一个维度上取0和1,在第二个维度上取0,等同于取第一、第二张图片中的第一个通道
print(a[:2, :1, :, :].shape)  
# 在第一个维度上取0和1,在第二个维度上取1,2,等同于取第一、第二张图片中的第二个通道与第三个通道
print(a[:2, 1:, :, :].shape) 
# 在第一个维度上取0和1,在第二个维度上取1,2,等同于取第一、第二张图片中的第二个通道与第三个通道
print(a[:2, -2:, :, :].shape)  
# 使用step隔行采样
# 在第一、第二维度取所有元素,在第三、第四维度隔行采样 等同于所有图片所有通道的行列每个一行或者一列采样
# 注意:下面的代码不包括28
print(a[:, :, 0:28:2, 0:28:2].shape) 
print(a[:, :, ::2, ::2].shape)  # 等同于上面语句

# -------  index_select()选择特定索引 ----------
# 选择第一张和第三张图 torch.Size([2, 3, 28, 28])
print(a.index_select(0, torch.tensor([0, 2])).shape)
# 选择R通道和B通道 torch.Size([4, 2, 28, 28])
print(a.index_select(1, torch.tensor([0, 2])).shape)
# 选择图像的0~8行 torch.Size([4, 3, 8, 28])
print(a.index_select(2, torch.arange(8)).shape)
# ------- 任意多维度 ----------
# 等与a torch.Size([4, 3, 28, 28])
print(a[...].shape)
# 第一张图片的所有维度 torch.Size([3, 28, 28])
print(a[0, ...].shape)
# 所有图片第二通道的所有维度 torch.Size([4, 28, 28])
print(a[:, 1, ...].shape)
# 所有图像所有通道所有行的第一、第二列 torch.Size([4, 3, 28, 2])
print(a[..., :2].shape)
# -------- mask 索引: masked_select  --------
a = torch.randn(3, 4)
print(a) 
# 生成a这个Tensor中大于0.5的元素的掩码
mask = a.ge(0.5)
print(mask)
# 取出a这个Tensor中大于0.5的元素
val = torch.masked_select(a, mask)
print(val)
print(val.shape)
# ---------- take索引 --------------
#  take索引是在原来Tensor的shape基础上打平,然后在打平后的Tensor上进行索引
a = torch.tensor([[3, 7, 2], [2, 8, 3]])
print(a)
print(torch.take(a, torch.tensor([0, 1, 5]))) # tensor([3, 7, 3])

张量运算

有超过100种张量相关的运算操作, 例如转置、索引、切片、数学运算、线性代数、随机采样等

  • 所有运算都可以在GPU上运行(更高的运算速度)。如果是Google的Colab环境, 可以通过 Edit > Notebook Settings 来分配一个GPU使用。
import torch
# 索引
a = torch.ones(4, 4)
a[:,1] = 0            # 将第1列(从0开始)的数据全部赋值为0
# 加法操作
x = torch.rand(5, 3)
y = torch.rand(5, 3)
print(x + y) # 第一种
print(torch.add(x, y)) # 第二种
result = torch.empty(5, 3) # 第三种,未初始化
# 或
result = torch.Tensor(5, 3) # 未初始化,默认torch.FloatTensor,也可定义torch. LongTensor(5,3),变换数据类型也可以用result.int(),即后面直接加类型
# (1)张量加法:结果复制
torch.add(x, y, out=result)
print(result)
# (2)原地加法
y.add_(x) # 第四种
np.add(x, 1, out=x) # numpy的等效实现,与tensor共享存储空间,所以一起变化
print(y)

注意

  • 所有in-place 操作函数都有一个下划线的后缀. 比如x.copy_(y), x.add_(y), 都会直接改变x的值.

+运算符

torch.add(tensor1, tensor2, [out=tensor3])
tensor1.add_(tensor2) # 直接修改 tensor 变量

张量形变 view

改变张量的形状,可以使用torch.view():

x = torch.randn(4, 4)  # 标准正态分布
# tensor.view()操作需要保证数据元素的总数量不变
y = x.view(16)
# -1代表自动匹配个数
z = x.view(-1, 8)
print(x.size(), y.size(), z.size()) # torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])

维度重塑 viewreshapereszie_

viewreshape 重塑tensor shape。

  • view 只适合对满足连续性条件(contiguous)的tensor进行操作
    • 注:is_contiguous 是Tensor底层一维数组元素的存储顺序与Tensor按行优先一维展开的元素顺序是否一致。
  • reshape 适用范围更广, 可对不满足连续性条件的tensor进行操作。
  • view 能干的, reshape 都能干,如果view不能干就可以用reshape来处理—— view < reshape
  • 满足tensor连续性条件时,a.reshape返回的结果与a.view()相同,否则, 返回结果与a.contiguous().view()相同

如果不满足连续性条件

  • contiguous()方法将原始tensor转换为满足连续条件的tensor,然后就可以使用view方法进行shape变换了。
  • 或者直接使用reshape方法进行维度变换,但这种方法变换后的tensor就不是与原始tensor共享内存了,而是被重新开辟了一个空间。

最后总结一下view()reshape()reszie_()三者的关系和区别。

  • view()只能对满足连续性要求的tensor使用。
  • 当tensor满足连续性要求时,reshape() = view(),和原来tensor共用内存。
  • 当tensor不满足连续性要求时,reshape() = contiguous() + view(),会产生新的存储区的tensor,与原来tensor不共用内存。
  • resize_()可以随意获取任意维度的tensor,不用在意真实数据的个数限制,但是不推荐使用。

view 重构张量维度,相当于numpy中resize的功能,但是用法可能不太一样

tt=torch.tensor([-0.3623, -0.6115,  0.7283,  0.4699,  2.3261,  0.1599])
result=tt.view(3,2) # 将一维的tt1重构成3x2维的张量
result=tt.view(-1) # 变成1维
result=tt.view(2,-1) # 变成2行,列数不定,由元素总数而定

# 在将卷积层输入全连接层的情况下通常需要对张量做形变处理,
# 相比torch.view,torch.reshape可以自动处理输入张量不连续的情况。
tensor = torch.rand(2,3,4)
shape = (6, 4)
tensor = torch.reshape(tensor, shape)
# 打乱顺序
tensor = tensor[torch.randperm(tensor.size(0))]  # 打乱第一个维度
# 水平翻转
# pytorch不支持tensor[::-1]这样的负步长操作,水平翻转可以通过张量索引实现
# 假设张量的维度为[N, D, H, W].
tensor = tensor[:,:,:,torch.arange(tensor.size(3) - 1, -1, -1).long()]
降维(squeeze)、升维(unsqueeze)

torch.unsqueeze() 和 torch.squeeze()

  • squeeze(): 降维,将输入张量形状中的1 去除并返回。
    • 如果输入是形如(A×1×B×1×C×1×D),那么输出形状就为: (A×B×C×D)
    • 当给定dim时,那么挤压操作只在给定维度上。例如,输入形状为: (A×1×B), squeeze(input, 0) 将会保持张量不变,只有用 squeeze(input, 1),形状会变成 (A×B)。
    • 注意: 返回张量与输入张量共享内存,所以改变其中一个的内容会改变另一个。
    • 参数:
      • input (Tensor) – 输入张量
      • dim (int, optional) – 如果给定,则input只会在给定维度挤压
      • out (Tensor, optional) – 输出张量
  • unsqueeze(): 升维, 返回一个新的张量,对输入的既定位置插入维度 1
    • 注意:
      • 返回张量与输入张量共享内存,所以改变其中一个的内容会改变另一个。
      • 如果dim为负,则将会被转化dim+input.dim()+1
    • 参数:
      • tensor (Tensor) – 输入张量
      • dim (int) – 插入维度的索引
      • out (Tensor, optional) – 结果张量
import torch
# torch.Tensor是默认的tensor类型(torch.FlaotTensor)的简称。
x = torch.Tensor([1, 2, 3, 4])  # 定义1维张量
print(x)  # tensor([1., 2., 3., 4.])
print(x.size())  # torch.Size([4])
print(x.dim())  # 1
print(x.numpy())  # [1. 2. 3. 4.]

print('-' * 50)
print(torch.unsqueeze(x, 0))  # 升维:第1个位置,tensor([[1., 2., 3., 4.]])
print(torch.unsqueeze(x, 0).size())  # torch.Size([1, 4])
print(torch.unsqueeze(x, 0).dim())  # 2
print(torch.unsqueeze(x, 0).numpy())  # [[1. 2. 3. 4.]]
print(torch.unsqueeze(x, 1)) # 升维:第2个位置
# tensor([[1.],
#         [2.],
#         [3.],
#         [4.]])
print(torch.unsqueeze(x, 1).size())  # torch.Size([4, 1])
print(torch.unsqueeze(x, 1).dim())  # 2

print(torch.unsqueeze(x, -1)) # 升维:最后1个位置
# tensor([[1.],
#         [2.],
#         [3.],
#         [4.]])
print(torch.unsqueeze(x, -1).size())  # torch.Size([4, 1])
print(torch.unsqueeze(x, -1).dim())  # 2
print(torch.unsqueeze(x, -2))  # 升维:倒数第2个位置tensor([[1., 2., 3., 4.]])
 print(torch.unsqueeze(x, -2).size())  # torch.Size([1, 4])
print(torch.unsqueeze(x, -2).dim())  # 2

# 边界测试
# 说明:A dim value within the range [-input.dim() - 1, input.dim() + 1) (左闭右开)can be used.
# print('-' * 50)
# print(torch.unsqueeze(x, -3))
# IndexError: Dimension out of range (expected to be in range of [-2, 1], but got -3)
# print('-' * 50)
# print(torch.unsqueeze(x, 2))
# IndexError: Dimension out of range (expected to be in range of [-2, 1], but got 2)

# 为何取值范围要如此设计呢?
# 原因:方便操作
# 0(-2)-行扩展
# 1(-1)-列扩展
# 正向:我们在0,1位置上扩展
# 逆向:我们在-2,-1位置上扩展
# 维度扩展:1维->2维,2维->3维,...,n维->n+1维
# 维度降低:n维->n-1维,n-1维->n-2维,...,2维->1维

# 以 1维->2维 为例,从【正向】的角度思考:
# torch.Size([4])
# 最初的 tensor([1., 2., 3., 4.]) 是 1维,我们想让它扩展成 2维,那么,可以有两种扩展方式:
# 一种是:扩展成 1行4列 ,即 tensor([[1., 2., 3., 4.]]),针对第一种,扩展成 [1, 4]的形式,那么,在 dim=0 的位置上添加 1
# 另一种是:扩展成 4行1列,即
# tensor([[1.],
#         [2.],
#         [3.],
#         [4.]])
# 针对第二种,扩展成 [4, 1]的形式,那么,在dim=1的位置上添加 1,从【逆向】的角度思考:
# 原则:一般情况下, "-1" 是代表的是【最后一个元素】
# 在上述的原则下,
# 扩展成[1, 4]的形式,就变成了,在 dim=-2 的的位置上添加 1
# 扩展成[4, 1]的形式,就变成了,在 dim=-1 的的位置上添加 1
# ------------------
print("-" * 50)
a = torch.Tensor([1, 2, 3, 4])
print(a) # tensor([1., 2., 3., 4.])
b = torch.unsqueeze(a, 1)
print(b)
# tensor([[1.],
#         [2.],
#         [3.],
#         [4.]])
print(a) # a 不变!
# tensor([1., 2., 3., 4.])
print("-" * 50)
a = torch.Tensor([1, 2, 3, 4])
print(a) # # tensor([1., 2., 3., 4.])
print(a.unsqueeze_(1))
# tensor([[1.],
#         [2.],
#         [3.],
#         [4.]])
print(a) # a 变化!
# tensor([[1.],
#         [2.],
#         [3.],
#         [4.]])
# ------------------
m = torch.zeros(2, 1, 2, 1, 2) # 5维张量
print(m.size())  # torch.Size([2, 1, 2, 1, 2])
n = torch.squeeze(m) # 降维:去除1维部分
print(n.size())  # torch.Size([2, 2, 2])
n = torch.squeeze(m, 0)  # 当给定dim时,那么挤压操作只在给定维度上
print(n.size())  # torch.Size([2, 1, 2, 1, 2])
n = torch.squeeze(m, 1) # 只作用在第2维(刚好是1,所以第2维消失)
print(n.size())  # torch.Size([2, 2, 1, 2])
n = torch.squeeze(m, 2) # 只作用在第3维(不是1,所以维持现状)
print(n.size())  # torch.Size([2, 1, 2, 1, 2])
n = torch.squeeze(m, 3) # 只作用在第4维(刚好是1,所以第4维消失)
print(n.size())  # torch.Size([2, 1, 2, 2])

p = torch.zeros(2, 1, 1)
print(p)
# tensor([[[0.]],
#         [[0.]]])
print(p.numpy())
# [[[0.]]
#  [[0.]]]
print(p.size()) # torch.Size([2, 1, 1])
q = torch.squeeze(p)
print(q) # tensor([0., 0.])
print(q.numpy()) # [0. 0.]
print(q.size()) # torch.Size([2])
print(torch.zeros(3, 2).numpy())
# [[0. 0.]
#  [0. 0.]
#  [0. 0.]]

unsqueeze_unsqueeze 的区别

  • unsqueeze_unsqueeze 实现一样的功能
  • 区别在于 unsqueeze_in_place 操作, 即 unsqueeze 不会对使用 unsqueeze 的 tensor 进行改变,想要获取 unsqueeze 后的值必须赋予个新值, unsqueeze_ 则会对自己改变。
  • PyTorch中的 XXX_ 和 XXX 实现的功能都是相同的,唯一不同的是前者进行的是 in_place 操作
维度互换 permute,transpose,contiguous

permute(dims): 将tensor的维度换位

(1)transposepermute的异同

  • Tensor.permute(a,b,c,d, …):permute函数可以对任意高维矩阵进行转置,但没有 torch.permute() 这个调用方式, 只能 Tensor.permute()
  • torch.transpose(Tensor, a,b):transpose只能操作2D矩阵的转置,有两种调用方式
    • 连续使用transpose也可实现permute的效果
  • permute相当于可以同时操作于tensor的若干维度,transpose只能同时作用于tensor的两个维度;

(2)permute函数与contiguousview函数之关联

  • contiguous:view只能作用在contiguous的variable上,如果在view之前调用了transpose、permute等,就需要调用contiguous()来返回一个contiguous copy;
  • 一种可能的解释是:有些tensor并不是占用一整块内存,而是由不同的数据块组成,而tensor的view()操作依赖于内存是整块的,这时只需要执行contiguous()这个函数,把tensor变成在内存中连续分布的形式;

判断ternsor是否为contiguous,可以调用torch.Tensor.is_contiguous()函数

import torch 

x = torch.randn(2, 3, 5) 
x.size()  # torch.Size([2, 3, 5]) 
x.permute(2, 0, 1).size() # torch.Size([5, 2, 3])

torch.randn(2,3,4,5).permute(3,2,0,1).shape # torch.Size([5, 4, 2, 3])
torch.randn(2,3,4,5).transpose(3,0).transpose(2,1).transpose(3,2).shape # torch.Size([5, 4, 2, 3])
torch.randn(2,3,4,5).transpose(1,0).transpose(2,1).transpose(3,1).shape # torch.Size([3, 5, 2, 4])

x = torch.ones(10, 10) 
x.is_contiguous()                                 # True 
x.transpose(0, 1).is_contiguous()                 # False
x.transpose(0, 1).contiguous().is_contiguous()    # True

a=np.array([[[1,2,3],[4,5,6]]])
unpermuted=torch.tensor(a)
print(unpermuted.size())              #  ——>  torch.Size([1, 2, 3])
permuted=unpermuted.permute(2,0,1)
print(permuted.size())                #  ——>  torch.Size([3, 1, 2])
view_test = unpermuted.view(1,3,2)
print(view_test.size())               #  ——>  torch.Size([1, 3, 2])

张量赋值

自动赋值运算通常在方法后有 _ 作为后缀, 例如: x.copy_(y), x.t_()操作会改变 x 的取值。

  • 自动赋值运算虽然可以节省内存, 但在求导时会因为丢失了中间过程而导致一些问题, 所以并不鼓励使用它
Operation New/Shared memory Still in computation graph
tensor.clone() New Yes
tensor.detach() Shared No
tensor.detach.clone()() New No
import torch

a = torch.ones(4, 4)
print(tensor, "\n")
tensor.add_(5)
print(tensor)

t = torch.ones(5)
print(f"t: {t}")
n = t.numpy() # tensor -> numpy
print(f"n: {n}")
n = np.ones(5)
t = torch.from_numpy(n) # numpy -> tensor
t.add_(1) # 所有元素+1(原地)

张量拼接

torch.cat方法将一组张量按照指定的维度进行拼接, 也可以参考torch.stack方法

注意

  • torch.cat 和 torch.stack 的区别在于 torch.cat 沿着给定的维度拼接,
  • 而 torch.stack 会新增一维。例如当参数是3个10x5的张量,torch.cat 的结果是30x5的张量,
  • 而torch.stack的结果是3x10x5的张量。
t1 = torch.cat([a, a, a], dim=1)
tensor = torch.cat(list_of_tensors, dim=0)
tensor = torch.stack(list_of_tensors, dim=0)
# 将整数标签转为one-hot编码
# pytorch的标记默认从0开始
tensor = torch.tensor([0, 2, 1, 3])
N = tensor.size(0)
num_classes = 4
one_hot = torch.zeros(N, num_classes).long()
one_hot.scatter_(dim=1, index=torch.unsqueeze(tensor, dim=1), src=torch.ones(N, num_classes).long())

得到非零元素

torch.nonzero(tensor)               # index of non-zero elements
torch.nonzero(tensor==0)            # index of zero elements
torch.nonzero(tensor).size(0)       # number of non-zero elements
torch.nonzero(tensor == 0).size(0)  # number of zero elements

判断两个张量相等

torch.allclose(tensor1, tensor2)  # float tensor
torch.equal(tensor1, tensor2)     # int tensor

张量扩展

# Expand tensor of shape 64*512 to shape 64*512*7*7.
tensor = torch.rand(64,512)
torch.reshape(tensor, (64, 512, 1, 1)).expand(64, 512, 7, 7)

矩阵运算 – 重点

矩阵乘法三种办法,类似于运算符重载成员函数非成员函数

@ 和 * 代表矩阵的两种相乘方式:

  • @ 表示数学上定义的矩阵乘法
  • * 表示点乘,两个矩阵对应位置处的两个元素相乘

总结

pytorch里的矩阵运算:

  • ① 点乘:逐个元素相乘 mul* , 还有 dot
    • 广播 broadcast: 当a, b维度不一致时,会自动填充到相同维度相点乘
    • torch.dot(a,b) 一维张量点乘
    • mul : 两个维度必须相等, 可广播
  • ② 矩阵乘法: matmul@, 以及 mmbmm
    • 矩阵相乘有 torch.mm 和 torch.matmul 两个函数。
      • mm 只用于二维矩阵,当torch.mm用于大于二维时将报错。
      • matmul 是高维, 兼容多种
        • 都是一维矩阵: 功能同 torch.dot(), 返回两个一维tensor的点乘结果
        • 都是二维矩阵: 功能与 torch.mm() 一样,返回两个二维矩阵的矩阵乘法
        • 一维 + 二维: 广播运算, 一维度上预填充一个1,执行二维矩阵乘法,最后将预填充的维度1去掉
        • 二维或以上 + 一维: 执行矩阵-向量乘法。
        • 三维 + 一维: 批处理矩阵乘法
      • bmm 两个输入必须是3-D矩阵且第一维相同(batch size)。
    • mmbmm 不 广播(broadcast)
# (1) torch.dot 两个1-D 张量的点乘(内乘)
torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1])) # tensor(7)
# (2) torch.mm 只用于两个2-D矩阵的矩阵乘法
mat1 = torch.randn(2, 3)
mat2 = torch.randn(3, 3)
torch.mm(mat1, mat2)
# tensor([[ 0.4851,  0.5037, -0.3633],
#         [-0.0760, -3.6705,  2.4784]])
# (3) torch.bmm  必须3-D矩阵且第一维相同(batch size)
input = torch.randn(10, 3, 4)
mat2 = torch.randn(10, 4, 5)
res = torch.bmm(input, mat2)
res.size() # torch.Size([10, 3, 5])
# (4) torch.matmul 两个tensors之间的矩阵乘法, 泛化
# 一维张量运算, 等效 dot
tensor1 = torch.randn(4)
tensor2 = torch.randn(4)
torch.matmul(tensor1, tensor2).size() # torch.Size([])
# 二维张量运算, 等效 mm
tensor1 = torch.randn(3,4)
tensor2 = torch.randn(4,5)
torch.matmul(tensor1, tensor2).size() # torch.Size([3, 5])
# 一维*二维, 广播再矩阵乘法,最后再恢复
tensor1 = torch.randn(4)
tensor2 = torch.randn(4,5)
torch.matmul(tensor1, tensor2).size() # 1*4 × 4*5=1*5→5, torch.Size([5])
# 多维*一维, 矩阵-向量乘法
a = torch.randn(4,5)
b = torch.randn(5)
torch.matmul(a, b).size() # torch.Size([4])
a = torch.randn(10, 3, 4)
b = torch.randn(4)
torch.matmul(a, b).size() # torch.Size([10, 3])
# 多维*多维, 批处理矩阵乘法, bmm
a = torch.randn(10, 3, 4)
b = torch.randn(10, 4, 5)
torch.matmul(tensor1, tensor2).size() # torch.Size([10, 3, 5])
# 第一个1维: 填充低维,按批处理算, 再删除
a = torch.randn(6)
b = torch.randn(2,6,3)
print(torch.matmul(tensor1, tensor2).size()) # torch.Size([2, 3])
# 第二个1维: 
a = torch.randn(10, 3, 4)
b = torch.randn(4)
torch.matmul(a, b).size() # torch.Size([10, 3])
# 第二个2维
tensor1 = torch.randn(10, 3, 4)
tensor2 = torch.randn(4,2)
print(torch.matmul(tensor1, tensor2).size()) # torch.Size([10, 3, 2])
# 非矩阵维度会广播, 矩阵维度指最后两个
a = torch.randn(2,5,3)
b = torch.randn(1,3,4)
print(torch.matmul(a, b).size()) # torch.Size([2, 5, 4])
# 非矩阵维度会广播
a = torch.randn(2,1,3,4)
b = torch.randn(5,4,2)
print(torch.matmul(a, b).size()) # torch.Size([2, 5, 3, 2])
# (5) 点乘
a = torch.randn(3)
print(torch.mul(a, 100)) # tensor([0.1287, 0.7827, 0.2674])
# tensor([12.8663, 78.2685, 26.7358])
a = torch.randn(4, 1)
b = torch.randn(1, 4)
print(torch.mul(a, b))

区别:mmmatmulbmm

  • mm 只能进行二维矩阵乘法, 输入的两个tensor维度只能是( n × m ) 和 ( m × p )
  • bmm 是两个三维张量相乘, 两个输入tensor维度是( b × n × m ) 和( b × m × p ) , 第一维b代表batch size,输出为( b × n × p )
  • matmul 张量乘法, 输入可以是高维.
import torch

x = torch.tensor([[1, 2], [3, 4]])
y = torch.tensor([[2, 1], [4, 3]])
print(x.shape, y.shape) # torch.Size([2,2])
# ① 点乘:* 或 mul,逐元素相乘
z1 = x * y
z2 = x.mul(y)
z3 = torch.rand_like(z2, dtype=torch.float32)
torch.mul(x, y, out=z3) # 输出到新的张量
print("*: ", z1.shape, z1.data)
print("mul: ", z2.shape, z2.data)
# ② 矩阵乘法: @ 或 matmul
y1 = x @ y
y2 = x.matmul(y.T)
y3 = torch.rand_like(x, dtype=torch.float32)
torch.matmul(x, y.T, out=y3)

# 单元素tensor求值
agg = x.sum()
agg_item = agg.item()
print(agg_item,type(agg_item))
# In-place 操作(会改变成员内容的成员函数,以下划线结尾)
x.add_(5) #每个元素都+5

# ---- rand & rand_like 用法 ------
t = torch.rand(10)
t = torch.rand(3,3)
t = torch.rand(size = (3,3))
t = torch.rand(size = [3,3])
t = torch.rand(size=(3,3), dtype=torch.float32) # 指定data_type
# 使用种子
gen = torch.Generator()
gen.manual_seed(2947587447)
tensor = torch.rand(size=(4,3), generator = gen)
#z3 = torch.rand_like(z2) # Error ! torch.rand is only implemented for float types
# ---------------------------------

代码

# ① 逐元素相乘结果
# Element-wise multiplication.
result = tensor1 * tensor2
print(f"tensor.mul(tensor): \n {tensor.mul(tensor)} \n")
# 等价写法:
print(f"tensor * tensor: \n {tensor * tensor}")
# ② 矩阵运算
print(f"tensor.matmul(tensor.T): \n {tensor.matmul(tensor.T)} \n")
# 等价写法:
print(f"tensor @ tensor.T: \n {tensor @ tensor.T}")
# Matrix multiplcation: (m*n) * (n*p) * -> (m*p).
result = torch.mm(tensor1, tensor2)
# Batch matrix multiplication: (b*m*n) * (b*n*p) -> (b*m*p)
result = torch.bmm(tensor1, tensor2)
# torch.bmm() 是批量矩阵乘法(batched matrix multiplication)函数,对一批矩阵执行乘法操作
raw_weights = torch.bmm(x, x.transpose(1, 2))

计算两组数据之间的两两欧式距离

  • 利用broadcast机制
dist = torch.sqrt(torch.sum((X1[:,None,:] - X2) ** 2, dim=2))

特殊矩阵

torch.manual_seed(10)
a = torch.triu(torch.ones(4,4)) # 上三角矩阵
a = torch.tril(torch.ones(4,4)) # 下三角矩阵

爱因斯坦求和数

【2023-7-13】【深度学习中的神仙操作】einsum爱因斯坦求和

爱因斯坦求和约定(Einstein Notation)

  • 数学中,爱因斯坦求和约定是一种标记法,也称为Einstein Summation Convention,在处理关于坐标的方程式时十分有效。
  • 简单来说,爱因斯坦求和就是简化掉求和式中的求和符号,即 $\sum$ ,这样就会使公式更加简洁
    • $a_{i} b_{i}=\sum_{i=0}^{N} a_{i} b_{i}=a_{0} b_{0}+a_{1} b_{1}+\ldots+a_{N} b_{N}$

工具包实现

  • Numpy率先将爱因斯坦求和以扩展函数的方式引入(np.einsum),而多维数组的特性又非常符合深度学习中张量(Tensor)的特性
  • 因此,基于Numpy,TensorFlow、PyTorch等深度学习框架也纷纷将einsum作为其拓展函数,与Numpy相比,tf和torch中参与运算的张量具有梯度,可以进行反向传播。

对于张量/矩阵运算,einsum几乎无所不能,以Numpy为例说明其典型用法,PyTorch和TensorFlow中的用法大同小异

import numpy as np

a = np.arange(0, 9).reshape(3, 3)
print(a)
b = np.einsum('ij->ji', a) # 转置
b = np.einsum('ij->', a) # 全元素求和
b = np.einsum('ij->i', a) # 某一维度求和
c = np.einsum('ij,j->ij', a, b) # 矩阵对应维度相乘
c = np.einsum('ij,j->i', a, b) # 矩阵对应维度相乘-求和形式
c = np.einsum('ij,ij->', a, b) # 矩阵点乘
c = np.einsum('ik,kj->ij', a, b) # 矩阵外积(相乘)
print(b)

神奇函数: torch.einsum()

  • torch.einsum():爱因斯坦求和约定, 非常神奇的函数,满足一切需求
a = torch.arange(6).reshape(2,3)
# tensor([[0, 1, 2],
#           [3, 4, 5]])
b=torch.arange(15).reshape(3,5)
# tensor([[0, 1, 2],
#           [3, 4, 5]])
# 矩阵转置
torch.einsum('ij->ji',[a])
# 求和
torch.einsum('ij->',[a]) # tensor(15)
# 列求和(行维度不变,列维度消失)
torch.einsum('ij->j',[a]) # tensor([ 3.,  5.,  7.])
# 行求和(列维度不变,行维度消失)
torch.einsum('ij->i', [a]) # tensor([  3.,  12.])
# 矩阵-向量相乘
b=a[0]
torch.einsum('ik,k->i',[a,b]) # tensor([  5.,  14.])
# 矩阵-矩阵乘法
torch.einsum('ik,kj->ij',[a,b])
# tensor([[ 25,  28,  31,  34,  37],
#           [ 70,  82,  94, 106, 118]])
# 点积
b=torch.arange(6,12).reshape(2,3)
torch.einsum('ij,ij->',[a,b]) # tensor(145.)
# 外积
a=torch.arange(3) # tensor([0, 1, 2])
b=torch.arange(3,7) # tensor([3, 4, 5, 6])
torch.einsum('i,j->ij',[a,b])
# tensor([[  0.,   0.,   0.,   0.],
#           [  3.,   4.,   5.,   6.],
#           [  6.,   8.,  10.,  12.]])
# batch矩阵乘
a=torch.randn(3,2,5)
b=torch.randn(3,5,3)
torch.einsum('ijk,ikl->ijl',[a,b])
# 多张量计算
A = torch.randn(3,5,4)
l = torch.randn(2,5)
r = torch.randn(2,4)
torch.einsum('bn,anm,bm->ba', l, A, r) # compare torch.nn.functional.bilinear
# tensor([[-0.3430, -5.2405,  0.4494],
#        [ 0.3311,  5.5201, -3.0356]])
C = torch.einsum('ijklno,ijlmno->ijkmno', [A, B])

变量

PyTorch 变量是张量的简单封装

  • 帮助建立计算图
  • Autograd(自动微分库)的必要部分
  • 将关于变量的梯度保存在 .grad
from torch.autograd import Variable
import torch.nn.functional as F
# 不算梯度
x = Variable(torch.randn(4, 1), requires_grad=False)
y = Variable(torch.randn(3, 1), requires_grad=False)
# requires_grad=True 要自动计算梯度,用于反向传播
w1 = Variable(torch.randn(5, 4), requires_grad=True)
w2 = Variable(torch.randn(3, 5), requires_grad=True)

# 模型构建
def model_forward(x):
    return F.sigmoid(w2 @ F.sigmoid(w1 @ x))

print (w1)
print (w1.data.shape)
print (w1.grad) # Initially, non-existent


import torch.nn as nn

# 损失函数:描述模型的预测距离目标还有多远;
criterion = nn.MSELoss()

import torch.optim as optim
# 优化算法:用于更新权重;
optimizer = optim.SGD([w1, w2], lr=0.001)

# 反向传播步骤:
for epoch in range(10):
    loss = criterion(model_forward(x), y)
    optimizer.zero_grad() # Zero-out previous gradients
    loss.backward() # Compute new gradients
    optimizer.step() # Apply these gradients

print (w1)

拟合 Sin 函数

【2024-3-25】参考

(1) 准备数据集

用 pytorch 变量绘制曲线

import torch
import matplotlib.pyplot as plt
import numpy as np
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim

# 创建数据
x = torch.linspace(0, 1, 100)
y = torch.sin(2 * np.pi * x)

# 添加随机噪声
np.random.seed(20)
y_noisy = y + 0.05 * torch.randn(size=x.shape)

# 绘图开始
plt.figure()
plt.plot(x, y, label='True function', color='g')
plt.scatter(x, y_noisy, edgecolor='b', s=20, label='Noisy samples')
plt.legend()
plt.tight_layout()
plt.show()

(2) 定义模型

定义模型:用多项式函数来拟合sin函数

class Net(nn.Module):
    def __init__(self):
        super(Net,self).__init__()
        self.fc=nn.Linear(100,5) # 全连接层

    def forward(self,x):
        output=F.tanh(x) # 激活函数 tanh
        output=self.fc(output) # MLP 层
        # 定义四阶多项式模型
        output= output[0]+output[1]*x+output[2]*x**2+output[3]*x**3+output[4]*x**4
        return output
# 网络实例化
net=Net()
# 损失函数
criterion = nn.MSELoss()
# 优化器
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

(3) 模型训练

  • 训练 3w 次后,测试效果
for i in range(30000):
    y_pred=net(x)

    loss=criterion(y_pred,y)
    if i % 2000 == 1999:
        print("epoch:{},mse:{}".format(i+1,loss.item()))
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

# 测试效果
x_test=torch.linspace(0, 1, 100)
y_pred=net(x_test)
# 画图
plt.figure()
plt.plot(x_test.detach().numpy(), y_pred.detach().numpy(), label='Regressor', color='#FFA628')
plt.plot(x, y, label='True function', color='g')
plt.scatter(x, y_noisy, edgecolor='b', s=20, label='Noisy samples')
plt.legend()
plt.tight_layout()
plt.show()

3. 模型定义和操作

MLP 多层感知机

【2022-9-21】pytorch教程:层和块

定义模型结构的几种方法

  • 直接顺序组装:nn.Sequential,不用定义网络结构
  • 自定义网络结构:nn.Sequential,使用forward函数组装
  • 根据参数顺序组装

快捷定义

import torch
from torch import nn
from torch.nn import functional as F
# x -> FC -> Relu -> FC
net = nn.Sequential(nn.Linear(20, 256), nn.ReLU(), nn.Linear(256, 10))
X = torch.rand(2, 20)
net(X)

自定义

  • nn.Sequential定义了一种特殊的Module
class MLP(nn.Module):
    def __init__(self):
        super().__init__()
        self.hidden = nn.Linear(20, 256)
        self.out = nn.Linear(256, 10)

    def forward(self, X):
        return self.out(F.relu(self.hidden(X)))
# 实例化模型
net = MLP()
net(X)

参数传入各组件,顺序组装

class MySequential(nn.Module):
    def __init__(self, *args):
        super().__init__()
        # 依次遍历、组装各个传入的组件
        for idx, module in enumerate(args):
            self._modules[str(idx)] = module

    def forward(self, X):
        for block in self._modules.values():
            X = block(X)
        return X

net = MySequential(nn.Linear(20, 256), nn.ReLU(), nn.Linear(256, 10))
net(X)

前向传播中执行代码

class FixedHiddenMLP(nn.Module):
    def __init__(self):
        super().__init__()
        self.rand_weight = torch.rand((20, 20), requires_grad=False)
        self.linear = nn.Linear(20, 20)

    def forward(self, X):
        X = self.linear(X)
        X = F.relu(torch.mm(X, self.rand_weight) + 1)
        X = self.linear(X)
        while X.abs().sum() > 1:
            X /= 2
        return X.sum()

net = FixedHiddenMLP()
net(X)

混合搭配各种方法

class NestMLP(nn.Module): # 嵌套结构
    def __init__(self):
        super().__init__()
        # 顺序结构
        self.net = nn.Sequential(nn.Linear(20, 64), nn.ReLU(),
                                 nn.Linear(64, 32), nn.ReLU())
        # 自定义
        self.linear = nn.Linear(32, 16)

    def forward(self, X):
        return self.linear(self.net(X))

chimera = nn.Sequential(NestMLP(), nn.Linear(16, 20), FixedHiddenMLP())
chimera(X)

Embedding 词嵌入

nn.Embedding用法

  • 一个简单的存储固定大小的词典的嵌入向量的查找表
  • 给一个编号,嵌入层返回这个编号对应的嵌入向量,嵌入向量反映了各个编号代表的符号之间的语义关系。
  • 输入为一个编号列表,输出为对应的符号嵌入向量列表。每个句子结尾要加EOS
    • input: [‘i’, ‘am’, ‘a’, ‘boy’]
    • output: [3, 6, 5, 10]

通俗讲解pytorch中nn.Embedding原理及使用

torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None,
  max_norm=None,  norm_type=2.0,   scale_grad_by_freq=False, 
  sparse=False,  _weight=None)
# 建立词向量层
# 随机初始化建立了词向量层后,建立了一个“二维表”,存储了词典中每个词的词向量
embed = torch.nn.Embedding(n_vocabulary, embedding_size)

参数解释

  • num_embeddings (python:int) – 词典大小,比如总共出现5000个词,那就输入5000。此时index为(0-4999)
  • embedding_dim (python:int) – 嵌入向量维度,即用多少维来表示一个符号。
  • padding_idx (python:int, optional) – 填充id,比如,输入长度为100,但是每次的句子长度并不一样,后面就需要用统一的数字填充,而这里就是指定这个数字,这样,网络在遇到填充id时,就不会计算其与其它符号的相关性。(初始化为0)
  • max_norm (python:float, optional) – 最大范数,如果嵌入向量的范数超过了这个界限,就要进行再归一化。
  • norm_type (python:float, optional) – 指定利用什么范数计算,并用于对比max_norm,默认为2范数
  • scale_grad_by_freq (boolean, optional) – 根据单词在mini-batch中出现的频率,对梯度进行放缩。默认为False.
  • sparse (bool, optional) – 若为True,则与权重矩阵相关的梯度转变为稀疏张量
import torch
import torch.nn as nn

# an Embedding module containing 10 tensors of size 3
embedding = nn.Embedding(10, 3) # 10个单词的词库,每个词语3维
# a batch of 2 samples of 4 indices each
input = torch.LongTensor([[1,2,4,5],[4,3,2,9]])
print('默认填充:', embedding(input))

# example with padding_idx 加填充
embedding = nn.Embedding(10, 3, padding_idx=0)
input = torch.LongTensor([[0,2,0,5]])
print('padding填充:', embedding(input))

# example of changing `pad` vector 改变填充向量
padding_idx = 0
embedding = nn.Embedding(3, 3, padding_idx=padding_idx)
embedding.weight
with torch.no_grad():
    embedding.weight[padding_idx] = torch.ones(3)
print('自定义填充:', embedding.weight)

卷积网络

一个简单两层卷积网络的示例

# convolutional neural network (2 convolutional layers)
class ConvNet(nn.Module):
    def __init__(self, num_classes=10):
        super(ConvNet, self).__init__()
        self.layer1 = nn.Sequential(
            nn.Conv2d(1, 16, kernel_size=5, stride=1, padding=2),
            nn.BatchNorm2d(16),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2, stride=2))
        self.layer2 = nn.Sequential(
            nn.Conv2d(16, 32, kernel_size=5, stride=1, padding=2),
            nn.BatchNorm2d(32),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2, stride=2))
        self.fc = nn.Linear(7*7*32, num_classes)
    
    def forward(self, x):
        out = self.layer1(x)
        out = self.layer2(out)
        out = out.reshape(out.size(0), -1)
        out = self.fc(out)
        return out

model = ConvNet(num_classes).to(device)

卷积层的计算和展示可以用这个网站辅助。

双线性汇合(bilinear pooling)

X = torch.reshape(N, D, H * W)                        # Assume X has shape N*D*H*W
X = torch.bmm(X, torch.transpose(X, 1, 2)) / (H * W)  # Bilinear pooling
assert X.size() == (N, D, D)
X = torch.reshape(X, (N, D * D))
X = torch.sign(X) * torch.sqrt(torch.abs(X) + 1e-5)   # Signed-sqrt normalization
X = torch.nn.functional.normalize(X)                  # L2 normalization

多卡同步 BN(Batch normalization)

当使用 torch.nn.DataParallel 将代码运行在多张 GPU 卡上时,PyTorch 的 BN 层默认操作是各卡上数据独立地计算均值和标准差,同步 BN 使用所有卡上的数据一起计算 BN 层的均值和标准差,缓解了当批量大小(batch size)比较小时对均值和标准差估计不准的情况,是在目标检测等任务中一个有效的提升性能的技巧。

sync_bn = torch.nn.SyncBatchNorm(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)

将已有网络的所有BN层改为同步BN层

def convertBNtoSyncBN(module, process_group=None):
    '''Recursively replace all BN layers to SyncBN layer.

    Args:
        module[torch.nn.Module]. Network
    '''
    if isinstance(module, torch.nn.modules.batchnorm._BatchNorm):
        sync_bn = torch.nn.SyncBatchNorm(module.num_features, module.eps, module.momentum, 
                                         module.affine, module.track_running_stats, process_group)
        sync_bn.running_mean = module.running_mean
        sync_bn.running_var = module.running_var
        if module.affine:
            sync_bn.weight = module.weight.clone().detach()
            sync_bn.bias = module.bias.clone().detach()
        return sync_bn
    else:
        for name, child_module in module.named_children():
            setattr(module, name) = convert_syncbn_model(child_module, process_group=process_group))
        return module

类似 BN 滑动平均

如果要实现类似 BN 滑动平均的操作,在 forward 函数中要使用原地(inplace)操作给滑动平均赋值。

class BN(torch.nn.Module)
    def __init__(self):
        ...
        self.register_buffer('running_mean', torch.zeros(num_features))

    def forward(self, X):
        ...
        self.running_mean += momentum * (current - self.running_mean)

torch.nn.functional

建图过程中往往有两种层

  • 一种含参数、有Variable,如全连接层,卷积层、Batch Normlization层等;
  • 另一种不含参数、无Variable,如Pooling层,Relu层,损失函数层等。

阅读源码发现

  • nn.里的函数继承自 nn.module 初始化为实例化一个类,如果含参数,则会帮你初始化好参数。
  • nn.functional.里的函数,则是相当于直接一个函数句柄给你,如果需要参数,则需要自己输入参数,且并不会“记住”这个参数。

选择

  • 如果要涉及到参数计算的,那用nn.里的;
  • 如果不需要涉及更新参数,只是一次性计算,那用nn.functional.里面的。
import torch
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(512, 256)
        self.fc2 = nn.Linear(256, 256)
        self.fc3 = nn.Linear(256, 2)

    def forward(self, x):
        x = F.relu(self.fc1(x))
        x = F.relu(F.dropout(self.fc2(x), 0.5))
        x = F.dropout(self.fc3(x), 0.5)
        return x

三层网络为例。需要维持状态的主要是三个线性变换,所以在构造Module是,定义了三个nn.Linear对象,而在计算时,relu,dropout之类不需要保存状态的可以直接使用。

  • 注:dropout的话有个坑,需要设置自行设定training的state。

对比示例

  • 用nn.Xxx定义一个CNN
  • 用nn.function.xxx定义一个与上面相同的CNN
import torch
import torch.nn as nn
import torch.nn.functional as F

class CNN(nn.Module):
    
    def __init__(self):
        super(CNN, self).__init__()
        
        self.cnn1 = nn.Conv2d(in_channels=1,  out_channels=16, kernel_size=5,padding=0)
        self.relu1 = nn.ReLU()
        self.maxpool1 = nn.MaxPool2d(kernel_size=2)
        
        self.cnn2 = nn.Conv2d(in_channels=16, out_channels=32, kernel_size=5,  padding=0)
        self.relu2 = nn.ReLU()
        self.maxpool2 = nn.MaxPool2d(kernel_size=2)
        
        self.linear1 = nn.Linear(4 * 4 * 32, 10)
        
    def forward(self, x):
        x = x.view(x.size(0), -1)
        out = self.maxpool1(self.relu1(self.cnn1(x)))
        out = self.maxpool2(self.relu2(self.cnn2(out)))
        out = self.linear1(out.view(x.size(0), -1))
        return out
class CNN(nn.Module):
    
    
    def __init__(self):
        super(CNN, self).__init__()
        
        self.cnn1_weight = nn.Parameter(torch.rand(16, 1, 5, 5))
        self.bias1_weight = nn.Parameter(torch.rand(16))
        
        self.cnn2_weight = nn.Parameter(torch.rand(32, 16, 5, 5))
        self.bias2_weight = nn.Parameter(torch.rand(32))
        
        self.linear1_weight = nn.Parameter(torch.rand(4 * 4 * 32, 10))
        self.bias3_weight = nn.Parameter(torch.rand(10))
        
    def forward(self, x):
        x = x.view(x.size(0), -1)
        out = F.conv2d(x, self.cnn1_weight, self.bias1_weight)
        out = F.relu(out)
        out = F.max_pool2d(out)
        
        out = F.conv2d(x, self.cnn2_weight, self.bias2_weight)
        out = F.relu(out)
        out = F.max_pool2d(out)
        
        out = F.linear(x, self.linear1_weight, self.bias3_weight)
        return out

两种定义方式得到CNN功能都是相同的,但PyTorch官方推荐:

  • 学习参数的(例如,conv2d, linear, batch_norm)采用nn.Xxx方式
  • 没有学习参数的(例如,maxpool, loss func, activation func)等根据个人选择使用nn.functional.xxx或者nn.Xxx方式。

但关于dropout,强烈推荐使用 nn.Xxx方式,因为一般情况下只有训练阶段才进行dropout,在 eval阶段都不会进行dropout。使用nn.Xxx方式定义dropout,在调用 model.eval()之后,model中所有的dropout layer都关闭,但以nn.function.dropout方式定义dropout,在调用model.eval()之后并不能关闭dropout。

nn 与 nn.functional 有什么区别?

计算模型整体参数量

num_parameters = sum(torch.numel(parameter) for parameter in model.parameters())

查看网络中的参数

  • 通过model.state_dict()或者model.named_parameters()函数查看现在的全部可训练参数(包括通过继承得到的父类中的参数)
params = list(model.named_parameters())
(name, param) = params[28]
print(name)
print(param.grad)
print('-------------------------------------------------')
(name2, param2) = params[29]
print(name2)
print(param2.grad)
print('----------------------------------------------------')
(name1, param1) = params[30]
print(name1)
print(param1.grad)

模型可视化(使用pytorchviz)

szagoruyko/pytorchviz 类似 Keras 的 model.summary() 输出模型信息(使用pytorch-summary ), sksq96/pytorch-summary

模型权重初始化

注意 model.modules() 和 model.children() 的区别:model.modules() 会迭代地遍历模型的所有子层,而 model.children() 只会遍历模型下的一层。

# Common practise for initialization.
for layer in model.modules():
    if isinstance(layer, torch.nn.Conv2d):
        torch.nn.init.kaiming_normal_(layer.weight, mode='fan_out',
                                      nonlinearity='relu')
        if layer.bias is not None:
            torch.nn.init.constant_(layer.bias, val=0.0)
    elif isinstance(layer, torch.nn.BatchNorm2d):
        torch.nn.init.constant_(layer.weight, val=1.0)
        torch.nn.init.constant_(layer.bias, val=0.0)
    elif isinstance(layer, torch.nn.Linear):
        torch.nn.init.xavier_normal_(layer.weight)
        if layer.bias is not None:
            torch.nn.init.constant_(layer.bias, val=0.0)

# Initialization with given tensor.
layer.weight = torch.nn.Parameter(tensor)

提取模型中的某一层

modules()会返回模型中所有模块的迭代器,它能够访问到最内层,比如self.layer1.conv1这个模块,还有一个与它们相对应的是name_children()属性以及named_modules(),这两个不仅会返回模块的迭代器,还会返回网络层的名字。

# 取模型中的前两层
new_model = nn.Sequential(*list(model.children())[:2] 
# 如果希望提取出模型中的所有卷积层,可以像下面这样操作:
for layer in model.named_modules():
    if isinstance(layer[1],nn.Conv2d):
         conv_model.add_module(layer[0],layer[1])

部分层使用预训练模型

注意如果保存的模型是 torch.nn.DataParallel,则当前的模型也需要是

model.load_state_dict(torch.load('model.pth'), strict=False)

将在 GPU 保存的模型加载到 CPU

model.load_state_dict(torch.load('model.pth', map_location='cpu'))

导入另一个模型的相同部分到新的模型

模型导入参数时,如果两个模型结构不一致,则直接导入参数会报错。用下面方法可以把另一个模型的相同的部分导入到新的模型中。

# model_new代表新的模型
# model_saved代表其他模型,比如用torch.load导入的已保存的模型
model_new_dict = model_new.state_dict()
model_common_dict = {k:v for k, v in model_saved.items() if k in model_new_dict.keys()}
model_new_dict.update(model_common_dict)
model_new.load_state_dict(model_new_dict)

4. 数据处理

计算数据集的均值和标准差

import os
import cv2
import numpy as np
from torch.utils.data import Dataset
from PIL import Image

def compute_mean_and_std(dataset):
    # 输入PyTorch的dataset,输出均值和标准差
    mean_r = 0
    mean_g = 0
    mean_b = 0

    for img, _ in dataset:
        img = np.asarray(img) # change PIL Image to numpy array
        mean_r += np.mean(img[:, :, 0])
        mean_g += np.mean(img[:, :, 1])
        mean_b += np.mean(img[:, :, 2])

    mean_r /= len(dataset)
    mean_g /= len(dataset)
    mean_b /= len(dataset)

    diff_r = 0
    diff_g = 0
    diff_b = 0

    N = 0

    for img, _ in dataset:
        img = np.asarray(img)

        diff_r += np.sum(np.power(img[:, :, 0] - mean_r, 2))
        diff_g += np.sum(np.power(img[:, :, 1] - mean_g, 2))
        diff_b += np.sum(np.power(img[:, :, 2] - mean_b, 2))

        N += np.prod(img[:, :, 0].shape)

    std_r = np.sqrt(diff_r / N)
    std_g = np.sqrt(diff_g / N)
    std_b = np.sqrt(diff_b / N)

    mean = (mean_r.item() / 255.0, mean_g.item() / 255.0, mean_b.item() / 255.0)
    std = (std_r.item() / 255.0, std_g.item() / 255.0, std_b.item() / 255.0)
    return mean, std

得到视频数据基本信息

import cv2
video = cv2.VideoCapture(mp4_path)
height = int(video.get(cv2.CAP_PROP_FRAME_HEIGHT))
width = int(video.get(cv2.CAP_PROP_FRAME_WIDTH))
num_frames = int(video.get(cv2.CAP_PROP_FRAME_COUNT))
fps = int(video.get(cv2.CAP_PROP_FPS))
video.release()

TSN 每段(segment)采样一帧视频

K = self._num_segments
if is_train:
    if num_frames > K:
        # Random index for each segment.
        frame_indices = torch.randint(
            high=num_frames // K, size=(K,), dtype=torch.long)
        frame_indices += num_frames // K * torch.arange(K)
    else:
        frame_indices = torch.randint(
            high=num_frames, size=(K - num_frames,), dtype=torch.long)
        frame_indices = torch.sort(torch.cat((
            torch.arange(num_frames), frame_indices)))[0]
else:
    if num_frames > K:
        # Middle index for each segment.
        frame_indices = num_frames / K // 2
        frame_indices += num_frames // K * torch.arange(K)
    else:
        frame_indices = torch.sort(torch.cat((                              
            torch.arange(num_frames), torch.arange(K - num_frames))))[0]
assert frame_indices.size() == (K,)
return [frame_indices[i] for i in range(K)]

常用训练和验证数据预处理

其中 ToTensor 操作会将 PIL.Image 或形状为 H×W×D,数值范围为 [0, 255] 的 np.ndarray 转换为形状为 D×H×W,数值范围为 [0.0, 1.0] 的 torch.Tensor。

train_transform = torchvision.transforms.Compose([
    torchvision.transforms.RandomResizedCrop(size=224,
                                             scale=(0.08, 1.0)),
    torchvision.transforms.RandomHorizontalFlip(),
    torchvision.transforms.ToTensor(),
    torchvision.transforms.Normalize(mean=(0.485, 0.456, 0.406),
                                     std=(0.229, 0.224, 0.225)),
 ])
 val_transform = torchvision.transforms.Compose([
    torchvision.transforms.Resize(256),
    torchvision.transforms.CenterCrop(224),
    torchvision.transforms.ToTensor(),
    torchvision.transforms.Normalize(mean=(0.485, 0.456, 0.406),
                                     std=(0.229, 0.224, 0.225)),
])

5. 模型训练和测试

分布式 DDP

DistributedDataParallel(DDP)是依靠多进程来实现数据并行的分布式训练方法

  • 简单说,能够扩大batch_size,每个进程负责一部分数据

在使用DDP分布式训练前,有几个概念或者变量需要弄清楚:

  • group: 进程组,一般就需要一个默认的
  • world size: 所有的进程数量
  • rank: 全局的进程id
  • local rank:某个节点上的进程id
  • local_word_size: 某个节点上的进程数 (相对比较少见)

这些概念的基本单元都是进程,与GPU没有关系,一个进程可以对应若干个GPU。 所以 world_size 并不是等于所有的GPU数量,而是人为设定的。只不过平时用的最多的情况是一个进程使用一块GPU,这种情况下 world_size 可以等于所有节点的GPU数量。

假设所有进程数即 world_size 为W,每个节点上的进程数即local_world_size为L,则每个进程上的两个ID:

  • rank的取值范围:[0, W-1],rank=0的进程为主进程,会负责一些同步分发的工作
  • local_rank的取值:[0, L-1]

假定有2个机器或者节点,每个机器上有4块GPU。图中一共有4个进程,即world_size=4,那这样每个进程占用两块GPU,其中rank就是[0,1,2,3],每个节点的local_rank就是[0,1]了,其中local_world_size 也就是2。 这里需要注意的是,local_rank是隐式参数,即torch自动分配的。比如local_rank 可以通过自动注入命令行参数或者环境变量来获得) 。

从torch1.10开始,官方建议使用环境变量的方式来获取local_rank, 在后期版本中,会移除命令行的方式

示例:test.py

import torch.distributed as dist
import argparse, os

parser = argparse.ArgumentParser()
parser.add_argument("--local_rank", type=ine, default=0)
args = parser.parse_args()

dist.init_process_group("nccl")
rank = dist.get_rank()
local_rank_arg = args.local_rank               # 命令行形式ARGS形式
local_rank_env = int(os.environ['LOCAL_RANK']) # 在利用env初始ENV环境变量形式
local_world_size = int(os.environ['LOCAL_WORLD_SIZE'])

print(f"{rank=}; {local_rank_arg=}; {local_rank_env=}; {local_world_size=}")

执行

python3 -m torch.distributed.launch --nproc_per_node=4 test.py # 在一台4卡机器上执行

一般的分布式训练都是为每个进程赋予一块GPU,这样比较简单而且容易调试。 这种情况下,可以通过local_rank作为当前进程GPU的id。

分布式训练场景: 单机多卡,多机多卡,模型并行,数据并行等等。

常见的单机多卡的情况进行记录。

更多资讯见原文: Pytorch DDP分布式训练介绍

分类模型训练代码

# Loss and optimizer
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)

# Train the model
total_step = len(train_loader)
for epoch in range(num_epochs):
    for i ,(images, labels) in enumerate(train_loader):
        images = images.to(device)
        labels = labels.to(device)
        # Forward pass
        outputs = model(images)
        loss = criterion(outputs, labels)
        # Backward and optimizer
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        if (i+1) % 100 == 0:
            print('Epoch: [{}/{}], Step: [{}/{}], Loss: {}'.format(epoch+1, num_epochs, i+1, total_step, loss.item()))

分类模型测试代码

# Test the model
model.eval()  # eval mode(batch norm uses moving mean/variance 
              #instead of mini-batch mean/variance)
with torch.no_grad():
    correct = 0
    total = 0
    for images, labels in test_loader:
        images = images.to(device)
        labels = labels.to(device)
        outputs = model(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()
        
    print('Test accuracy of the model on the 10000 test images: {} %'
          .format(100 * correct / total))

损失函数

MSE = torch.nn.MSELoss()
MAE = torch.nn.L1Loss()

自定义loss

继承torch.nn.Module类写自己的loss。

class MyLoss(torch.nn.Moudle):
    def __init__(self):
        super(MyLoss, self).__init__()
        
    def forward(self, x, y):
        loss = torch.mean((x - y) ** 2)
        return loss

标签平滑(label smoothing)

写一个label_smoothing.py的文件,然后在训练代码里引用,用LSR代替交叉熵损失即可。label_smoothing.py内容如下:

import torch
import torch.nn as nn


class LSR(nn.Module):

    def __init__(self, e=0.1, reduction='mean'):
        super().__init__()

        self.log_softmax = nn.LogSoftmax(dim=1)
        self.e = e
        self.reduction = reduction
    
    def _one_hot(self, labels, classes, value=1):
        """
            Convert labels to one hot vectors
        
        Args:
            labels: torch tensor in format [label1, label2, label3, ...]
            classes: int, number of classes
            value: label value in one hot vector, default to 1
        
        Returns:
            return one hot format labels in shape [batchsize, classes]
        """

        one_hot = torch.zeros(labels.size(0), classes)

        #labels and value_added  size must match
        labels = labels.view(labels.size(0), -1)
        value_added = torch.Tensor(labels.size(0), 1).fill_(value)

        value_added = value_added.to(labels.device)
        one_hot = one_hot.to(labels.device)

        one_hot.scatter_add_(1, labels, value_added)

        return one_hot

    def _smooth_label(self, target, length, smooth_factor):
        """convert targets to one-hot format, and smooth
        them.
        Args:
            target: target in form with [label1, label2, label_batchsize]
            length: length of one-hot format(number of classes)
            smooth_factor: smooth factor for label smooth
        
        Returns:
            smoothed labels in one hot format
        """
        one_hot = self._one_hot(target, length, value=1 - smooth_factor)
        one_hot += smooth_factor / (length - 1)

        return one_hot.to(target.device)

    def forward(self, x, target):

        if x.size(0) != target.size(0):
            raise ValueError('Expected input batchsize ({}) to match target batch_size({})'
                    .format(x.size(0), target.size(0)))

        if x.dim() < 2:
            raise ValueError('Expected input tensor to have least 2 dimensions(got {})'
                    .format(x.size(0)))

        if x.dim() != 2:
            raise ValueError('Only 2 dimension tensor are implemented, (got {})'
                    .format(x.size()))


        smoothed_target = self._smooth_label(target, x.size(1), self.e)
        x = self.log_softmax(x)
        loss = torch.sum(- x * smoothed_target, dim=1)

        if self.reduction == 'none':
            return loss
        
        elif self.reduction == 'sum':
            return torch.sum(loss)
        
        elif self.reduction == 'mean':
            return torch.mean(loss)
        
        else:
            raise ValueError('unrecognized option, expect reduction to be one of none, mean, sum')

或者直接在训练文件里做label smoothing

for images, labels in train_loader:
    images, labels = images.cuda(), labels.cuda()
    N = labels.size(0)
    # C is the number of classes.
    smoothed_labels = torch.full(size=(N, C), fill_value=0.1 / (C - 1)).cuda()
    smoothed_labels.scatter_(dim=1, index=torch.unsqueeze(labels, dim=1), value=0.9)

    score = model(images)
    log_prob = torch.nn.functional.log_softmax(score, dim=1)
    loss = -torch.sum(log_prob * smoothed_labels) / N
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

Mixup训练

beta_distribution = torch.distributions.beta.Beta(alpha, alpha)
for images, labels in train_loader:
    images, labels = images.cuda(), labels.cuda()

    # Mixup images and labels.
    lambda_ = beta_distribution.sample([]).item()
    index = torch.randperm(images.size(0)).cuda()
    mixed_images = lambda_ * images + (1 - lambda_) * images[index, :]
    label_a, label_b = labels, labels[index]

    # Mixup loss.
    scores = model(mixed_images)
    loss = (lambda_ * loss_function(scores, label_a)
            + (1 - lambda_) * loss_function(scores, label_b))
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

L1 正则化

l1_regularization = torch.nn.L1Loss(reduction='sum')
loss = ...  # Standard cross-entropy loss
for param in model.parameters():
    loss += torch.sum(torch.abs(param))
loss.backward()

不对偏置项进行权重衰减(weight decay)

pytorch里的weight decay相当于l2正则

bias_list = (param for name, param in model.named_parameters() if name[-4:] == 'bias')
others_list = (param for name, param in model.named_parameters() if name[-4:] != 'bias')
parameters = [{'parameters': bias_list, 'weight_decay': 0},                
              {'parameters': others_list}]
optimizer = torch.optim.SGD(parameters, lr=1e-2, momentum=0.9, weight_decay=1e-4)

梯度裁剪(gradient clipping)

torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=20)

得到当前学习率

# If there is one global learning rate (which is the common case).
lr = next(iter(optimizer.param_groups))['lr']

# If there are multiple learning rates for different layers.
all_lr = []
for param_group in optimizer.param_groups:
    all_lr.append(param_group['lr'])

另一种方法,在一个batch训练代码里,当前的lr是optimizer.param_groups[0][‘lr’]

学习率衰减

# Reduce learning rate when validation accuarcy plateau.
scheduler = torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='max', patience=5, verbose=True)
for t in range(0, 80):
    train(...)
    val(...)
    scheduler.step(val_acc)

# Cosine annealing learning rate.
scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=80)
# Reduce learning rate by 10 at given epochs.
scheduler = torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones=[50, 70], gamma=0.1)
for t in range(0, 80):
    scheduler.step()    
    train(...)
    val(...)

# Learning rate warmup by 10 epochs.
scheduler = torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda=lambda t: t / 10)
for t in range(0, 10):
    scheduler.step()
    train(...)
    val(...)

优化器链式更新

从1.4版本开始,torch.optim.lr_scheduler 支持链式更新(chaining),即用户可以定义两个 schedulers,并交替在训练中使用。

import torch
from torch.optim import SGD
from torch.optim.lr_scheduler import ExponentialLR, StepLR

model = [torch.nn.Parameter(torch.randn(2, 2, requires_grad=True))]
optimizer = SGD(model, 0.1)
scheduler1 = ExponentialLR(optimizer, gamma=0.9)
scheduler2 = StepLR(optimizer, step_size=3, gamma=0.1)
for epoch in range(4):
    print(epoch, scheduler2.get_last_lr()[0])
    optimizer.step()
    scheduler1.step()
    scheduler2.step()

模型训练可视化

PyTorch可以使用tensorboard来可视化训练过程。

安装和运行TensorBoard。

pip install tensorboard
tensorboard --logdir=runs

使用SummaryWriter类来收集和可视化相应的数据,放了方便查看,可以使用不同的文件夹,比如’Loss/train’和’Loss/test’。

from torch.utils.tensorboard import SummaryWriter
import numpy as np

writer = SummaryWriter()

for n_iter in range(100):
    writer.add_scalar('Loss/train', np.random.random(), n_iter)
    writer.add_scalar('Loss/test', np.random.random(), n_iter)
    writer.add_scalar('Accuracy/train', np.random.random(), n_iter)
    writer.add_scalar('Accuracy/test', np.random.random(), n_iter)

保存与加载断点

为了能够恢复训练,要同时保存模型优化器的状态,以及当前的训练轮数

涉及保存模型的几个函数:

  • torch.save
  • torch.load
  • state_dict()
  • load_state_dict()

结论:

  • pth文件不一定保存了模型的图结构;
  • 加载没保存图结构的pth时,需要先初始化模型结构,即把架子搭好;
  • 保存模型时,如果不想保存图结构,可以单独保存 model.state_dict()

方式一: 全部模型信息(图结构+参数)

import torch

model = torch.load('my_model.pth')
torch.save(model, 'new_model.pth')

pth文件直接包含了整个模型结构。灵活加载模型参数时,比如只加载部分参数,pth文件读取进来还得额外解析出“参数文件”。

方式二: 部分模型信息(不含图结构)

pytorch 把所有模型参数用一个内部定义的dict保存,自称为“state_dict”, 即不带模型结构的模型参数

保存和加载方式如下:

import torch
model = MyModel() # init your model class, build the graph shape

torch.save(model.state_dict(), 'model_state_dict1.pth') # 保存
state_dict = torch.load('model_state_dict.pth')
model.load_state_dict(state_dict)
# --------
import torch
# save: 保存多种状态(模型,优化器,轮数)
torch.save(model.state_dict(), PATH)
# load
model = MyModel(*args, **kwargs)
# 分两步:先用load加载模型权重, 再用load_state_dict 加载其他参数
model.load_state_dict(torch.load(PATH))
model.eval()

model.state_dict() 返回一个 OrderDict,存储了网络结构的名字和对应的参数

start_epoch = 0
# Load checkpoint.
if resume: # resume为参数,第一次训练时设为0,中断再训练时设为1
    model_path = os.path.join('model', 'best_checkpoint.pth.tar')
    assert os.path.isfile(model_path)
    checkpoint = torch.load(model_path)
    best_acc = checkpoint['best_acc']
    start_epoch = checkpoint['epoch']
    model.load_state_dict(checkpoint['model'])
    optimizer.load_state_dict(checkpoint['optimizer'])
    print('Load checkpoint at epoch {}.'.format(start_epoch))
    print('Best accuracy so far {}.'.format(best_acc))

# Train the model
for epoch in range(start_epoch, num_epochs): 
    ... 

    # Test the model
    ...
        
    # save checkpoint
    is_best = current_acc > best_acc
    best_acc = max(current_acc, best_acc)
    checkpoint = {
        'best_acc': best_acc,
        'epoch': epoch + 1,
        'model': model.state_dict(),
        'optimizer': optimizer.state_dict(),
    }
    model_path = os.path.join('model', 'checkpoint.pth.tar')
    best_model_path = os.path.join('model', 'best_checkpoint.pth.tar')
    torch.save(checkpoint, model_path)
    if is_best:
        shutil.copy(model_path, best_model_path)

提取 ImageNet 预训练模型某层的卷积特征

# VGG-16 relu5-3 feature.
model = torchvision.models.vgg16(pretrained=True).features[:-1]
# VGG-16 pool5 feature.
model = torchvision.models.vgg16(pretrained=True).features
# VGG-16 fc7 feature.
model = torchvision.models.vgg16(pretrained=True)
model.classifier = torch.nn.Sequential(*list(model.classifier.children())[:-3])
# ResNet GAP feature.
model = torchvision.models.resnet18(pretrained=True)
model = torch.nn.Sequential(collections.OrderedDict(
    list(model.named_children())[:-1]))

with torch.no_grad():
    model.eval()
    conv_representation = model(image)

提取 ImageNet 预训练模型多层的卷积特征

class FeatureExtractor(torch.nn.Module):
    """Helper class to extract several convolution features from the given
    pre-trained model.

    Attributes:
        _model, torch.nn.Module.
        _layers_to_extract, list<str> or set<str>

    Example:
        >>> model = torchvision.models.resnet152(pretrained=True)
        >>> model = torch.nn.Sequential(collections.OrderedDict(
                list(model.named_children())[:-1]))
        >>> conv_representation = FeatureExtractor(
                pretrained_model=model,
                layers_to_extract={'layer1', 'layer2', 'layer3', 'layer4'})(image)
    """
    def __init__(self, pretrained_model, layers_to_extract):
        torch.nn.Module.__init__(self)
        self._model = pretrained_model
        self._model.eval()
        self._layers_to_extract = set(layers_to_extract)

    def forward(self, x):
        with torch.no_grad():
            conv_representation = []
            for name, layer in self._model.named_children():
                x = layer(x)
                if name in self._layers_to_extract:
                    conv_representation.append(x)
            return conv_representation

微调全连接层

model = torchvision.models.resnet18(pretrained=True)
for param in model.parameters():
    param.requires_grad = False
model.fc = nn.Linear(512, 100)  # Replace the last fc layer
optimizer = torch.optim.SGD(model.fc.parameters(), lr=1e-2, momentum=0.9, weight_decay=1e-4)

以较大学习率微调全连接层,较小学习率微调卷积层

model = torchvision.models.resnet18(pretrained=True)
finetuned_parameters = list(map(id, model.fc.parameters()))
conv_parameters = (p for p in model.parameters() if id(p) not in finetuned_parameters)
parameters = [{'params': conv_parameters, 'lr': 1e-3}, 
              {'params': model.fc.parameters()}]
optimizer = torch.optim.SGD(parameters, lr=1e-2, momentum=0.9, weight_decay=1e-4)

6. 其他注意事项

  • 不要使用太大的线性层。因为nn.Linear(m,n)使用的是 O(mn) 的内存,线性层太大很容易超出现有显存。
  • 不要在太长的序列上使用RNN。因为RNN反向传播使用的是BPTT算法,其需要的内存和输入序列的长度呈线性关系。
  • model(x) 前用 model.train() 和 model.eval() 切换网络状态。
  • 不需要计算梯度的代码块用 with torch.no_grad() 包含起来。
  • model.eval() 和 torch.no_grad() 的区别在于,model.eval() 是将网络切换为测试状态,例如 BN 和dropout在训练和测试阶段使用不同的计算方法。torch.no_grad() 是关闭 PyTorch 张量的自动求导机制,以减少存储使用和加速计算,得到的结果无法进行 loss.backward()。
  • model.zero_grad()会把整个模型的参数的梯度都归零, 而optimizer.zero_grad()只会把传入其中的参数的梯度归零.
  • torch.nn.CrossEntropyLoss 的输入不需要经过 Softmax。torch.nn.CrossEntropyLoss 等价于 torch.nn.functional.log_softmax + torch.nn.NLLLoss。
  • loss.backward() 前用 optimizer.zero_grad() 清除累积梯度。
  • torch.utils.data.DataLoader 中尽量设置 pin_memory=True,对特别小的数据集如 MNIST 设置 pin_memory=False 反而更快一些。num_workers 的设置需要在实验中找到最快的取值。
  • 用 del 及时删除不用的中间变量,节约 GPU 存储。
  • 使用 inplace 操作可节约 GPU 存储,如
    • x = torch.nn.functional.relu(x, inplace=True)
  • 减少 CPU 和 GPU 之间的数据传输。例如如果你想知道一个 epoch 中每个 mini-batch 的 loss 和准确率,先将它们累积在 GPU 中等一个 epoch 结束之后一起传输回 CPU 会比每个 mini-batch 都进行一次 GPU 到 CPU 的传输更快。
  • 使用半精度浮点数 half() 会有一定的速度提升,具体效率依赖于 GPU 型号。需要小心数值精度过低带来的稳定性问题。
  • 时常使用 assert tensor.size() == (N, D, H, W) 作为调试手段,确保张量维度和你设想中一致。
  • 除了标记 y 外,尽量少使用一维张量,使用 n*1 的二维张量代替,可以避免一些意想不到的一维张量计算结果。
  • 统计代码各部分耗时
with torch.autograd.profiler.profile(enabled=True, use_cuda=False) as profile:
    ...
print(profile)
# 或者在命令行运行
python -m torch.utils.bottleneck main.py

使用TorchSnooper来调试PyTorch代码,程序在执行的时候,就会自动 print 出来每一行的执行结果的 tensor 的形状、数据类型、设备、是否需要梯度的信息。

# pip install torchsnooper
import torchsnooper

# 对于函数,使用修饰器
@torchsnooper.snoop()

# 如果不是函数,使用 with 语句来激活 TorchSnooper,把训练的那个循环装进 with 语句中去。
with torchsnooper.snoop():
    原本的代码

https://github.com/zasdfgbnm/TorchSnooper 模型可解释性,使用captum库

half 半精度

half 是PyTorch框架提供的trick:开启半精度

  • 直接加快运行速度、减少GPU占用,并且只有不明显的accuracy损失。

之前硬件加速,尝试过多种精度的权重和偏置。

  • 在FPGA里用8位精度和16位精度去处理MNIST手写数字识别,完全可以达到差不多的准确率,并且可以节省一半的资源消耗。
  • 这一思想用到GPU里完全可行。即将pytorch默认的32位浮点型都改成16位浮点型。
model.half() # ① 模型载入GPU之前,启动半精度
model.cuda() # 载入 GPU
model.eval()
# ② 模型改为半精度以后,输入也需要改成半精度。
img = torch.from_numpy(image).float()
img = img.cuda()
img = img.half() # 输入变半精度

res = model(img)

测试结果为:

  • 速度提升25%~35%,显存节约40~60%,而accuracy几乎没变

pytorch可视化

详见站内专题

pytorch内部机制

核心开发者全面解读Pytorch内部机制

斯坦福大学博士生与 Facebook 人工智能研究所研究工程师 Edward Z. Yang 是 PyTorch 开源项目的核心开发者之一。他在 5 月 14 日的 PyTorch 纽约聚会上做了一个有关 PyTorch 内部机制的演讲,本文是该演讲的长文章版本。

选自ezyang博客,作者:Edward Z. Yang,机器之心编译,参与:panda。

大家好!今天我想谈谈 PyTorch 的内部机制。

这份演讲是为用过 PyTorch并且有心为 PyTorch 做贡献但却被 PyTorch 那庞大的 C++ 代码库劝退的人提供的。没必要说谎:PyTorch 代码库有时候确实让人难以招架。

本演讲的目的是为你提供一份导航图:为你讲解一个「支持自动微分的张量库」的基本概念结构,并为你提供一些能帮你在代码库中寻路的工具和技巧。我预设你之前已经写过一些 PyTorch,但却可能还没有深入理解机器学习软件库的编写方式。

本演讲分为两部分:

  • 在第一部分中,我首先会全面介绍张量库的各种概念。我首先会谈谈你们知道且喜爱的张量数据类型,并详细讨论这种数据类型究竟能提供什么,这能让我们更好地理解其内部真正的实现方式。
    • 如果你是PyTorch高级用户,可能已经熟悉其中大部分材料了。我们也会谈到「扩展点(extension points)」的三个概念:布局(layout)、设备(device)和数据类型(dtype),这能引导我们思考张量类的扩展的方式。在 PyTorch 纽约聚会的现场演讲中,我略过了有关自动梯度(autograd)的幻灯片,但我在这里会进行一些讲解。
  • 第二部分会阐述用PyTorch写代码时所涉及的基本细节。如何在 autograd 代码中披荆斩棘、什么代码是真正重要的以及怎样造福他人,我还会介绍 PyTorch 为你写核(kernel)所提供的所有炫酷工具。

概念

张量

张量是 PyTorch 中的核心数据结构。张量是一种包含某种标量类型(比如浮点数和整型数等)的 n 维数据结构。可以将张量看作是由一些数据构成的,还有一些元数据描述了张量的大小、所包含的元素的类型(dtype)、张量所在的设备(CPU 内存?CUDA 内存?)

另外还有一个没那么熟悉的元数据:步幅(stride)。stride 实际上是 PyTorch 最别致的特征之一,所以值得稍微多讨论它一些。

张量是一个数学概念。但要在我们的计算机中表示它,我们必须为它们定义某种物理表示方法。最常用的表示方法是在内存中相邻地放置张量的每个元素(这也是术语「contiguous(邻接)」的来源),即将每一行写出到内存,如上所示。在上面的案例中,我已经指定该张量包含 32 位的整型数,这样你可以看到每一个整型数都位于一个物理地址中,每个地址与相邻地址相距 4 字节。为了记住张量的实际维度,我们必须将规模大小记为额外的元数据。

所以这幅图与步幅有什么关系?

假设我想要读取我的逻辑表示中位置张量 [0,1] 的元素。我该如何将这个逻辑位置转译为物理内存中的位置?步幅能让我们做到这一点:要找到一个张量中任意元素的位置,我将每个索引与该维度下各自的步幅相乘,然后将它们全部加到一起。在上图中,我用蓝色表示第一个维度,用红色表示第二个维度,以便你了解该步幅计算中的索引和步幅。进行这个求和后,我得到了 2(零索引的);实际上,数字 3 正是位于这个邻接数组的起点以下 2 个位置。

(后面我还会谈到 TensorAccessor,这是一个处理索引计算的便利类(convenience class)。当你使用 TensorAccessor 时,不会再操作原始指针,这些计算过程已经为你隐藏了起来。)

步幅是我们为 PyTorch 用户讲解方法的基本基础。举个例子,假设我想取出一个表示以上张量的第二行的张量:

使用高级的索引支持,我只需写出张量 [1, :] 就能得到这一行。重要的是:当我这样做时,不会创建一个新张量;而是会返回一个基于底层数据的不同域段(view)的张量。这意味着,如果我编辑该视角下的这些数据,它就会反映在原始的张量中。

在这种情况下,了解如何做到这一点并不算太困难:3 和 4 位于邻接的内存中,我们只需要记录一个说明该(逻辑)张量的数据位于顶部以下 2 个位置的偏移量(offset)。(每个张量都记录一个偏移量,但大多数时候它为零,出现这种情况时我会在我的图表中省略它。)

演讲时的提问:如果我取张量的一个域段,我该如何释放底层张量的内存?
答案:你必须制作该域段的一个副本,由此断开其与原始物理内存的连接。你能做的其它事情实际上并不多。另外,如果你很久之前写过 Java,取一个字符串的子字符串也有类似的问题,因为默认不会制作副本,所以子字符串会保留(可能非常大的字符串)。很显然,Java 7u6 将其固定了下来。

如果我想取第一列,还会更有意思:

当我们查看物理内存时,可以看到该列的元素不是相邻的:两者之间有一个元素的间隙。步幅在这里就大显神威了:我们不再将一个元素与下一个元素之间的步幅指定为 1,而是将其设定为 2,即跳两步。(顺便一提,这就是其被称为「步幅(stride)」的原因:如果我们将索引看作是在布局上行走,步幅就指定了我们每次迈步时向前多少位置。)

步幅表示实际上可以让你表示所有类型的张量域段;如果你想了解各种不同的可能做法,请参阅 https://ezyang.github.io/stride-visualizer/index.html

我们现在退一步看看,想想我们究竟如何实现这种功能(毕竟这是一个关于内部机制的演讲)。如果我们可以得到张量的域段,这就意味着我们必须解耦张量的概念(你所知道且喜爱的面向用户的概念)以及存储张量的数据的实际物理数据的概念(称为「存储(storage)」):

也许会有多个张量共享同一存储。存储会定义张量的 dtype 和物理大小,同时每个张量还会记录大小、步幅和偏移量,这定义的是物理内存的逻辑解释。

有一点需要注意:总是会存在一个张量-存储对,即使并不真正需要存储的「简单」情况也是如此(比如,只是用 torch.zeros(2, 2) 划配一个邻接张量时)。

顺便一提,我们感兴趣的不是这种情况,而是有一个分立的存储概念的情况,只是将一个域段定义为有一个基张量支持的张量。这会更加复杂一些,但也有好处:邻接张量可以实现远远更加直接的表示,而没有存储造成的间接麻烦。这样的变化能让 PyTorch 的内部表示方式更接近 Numpy。

上面已经介绍了一些张量的数据布局,但还是有必要谈谈如何实现对张量操作。在最抽象的层面上,当你调用 torch.mm 时,会发生两次调度:

  • 第一次调度基于设备类型张量布局:比如是 CPU 张量还是 CUDA张量,是有步幅的张量还是稀疏的张量。这个调度是动态的:这是一个虚函数(virtual function)调用(这个虚函数调用究竟发生在何处是本演讲后半部分的主题)。
  • 这里需要做一次调度应该是合理的:CPU 矩阵乘法的实现非常不同于 CUDA 的实现。这里是动态调度的原因是这些核(kernel)可能位于不同的库(比如 libcaffe2.so 或 libcaffe2_gpu.so),这样你就别无选择:如果你想进入一个你没有直接依赖的库,你必须通过动态调度抵达那里。
  • 第二次调度是在所涉dtype上的调度。这个调度只是一个简单的 switch 语句,针对的是核选择支持的任意 dtype。这里需要调度的原因也很合理:CPU 代码(或 CUDA 代码)是基于 float 实现乘法,这不同于用于 int 的代码。这说明你需要为每种 dtype 都使用不同的核。

如果想理解 PyTorch 中算子的调用方式,这可能就是你头脑中应有的最重要的知识。后面当我们更深入代码时还会回到这里。

花点时间谈谈张量扩展。毕竟,除了密集的 CPU 浮点数张量,还有其它很多类型的张量,比如 XLA 张量、量化张量、MKL-DNN 张量;而对于一个张量库,还有一件需要思考的事情:如何兼顾这些扩展?

当前的用于扩展的模型提供了张量的四个扩展点。首先,有三个独立地确定张量类型的配套参数:

  • device(设备):实际存储张量的物理内存,比如在 CPU、英伟达 GPU(cuda)、AMD GPU(hip)或 TPU(xla)上。设备之间各不相同的特性是有各自自己的分配器(allocator),这没法用于其它设备。
  • layout(布局):对物理内存进行逻辑解读的方式。最常用的布局是有步幅的张量(strided tensor),但稀疏张量的布局不同,其涉及到一对张量,一个用于索引,一个用于数据;MKL-DNN 张量的布局更加奇特,比如 blocked layout,仅用步幅不能表示它。
  • dtype(数据类型):张量中每个元素实际存储的数据的类型,比如可以是浮点数、整型数或量化的整型数。

如果你想为 PyTorch 张量添加一种扩展,你应该思考扩展这些参数中的哪几种。这些参数的笛卡尔积定义了你可以得到的所有可能的张量。现在,并非所有这些组合都有核(谁为 FPGA 上的稀疏量化张量用核?),但原则上这种组合可能有意义,因此我们至少应该支持表达它。

要为张量的功能添加「扩展」,还有最后一种方法,即围绕能实现的目标类型的 PyTorch 张量编写一个 wrapper(包装)类。这可能听起来理所当然,但有时候人们在只需要制作一个 wrapper 类时却跑去扩展那三个参数。wrapper 类的一个突出优点是开发结果可以完全不影响原来的类型(out of tree)。

你何时应该编写张量 wrapper,而不是扩展 PyTorch 本身?关键的指标是你是否需要将这个张量传递通过 autograd(自动梯度)反向通过过程。举个例子,这个指标告诉我们稀疏张量应该是一种真正的张量扩展,而不只是一种包含一个索引和值张量的 Python 对象:当在涉及嵌入的网络上执行优化时,我们想要嵌入生成稀疏的梯度。

  • 我们对扩展的理念也会影响张量本身的数据布局。对于我们的张量结构,我们真正想要的一件事物是固定的布局:我们不想要基本操作(这个说法很常见),比如「一个张量的大小是多少?」来请求虚调度。

所以当你查看一个张量的实际布局时(定义为 TensorImpl 结构),会看到所有字段的一个公共前缀——我们认为所有类似「张量」的东西都会有;还有一些字段仅真正适用于有步幅的张量,但它们也很重要,所以我们将其保留在主结构中;然后可以在每个张量的基础上完成有自定义字段的后缀。比如稀疏张量可将其索引和值存储在这个后缀中。

自动梯度(autograd)

PyTorch 如有只有张量,就不过是 Numpy 的克隆。

PyTorch 显著特性是其在最初发布时就已提供对张量的自动微分(还有 TorchScript 等炫酷功能)

autograd 提供了对 Tensors 上所有运算操作的自动微分功能,计算梯度。

  • 属于 define-by-run 类型框架,即反向传播操作的定义是根据代码的运行方式,因此每次迭代都可以是不同的。

自动微分是做啥?这是负责运行神经网络的机制:

……以及填充实际计算你的网络的梯度时所缺少的代码:

花点时间看看这幅图。其中有很多东西需要解读,我们来看看:

  • 首先将你的目光投向红色和蓝色的变量。PyTorch 实现了反向模式自动微分,这意味着我们可以「反向」走过前向计算来有效地计算梯度。查看变量名就能看到这一点:在红色部分的底部,我们计算的是损失(loss);然后在这个程序的蓝色部分,我们所做的第一件事是计算 grad_loss。loss 根据 next_h2 计算,这样我们可以计算出 grad_next_h2。从技术上讲,我们加了 grad_ 的变量其实并不是梯度,它们实际上左乘了一个向量的雅可比矩阵,但在 PyTorch 中,我们就称之为 grad,基本上所有人都知道这是什么意思。
  • 如果代码的结构保持一样,而行为没有保持一样:来自前向的每一行都被替换为一个不同的计算,其代表了前向运算的导数。举个例子,tanh 运算被转译成了 tanh_backward 运算(这两行用图左边一条灰线连接)。前向和反向运算的输入和输出交换:如果前向运算得到 next_h2,反向运算就以 grad_next_h2 为输入。

autograd 的意义就在于执行这幅图所描述的计算,但却不用真正生成这个源。PyTorch autograd 并不执行源到源的变换(尽管 PyTorch JIT 确实知道如何执行符号微分(symbolic differentiation))。

要做到这一点,我们需要在张量上执行运算时存储更多元数据。让我们调整一下我们对张量数据结构的图:现在不只是一个指向存储的张量,我们还有一个包装这个张量的变量,而且也存储更多信息(AutogradMeta),这是用户在自己的 PyTorch 脚本中调用 loss.backward() 执行 autograd 时所需的。

这张幻灯片的内容在不久的将来就会过时。Will Feng 在简单融合了 PyTorch 的前端端口之后,正在推动 C++ 中变量和张量的融合:https://github.com/pytorch/pytorch/issues/13638

我们也必须更新上面关于调度的图:

在我们调度到 CPU 或 CUDA 实现之前,还有另一个对变量的调度,其负责打开(unwrap)变量,调用底层实现(绿色),然后再重新将结果包装进变量并为反向过程记录必需的 autograd 元数据。

某些实现不会 unwrap;它们只是调用其它变量实现。所以你可能要在变量宇宙中花些时间。但是,一旦你 unwrap 并进入了非变量张量宇宙,你就到达终点了;你再也不用退回变量(除非从你的函数返回)。

在我的纽约聚会演讲中,我跳过了以下七页幻灯片。对它们的文本介绍还要等一段时间。

张量

当设置 torch.Tensor的属性 .requires_grad=True,就开始追踪该变量上的所有操作

  • 完成计算后,调用 .backward() 并自动计算所有的梯度,得到的梯度都保存在属性 .grad 中。
  • 调用 .detach() 方法分离出计算的历史,停止一个 tensor 变量继续追踪其历史信息,同时也防止未来的计算会被追踪。
  • 如果是希望防止跟踪历史(以及使用内存),将代码块放在 with torch.no_grad(): 内,模型评估时非常有用,因为模型会包含一些带有 requires_grad=True的训练参数,但实际上并不需要梯度信息。

Function

Tensor 和 Function 两个类是有关联, 并建立了一个非循环图,可编码一个完整的计算记录。

  • 每个 tensor 变量都带有属性 .grad_fn ,引用创建这个变量的 Function (除了由用户创建的 Tensors,它们的 grad_fn=None
  • 如果要进行求导运算,可调用一个 Tensor 变量的方法 .backward()
  • 如果该变量是一个标量,即仅有一个元素,那么不需要传递任何参数给方法 .backward()
  • 当包含多个元素的时候,就必须指定一个 gradient 参数,表示匹配尺寸大小的 tensor。
import torch

# Tensor 变量默认 requires_grad 是 False
x = torch.ones(2, 2, requires_grad=True)
print(x)
y = x + 2
print(y)
print(y.grad_fn)
z = y * y * 3
out = z.mean()
print('z=', z)
print('out=', out)

梯度

计算梯度,进行反向传播的操作。

  • out 变量是一个标量,因此 out.backward() 相当于 out.backward(torch.tensor(1.))
out.backward()
# 输出梯度 d(out)/dx
print(x.grad)

工程开发

说够了概念,我们来看看代码。

找到你的路径

PyTorch 有大量文件夹,在 CONTRIBUTING.md 文档中有对它们的非常详细的描述,但实际上你只需知晓 4 个目录:

  • 首先,torch/ 包含你最熟悉的东西:你导入和使用的实际的 Python 模块。这些东西是 Python 代码而且易于操作(只需要进行修改然后查看结果即可)。但是,如果太过深入……
  • torch/csrc/:实现了你可能称为 PyTorch 前端的 C++ 代码。用更描述性的术语讲,它实现了在 Python 和 C++ 间转换的绑定代码(binding code);另外还有一些相当重要的 PyTorch 部分,比如 autograd 引擎和 JIT 编译器。它也包含 C++ 前端代码。
  • aten/:这是「A Tensor Library」的缩写(由 Zachary DeVito 命名),是一个实现张量运算的 C++ 库。如果你检查某些核代码所处的位置,很可能就在 ATen。ATen 本身就分为两个算子区域:「原生」算子(算子的现代的 C++ 实现)和「传统」算子(TH、THC、THNN、THCUNN),这些是遗留的 C 实现。传统的算子是其中糟糕的部分;如果可以,请勿在上面耗费太多时间。
  • c10/:这是「Caffe2」和「A”Ten”」的双关语,包含 PyTorch 的核心抽象,包括张量和存储数据结构的实际实现。

找代码需要看很多地方;我们应该简化目录结构,就是这样。如果你想研究算子,你应该在 aten 上花时间。

我们看看在实践中是如何分离这些代码的:

当你调用一个函数时,比如 torch.add,会发生什么?如果你记得我们的有关调度的讨论,你脑中应该已有了这些基础:

  • 我们必须从 Python 国度转换到 C++ 国度(Python 参数解析)。
  • 我们处理变量调度(VariableType—Type,顺便一提,和编程语言类型并无特别关联,只是一个用于执行调度的小工具)。
  • 我们处理设备类型/布局调度(Type)。
  • 我们有实际的核,这要么是一个现代的原生函数,要么是传统的 TH 函数。

其中每一步都具体对应于一些代码。让我们开路穿过这片丛林。

我们在 C++ 代码中的起始着陆点是一个 Python 函数的 C 实现,我们已经在 Python 那边见过它,像是 torch._C.VariableFunctions.add。THPVariable_add 就是这样一个实现。

对于这些代码,有一点很重要:这些代码是自动生成的。如果你在 GitHub 库中搜索,你没法找到它们,因为你必须实际 build PyTorch 才能看到它们。另外一点也很重要:你不需要真正深入理解这些代码是在做什么,你应该快速浏览它,知道它的功能。

我在上面用蓝色标注了最重要的部分:你可以看到这里使用了一个 PythonArgParser 类来从 Python args 和 kwargs 取出 C++ 对象;然后我们调用一个 dispatch_add 函数(红色内联);这会释放全局解释器锁,然后调用在 C++ 张量自身上的一个普通的旧方法。在其回来的路上,我们将返回的 Tensor 重新包装进 PyObject。

(这里幻灯片中有个错误:我应该讲解变量调度代码。我这里还没有修复。某些神奇的事发生了,于是……)

当我们在 Tensor 类上调用 add 方法时,还没有虚调度发生。相反,我有一个内联方法,其调用了一个内联方法,其会在「Type」对象上调用一个虚方法。这个方法是真正的虚方法(这就是我说 Type 只是一个让你实现动态调度的「小工具」的原因)。

在这个特定案例中,这个虚调用会调度到在一个名为 TypeDefault 的类上的 add 的实现。这刚好是因为我们有一个对所有设备类型(CPU 和 CUDA)都一样的 add 的实现;如果我们刚好有不同的实现,我们可能最终会得到 CPUFloatType::add 这样的结果。正是这种虚方法的实现能让我们最终得到实际的核代码。

也希望这张幻灯片很快过时;Roy Li 正在研究使用另一种机制替代 Type 调度,这能让我们更好地在移动端上支持 PyTorch。

值得再次强调,一直到我们到达核,所有这些代码都是自动生成的。

道路蜿蜒曲折,一旦你能基本上把握方向了,我建议你直接跳到核部分。

编写核(kernel)

PyTorch 为有望编写核的人提供了大量有用工具。在这一节我们会了解其中一些。但首先,编写核需要什么?

我们一般将 PyTorch 中的核看作由以下部分组成:

  • 首先有一些我们要写的有关核的元数据,这能助力代码生成并让你获取所有与 Python 的捆绑包,同时无需写任何一行代码。
  • 一旦你到达了核,你就经过了设备类型/布局调度。你首先需要写的是错误检查,以确保输入的张量有正确的维度。(错误检查真正很重要!不要吝惜它!)
  • 接下来,我们一般必须分配我们将要写入输出的结果张量。
  • 该到写核的时候了。现在你应该做第二次 dtype 调度,以跳至其所操作的每个 dtype 特定的核。(你不应该过早做这件事,因为那样的话你就会毫无用处地复制在任何情况下看起来都一样的代码。)
  • 大多数高性能核都需要某种形式的并行化,这样就能利用多 CPU 系统了。(CUDA 核是「隐式」并行化的,因为它们的编程模型构建于大规模并行化之上。)
  • 最后,你需要读取数据并执行你想做的计算!

在后面的幻灯片中,我将介绍 PyTorch 中能帮你实现这些步骤的工具。

要充分利用 PyTorch 的代码生成能力,你需要为你的算子写一个模式(schema)。这个模式能提供你的函数的 mypy 风格类型,并控制是否为 Tensor 上的方法或函数生成捆绑包。你还可以告诉模式针对给定的设备-布局组合,应该调用你的算子的哪种实现。

有关这种格式的更多信息,请参阅:https://github.com/pytorch/pytorch/blob/master/aten/src/ATen/native/README.md

你可能也需要为你在 derivatives.yaml 中的操作定义一个导数。

错误检查可以在低层 API 完成,也能通过高层 API 实现。低层 API 只是一个宏 TORCH_CHECK,其接收的是一个布尔值,然后还有任意数量的参数构成错误字符串(error string)以便得出结论看该布尔值是否为真。

这个宏有个很好的地方:你可以将字符串与非字符串数据混合起来;每一项都使用它们的 operator« 实现进行格式化,PyTorch 中大多数重要的数据类型都有 operator« 实现。

高层 API 能让你免于反复编写重复的错误消息。其工作方法是;你首先将每个张量包装为 TensorArg,这包含有关张量来处的信息(比如其参数名称)。然后它提供了一些预先装好的用于检查多种属性的函数;比如 checkDim() 测试的是张量的维度是否是一个固定数值。如果不是,该函数就基于 TensorArg 元数据提供一个用户友好的错误消息。

在用 PyTorch 写算子时,有一点很重要:你往往要注册三个算子:abs_out(其操作的是一个预分配的输出,其实现了 out= keyword 参数)、abs_(其操作的是 inplace)、abs(这只是一个算子的普通的旧功能版本)。

大部分时间,abs_out 是真正的主力,abs 和 abs_ 只是围绕 abs_out 的薄弱 wrapper;但有时候也可为每个案例编写专门的实现。

要执行 dtype 调度,你应该使用 AT_DISPATCH_ALL_TYPES 宏。这会获取你想要进行调度操作的张量的 dtype,并还会为可从该宏调度的每个 dtype 指定一个 lambda。通常而言,这个 lambda 只是调用一个模板辅助函数。

这个宏不只是「执行调度」,它也会决定你的核将支持的 dtype。这样,这个宏实际上就有相当多一些版本,这能让你选取不同的 dtype 子集以生成特定结果。大多数时候,你只需要 AT_DISPATCH_ALL_TYPES,但也要关注你可能需要调度其它更多类型的情况。

在 CPU 上,你通常需要并行化你的代码。过去,这通常是通过直接在你的代码中添加 OpenMP pragma 来实现。

某些时候,你必须真正访问数据。PyTorch 为此提供了相当多一些选择。

  • 如果你只想获取某个特定位置的值,你应该使用 TensorAccessor。张量存取器就像是一个张量,但它将张量的维度和 dtype 硬编码为了模板参数。当你检索一个存取器时,比如 x.accessor();,我们会做一次运行时间测试以确保张量确实是这种格式;但那之后,每次存取都不会被检查。张量存取器能正确地处理步幅,因此你最好使用它们,而不是原始的指针访问(不幸的是,很多传统的核是这样做的)。另外还有 PackedTensorAccessor,这特别适用于通过 CUDA launch 发送存取器,这样你就能从你的 CUDA 核内部获取存取器。(一个值得一提的问题:TensorAccessor 默认是 64 位索引,这比 CUDA 中的 32 位索引要慢得多!)
  • 如果你在用很常规的元素存取编写某种算子,比如逐点运算,那么使用远远更高级的抽象要好得多,比如 TensorIterator。这个辅助类能为你自动处理广播和类型提升(type promotion),相当好用。
  • 要在 CPU 上获得真正的速度,你可能需要使用向量化的 CPU 指令编写你的核。我们也有用于这方面的辅助函数!Vec256 类表示一种标量向量,并提供了一些能在它们上一次性执行向量化运算的方法。然后 binary_kernel_vec 等辅助函数能让你轻松地运行向量化运算,然后结束那些没法用普通的旧指令很好地转换成向量指令的东西。这里的基础设施还能在不同指令集下多次编译你的核,然后在运行时间测试你的 CPU 支持什么指令,再在这些情况中使用最佳的核。

PyTorch 中大量核都仍然是用传统的 TH 风格编写的。(顺便一提,TH 代表 TorcH。这是个很好的缩写词,但很不幸被污染了;如果你看到名称中有 TH,可认为它是传统的。)传统 TH 风格是什么意思呢?

  • 它是以 C 风格书写的,没有(或很少)使用 C++。
  • 其 refcounted 是人工的(使用了对 THTensor_free 的人工调用以降低你使用张量结束时的 refcounts)。
  • 其位于 generic/ 目录,这意味着我们实际上要编译这个文件很多次,但要使用不同的 #define scalar_t

这种代码相当疯狂,而且我们讨厌回顾它,所以请不要添加它。如果你想写代码但对核编写了解不多,你能做的一件有用的事情:将某些 TH 函数移植到 ATen。

工作流程效率

最后我想谈谈在 PyTorch 上的工作效率。如果 PyTorch 那庞大的 C++ 代码库是阻拦人们为 PyTorch 做贡献的第一只拦路虎,那么你的工作流程的效率就是第二只。如果你想用 Python 习惯开发 C++,那可能会很艰辛:重新编译 PyTorch 需要大量时间,你也需要大量时间才能知道你的修改是否有效。

如何高效工作本身可能就值得做一场演讲,但这页幻灯片总结了一些我曾见过某些人抱怨的最常见的反模式:「开发 PyTorch 很困难。」

  • 如果你编辑一个 header,尤其是被许多源文件包含的 header(尤其当被 CUDA 文件包含时),可以预见会有很长的重新 build 时间。尽量只编辑 cpp 文件,编辑 header 要审慎!
  • 我们的 CI 是一种非常好的零设置的测试修改是否有效的方法。但在获得返回信号之前你可能需要等上一两个小时。如果你在进行一种将需要大量实验的改变,那就花点时间设置一个本地开发环境。类似地,如果你在特定的 CI 配置上遇到了困难的 debug 问题,就在本地设置它。你可以将 Docker 镜像下载到本地并运行:https://github.com/pytorch/ossci-job-dsl
  • 贡献指南解释了如何设置 ccache:https://github.com/pytorch/pytorch/blob/master/CONTRIBUTING.md#use-ccache ;强烈建议这个,因为这可以让你在编辑 header 时幸运地避免大量重新编译。当我们在不应该重新编译文件时重新编译时,这也能帮你覆盖我们的 build 系统的漏洞。
  • 最后,我们会有大量 C++ 代码。如果你是在一台有 CPU 和 RAM 的强大服务器上 build,那么会有很愉快的体验。特别要说明,我不建议在笔记本电脑上执行 CUDA build。build CUDA 非常非常慢,而笔记本电脑往往性能不足,不足以快速完成。

参与进来!

这就是我们旋风一般的 PyTorch 内核之旅了!其中省略了很多很多东西;但希望这里的描述和解释至少能帮你消化其代码库中相当大一部分。

接下来该做什么?你能做出怎样的贡献?我们的问题跟踪器是个开始的好地方:https://github.com/pytorch/pytorch/issues

从今年开始,我们一直在分类鉴别问题;标注有「triaged」的问题表示至少有一个 PyTorch 开发者研究过它并对该问题进行了初步评估。你可以使用这些标签找到我们认为哪些问题是高优先级的或查看针对特定模块(如 autograd)的问题,也能找到我们认为是小问题的问题。(警告:我们有时是错的!)

即使你并不想马上就开始写代码,也仍有很多其它有用的工作值得去做,比如改善文档(我很喜欢合并文档 PR,它们都很赞)、帮助我们重现来自其他用户的 bug 报告以及帮助我们讨论问题跟踪器上的 RFC。没有我们的开源贡献者,PyTorch 不会走到今天

结束


支付宝打赏 微信打赏

~ 海内存知已,天涯若比邻 ~

Share

Similar Posts

Related Posts

下一篇 Pytorch 手册

标题:Tensorflow 学习笔记

摘要:Tensorflow编程技能汇总

标题:Pytorch 手册

摘要:Pytorch 编程手册

Comments

--disqus--

    My Moment ( 微信公众号 )
    欢迎关注鹤啸九天