pytorch简介
一.pytorch是什么?
pytorch是torch的python版本,是由facebook开源的神经网络框架,专门针对 gpu 加速的深度神经网络(dnn)编程。torch 是一个经典的对多维矩阵数据进行操作的张量(tensor )库,在机器学习和其他数学密集型应用有广泛应用。与tensorflow的静态计算图不同,pytorch的计算图是动态的,可以根据计算需要实时改变计算图。但由于torch语言采用 lua,导致在国内一直很小众,并逐渐被支持 python 的 tensorflow 抢走用户。作为经典机器学习库 torch 的端口,pytorch 为 python 语言使用者提供了舒适的写代码选择。
二.为什么选择 pytorch?
1.简洁:
pytorch的设计追求最少的封装,尽量避免重复造*。不像 tensorflow 中充斥着session、graph、operation、name_scope、variable、tensor、layer等全新的概念,pytorch 的设计遵循tensor→variable(autograd)→nn.module 三个由低到高的抽象层次,分别代表高维数组(张量)、自动求导(变量)和神经网络(层/模块),而且这三个抽象之间联系紧密,可以同时进行修改和操作。 简洁的设计带来的另外一个好处就是代码易于理解。pytorch的源码只有tensorflow的十分之一左右,更少的抽象、更直观的设计使得pytorch的源码十分易于阅读。
2.速度:
pytorch 的灵活性不以速度为代价,在许多评测中,pytorch 的速度表现胜过 tensorflow和keras 等框架。框架的运行速度和程序员的编码水平有极大关系,但同样的算法,使用pytorch实现的那个更有可能快过用其他框架实现的。
3.易用:
pytorch 是所有的框架中面向对象设计的最优雅的一个。pytorch的面向对象的接口设计来源于torch,而torch的接口设计以灵活易用而著称,keras作者最初就是受torch的启发才开发了keras。pytorch继承了torch的衣钵,尤其是api的设计和模块的接口都与torch高度一致。pytorch的设计最符合人们的思维,它让用户尽可能地专注于实现自己的想法,即所思即所得,不需要考虑太多关于框架本身的束缚。
4.活跃的社区:
pytorch 提供了完整的文档,循序渐进的指南,作者亲自维护的论坛 供用户交流和求教问题。facebook 人工智能研究院对 pytorch 提供了强力支持,作为当今排名前三的深度学习研究机构,fair的支持足以确保pytorch获得持续的开发更新,不至于像许多由个人开发的框架那样昙花一现。
三.pytorch 的架构是怎样的?
pytorch(caffe2) 通过混合前端,分布式训练以及工具和库生态系统实现快速,灵活的实验和高效生产。pytorch 和 tensorflow 具有不同计算图实现形式,tensorflow 采用静态图机制(预定义后再使用),pytorch采用动态图机制(运行时动态定义)。pytorch 具有以下高级特征:
- 混合前端:新的混合前端在急切模式下提供易用性和灵活性,同时无缝转换到图形模式,以便在c ++运行时环境中实现速度,优化和功能。
- 分布式训练:通过利用本地支持集合操作的异步执行和可从python和c ++访问的对等通信,优化了性能。
- python优先: pytorch为了深入集成到python中而构建的,因此它可以与流行的库和cython和numba等软件包一起使用。
- 丰富的工具和库:活跃的研究人员和开发人员社区建立了丰富的工具和库生态系统,用于扩展pytorch并支持从计算机视觉到强化学习等领域的开发。
- 本机onnx支持:以标准onnx(开放式神经网络交换)格式导出模型,以便直接访问与onnx兼容的平台,运行时,可视化工具等。
- c++前端:c++前端是pytorch的纯c++接口,它遵循已建立的python前端的设计和体系结构。它旨在实现高性能,低延迟和裸机c++应用程序的研究。 使用gpu和cpu优化的深度学习张量库。
四.pytorch 与 tensorflow 之间的差异在哪里?
上面也将了pytorch 最大优势是建立的神经网络是动态的, 对比静态的 tensorflow, 它能更有效地处理一些问题, 比如说 rnn 变化时间长度的输出。各有各的优势和劣势。两者都是大公司发布的, tensorflow(google)宣称在分布式训练上下了很大的功夫, 那就默认 tensorflow 在分布式训练上要超出 pytorch(facebook),还有tensorboard可视化工具, 但是 tensorflow 的静态计算图使得在 rnn 上有一点点被动 (虽然它用其他途径解决了), 不过用 pytorch 的时候, 会对这种动态的 rnn 有更好的理解。而且 tensorflow 的高度工业化, 它的底层代码很难看懂, pytorch 好那么一点点, 如果深入 pytorchapi, 至少能比看 tensorflow 多看懂一点点 pytorch 的底层在干啥。
五.pytorch有哪些常用工具包?
- torch :类似 numpy 的张量库,强 gpu 支持 ;
- torch.autograd :基于 tape 的自动区别库,支持 torch 之中的所有可区分张量运行;
- torch.nn :为最大化灵活性未涉及、与 autograd 深度整合的神经网络库;
- torch.optim:与 torch.nn 一起使用的优化包,包含 sgd、rmsprop、lbfgs、adam 等标准优化方式;
- torch.multiprocessing: python 多进程并发,进程之间 torch tensors 的内存共享;
- torch.utils:数据载入器。具有训练器和其他便利功能;
- torch.legacy(.nn/.optim) :处于向后兼容性考虑,从 torch 移植来的 legacy 代码;
到此这篇关于pytorch简介的文章就介绍到这了,更多相关pytorch简介内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!