开新坑!准备开始聊triton。 老潘用triton有两年多了,一直想写个教程给大家。顺便自己学习学习,拖了又拖,趁着这次换版本的机会,终于有机会了写了。 triton作为一个NV…
你在看这个话题:深度学习库
老潘的宝藏资料分享(不断更新~)
yahaha~你终于找到这里了。 这里收集了老潘总结的深度原创文和珍藏的资料,相信可以帮助到你。 列一下博客的关键词:深度学习、神经网络、模型部署落地、服务器推理、Pytorch、…
Mac mini M1使用体验(编程、游戏、深度学习)
前一阵子忍不住剁手买了M1芯片的mac mini,为了弥补自己的内疚感就卖了自己的旧的mbp2017款。数据也完全迁移到了新机器上,之前的工作也就由mbp2017彻底换成mac m…
实现TensorRT自定义插件(plugin)自由!
本系列为新TensorRT的第一篇,为什么叫新,因为之前已经写了两篇关于TensorRT的文章,是关于TensorRT-5.0版本的。好久没写关于TensorRT的文章了,所幸就以…
利用Caffe推理CenterNet(下篇)
此文章作为存档文章,caffe虽然不是c++版本运行CenterNet的最优方式,但也是一种选择。这里仅仅是记录,承接利用Caffe推理CenterNet(上篇)。 在上文中,虽然…
利用Caffe推理CenterNet(上篇)
本文主要内容是记录一下将CenterNet模型转化为Caffe模型,并且成功推理的过程。虽然Caffe用的不多了吧,但是作为C++端的推理框架还是有不小的用武之地的,所以说本篇也可…
Openvino初探(实际体验)
趁着临近毕业之前再贡献一波热度吧! 本篇文章主要内容为在使用OpenVino时的一些注意点,方便带大家快速入门。OpenVino相比TVM和libtorch在intelx86的CP…
机器学习系统SyeML笔记三——自动微分
接下来我们就正式开始进入深度学习库的内部,来探索其具体的实现过程了。这节课的主要话题是**Backpropagation and Automatic Differentiation…
机器学习系统或者SysML&DL笔记(一)
在使用过TVM、TensorRT等优秀的机器学习编译优化系统以及Pytorch、Keras等深度学习框架后,总觉得有必要从理论上对这些系统进行一些分析,虽然说在实践中学习是最快最直…
图像、神经网络优化利器:了解Halide
前言 Halide是用C++作为宿主语言的一个图像处理相关的DSL(Domain Specified Language)语言,全称领域专用语言。主要的作用为在软硬层面上(与算法本身…
我们来谈谈ONNX的日常
前言 为什么要说ONNX,ONNX又是个什么东西,经常要部署神经网络应用的童鞋们可能会ONNX会比较熟悉,我们可能会在某一任务中将Pytorch或者TensorFlow模型转化为O…
一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署
前言 在上一篇文章中<一步一步解读神经网络编译器TVM(一)——一个简单的例子>,我们简单介绍了什么是TVM以及如何利用Relay IR去编译网络权重然后并运行起来。 …
一步一步解读神经网络编译器TVM(一)——一个简单的例子
前言 这是一个TVM教程系列,计划从TVM的使用说明,再到TVM的内部源码,为大家大致解析一下TVM的基本工作原理。因为TVM的中文资料比较少,也希望贡献一下自己的力量,如有描述方…
Pytorch中多GPU训练指北
前言 在数据越来越多的时代,随着模型规模参数的增多,以及数据量的不断提升,使用多GPU去训练是不可避免的事情。Pytorch在0.4.0及以后的版本中已经提供了多GPU训练的方式,…
随身GPU服务器:Kaggle中kernels的快速入门指南
前言 对于很多入门深度学习领域的小伙伴来说啊,拥有一款合适的显卡是必要的,只有拥有好的装备才能更好更快地进行神经网络的训练、调试网络结构、改善我们的代码,进而更快地产出结果。 也就…