来呀,快活呀~


  • 首页

  • 归档

  • 标签

  • 关于

  • 搜索
close
来呀,快活呀~

MXNet fit介绍

发表于 2018-10-02

在MXNet中,Module提供了训练模型的方便接口。使用symbol将计算图建好之后,用Module包装一下,就可以通过fit()方法对其进行训练。当然,官方提供的接口一般只适合用来训练分类任务,如果是其他任务(如detection, segmentation等),单纯使用fit()接口就不太合适。这里把fit()代码梳理一下,也是为了后续方便在其基础上实现扩展,更好地用在自己的任务。

其实如果看开源代码数量的话,MXNet已经显得式微,远不如TensorFlow,PyTorch也早已经后来居上。不过据了解,很多公司内部都有基于MXNet自研的框架或平台工具。下面这张图来自LinkedIn上的一个Slide分享,姑且把它贴在下面,算是当前流行框架的一个比较(应该可以把Torch换成PyTorch)。

Differences of Deep Learning Frameworks

阅读全文 »
来呀,快活呀~

论文 - Like What You Like - Knowledge Distill via Neuron Selectivity Transfer

发表于 2018-10-02

好长时间没有写博客了,国庆假期把最近看的东西整理一下。Like What You Like: Knowledge Distill via Neuron Selectivity Transfer这篇文章是图森的工作,在Knowledge Distilling基础上做出了改进Neural Selectivity Transfer,使用KD + NST方法能够取得SOTA的结果。PS:DL领域的论文名字真的是百花齐放。。。Like what you like。。。感受一下。。。

jump if you jump

另外,这篇论文的作者Wang Naiyan大神和Huang Zehao在今年的ECCV 2018上还有一篇论文发表,同样是模型压缩,但是使用了剪枝方法,有兴趣可以关注一下:Data-driven sparse structure selection for deep neural networks。

另另外,其实这两篇文章挂在Arxiv的时间很接近,知乎的讨论帖:如何评价图森科技连发的三篇关于深度模型压缩的文章?有相关回答,可以看一下。DL/CV方法论文实在太多了,感觉Naiyan大神和图森的工作还是很值得信赖的,值得去follow。

阅读全文 »
来呀,快活呀~

论文 - Distilling the Knowledge in a Neural Network

发表于 2018-06-07

知识蒸馏(Knowledge Distilling)是模型压缩的一种方法,是指利用已经训练的一个较复杂的Teacher模型,指导一个较轻量的Student模型训练,从而在减小模型大小和计算资源的同时,尽量保持原Teacher模型的准确率的方法。这种方法受到大家的注意,主要是由于Hinton的论文Distilling the Knowledge in a Neural Network。这篇博客做一总结。后续还会有KD方法的改进相关论文的心得介绍。

阅读全文 »
来呀,快活呀~

(译)PyTorch 0.4.0 Migration Guide

发表于 2018-04-27

PyTorch在前两天官方发布了0.4.0版本。这个版本与之前相比,API发生了较大的变化,所以官方也出了一个转换指导,这篇博客是这篇指导的中文翻译版。归结起来,对我们代码影响最大的地方主要有:

  • Tensor和Variable合并,autograd的机制有所不同,变得更简单,使用requires_grad和上下文相关环境管理。
  • Numpy风格的Tensor构建。
  • 提出了device,更简单地在cpu和gpu中移动数据。
阅读全文 »
来呀,快活呀~

JupyterNotebook设置Python环境

发表于 2018-04-09

使用Python时,常遇到的一个问题就是Python和库的版本不同。Anaconda的env算是解决这个问题的一个好用的方法。但是,在使用Jupyter Notebook的时候,我却发现加载的仍然是默认的Python Kernel。这篇博客记录了如何在Jupyter Notebook中也能够设置相应的虚拟环境。

阅读全文 »

来呀,快活呀~

数值优化之牛顿方法

发表于 2018-04-03

简要介绍一下优化方法中的牛顿方法(Newton’s Method)。下面的动图demo来源于Wiki页面。
牛顿法动图

阅读全文 »

来呀,快活呀~

论文 - Feature Pyramid Networks for Object Detection (FPN)

发表于 2018-04-02

图像金字塔或特征金字塔是传统CV方法中常用的技巧,例如求取SIFT特征就用到了DoG图像金字塔。但是在Deep Learning统治下的CV detection下,这种方法变得无人问津。一个重要的问题就是计算量巨大。而本文提出了一种仅用少量额外消耗建立特征金字塔的方法,提高了detector的性能。

阅读全文 »

来呀,快活呀~

论文 - YOLO v3

发表于 2018-04-01

YOLO的作者又放出了V3版本,在之前的版本上做出了一些改进,达到了更好的性能。这篇博客介绍这篇论文:YOLOv3: An Incremental Improvement。下面这张图是YOLO V3与RetinaNet的比较。
YOLO v3和RetinaNet的比较

可以使用搜索功能,在本博客内搜索YOLO前作的论文阅读和代码。

阅读全文 »

来呀,快活呀~

论文 - SqueezeNet, AlexNet-level accuracy with 50x fewer parameters and <0.5mb model size < a>

发表于 2018-03-24

SqueezeNet由HanSong等人提出,和AlexNet相比,用少于$50$倍的参数量,在ImageNet上实现了comparable的accuracy。比较本文和HanSoing其他的工作,可以看出,其他工作,如Deep Compression是对已有的网络进行压缩,减小模型size;而SqueezeNet是从网络设计入手,从设计之初就考虑如何使用较少的参数实现较好的性能。可以说是模型压缩的两个不同思路。

阅读全文 »
来呀,快活呀~

论文 - MobileNets, Efficient Convolutional Neural Networks for Mobile Vision Applications

发表于 2018-03-23

MobileNet是建立在Depthwise Separable Conv基础之上的一个轻量级网络。在本论文中,作者定量计算了使用这一技术带来的计算量节省,提出了MobileNet的结构,同时提出了两个简单的超参数,可以灵活地进行模型性能和inference时间的折中。后续改进的MobileNet v2以后讨论。

阅读全文 »

1234…10
一个脱离了高级趣味的人

一个脱离了高级趣味的人

相与枕藉乎舟中,不知东方之既白

91 日志
36 标签
RSS
GitHub 微博
© 2021 一个脱离了高级趣味的人
由 Hexo 强力驱动
主题 - NexT.Muse