DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释和感悟(六)

387 篇文章 60 订阅
订阅专栏

DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释和感悟(六)

 

 

 

目录

DRN

DNC

NTM

CN

KN

AN


 

 

 

 

 

 

 

相关文章
DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释和感悟(一)
DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释和感悟(二)
DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释和感悟(三)
DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释和感悟(四)
DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释和感悟(五)
DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释和感悟(六)

 

 

 

DRN

       Deep residual networks (DRN) are very deep FFNNs with extra connections passing input from one layer to a later layer (often 2 to 5 layers) as well as the next layer. Instead of trying to find a solution for mapping some input to some output across say 5 layers, the network is enforced to learn to map some input to some output + some input. Basically, it adds an identity to the solution, carrying the older input over and serving it freshly to a later layer. It has been shown that these networks are very effective at learning patterns up to 150 layers deep, much more than the regular 2 to 5 layers one could expect to train. However, it has been proven that these networks are in essence just RNNs without the explicit time based construction and they’re often compared to LSTMs without gates.
       深度残差网络(DRN)是非常深的FFNNs,有额外的连接将输入从一层传递到下一层(通常是2到5层)以及下一层。与其试图寻找一个跨5层将一些输入映射到一些输出的解决方案,不如强制网络学会将一些输入映射到一些输出+一些输入。基本上,它为解决方案添加了一个标识,将旧的输入传送到新层。
       研究表明,这些网络在学习高达150层的模式方面非常有效,远远超过人们可以预期训练的常规2至5层。然而,已经证明,这些网络本质上只是没有显式的基于时间的构造的RNNs,它们经常被比作没有门的LSTMs。

He, Kaiming, et al. “Deep residual learning for image recognition.” arXiv preprint arXiv:1512.03385 (2015).
Original Paper PDF

 

DNC

        Differentiable Neural Computers (DNC) are enhanced Neural Turing Machines with scalable memory, inspired by how memories are stored by the human hippocampus. The idea is to take the classical Von Neumann computer architecture and replace the CPU with an RNN, which learns when and what to read from the RAM. Besides having a large bank of numbers as memory (which may be resized without retraining the RNN). The DNC also has three attention mechanisms. These mechanisms allow the RNN to query the similarity of a bit of input to the memory’s entries, the temporal relationship between any two entries in memory, and whether a memory entry was recently updated – which makes it less likely to be overwritten when there’s no empty memory available.
        可微神经计算机(DNC)是一种增强的神经图灵机,具有可伸缩的内存,其灵感来自于人类海马区存储记忆的方式。其想法是采用经典的冯•诺依曼计算机架构,用RNN替换CPU, RNN可以学习何时以及从RAM中读取什么。除了拥有大量的数字作为内存(可以在不重新训练RNN的情况下调整大小)之外。DNC也有三个注意机制。这些机制允许RNN查询少量输入与内存条目的相似性、内存中任意两个条目之间的时间关系,以及最近是否更新了内存条目——这使得在没有可用的空内存时不太可能覆盖该条目。

Graves, Alex, et al. “Hybrid computing using a neural network with dynamic external memory.” Nature 538 (2016): 471-476.
Original Paper PDF

 

 

NTM

       Neural Turing machines (NTM) can be understood as an abstraction of LSTMs and an attempt to un-black-box neural networks (and give us some insight in what is going on in there). Instead of coding a memory cell directly into a neuron, the memory is separated. It’s an attempt to combine the efficiency and permanency of regular digital storage and the efficiency and expressive power of neural networks. The idea is to have a content-addressable memory bank and a neural network that can read and write from it. The “Turing” in Neural Turing Machines comes from them being Turing complete: the ability to read and write and change state based on what it reads means it can represent anything a Universal Turing Machine can represent.
       神经网络图灵机(NTM)可以被理解为LSTMs的抽象,是一种试图消除黑盒神经网络(并让我们对其中发生的事情有一些了解)的尝试。不是直接将记忆细胞编码成神经元,而是将记忆分开。它试图将常规数字存储的效率和持久性与神经网络的效率和表达能力结合起来。这个想法是要有一个内容可寻址的存储库和一个可以从中读写的神经网络。神经图灵机器中的“图灵”来自于它们的图灵完备性:根据它所读取的内容读写和改变状态的能力意味着它可以表示任何通用图灵机器能够表示的东西。

Graves, Alex, Greg Wayne, and Ivo Danihelka. “Neural turing machines.” arXiv preprint arXiv:1410.5401 (2014).
Original Paper PDF

 

CN

       Capsule Networks (CapsNet) are biology inspired alternatives to pooling, where neurons are connected with multiple weights (a vector) instead of just one weight (a scalar). This allows neurons to transfer more information than simply which feature was detected, such as where a feature is in the picture or what colour and orientation it has. The learning process involves a local form of Hebbian learning that values correct predictions of output in the next layer.
        胶囊网络(CapsNet)是受生物学启发的池的替代品,其中神经元连接多个权重(向量),而不是一个权重(标量)。这使得神经元能够传递更多的信息,而不仅仅是检测到哪些特征,比如某个特征在图片中的什么位置,或者它的颜色和方向。学习过程包括一种局部形式的Hebbian学习,它重视对下一层输出的正确预测。

Sabour, Sara, Frosst, Nicholas, and Hinton, G. E. “Dynamic Routing Between Capsules.” In Advances in neural information processing systems (2017): 3856-3866.
Original Paper PDF

 

KN

       Kohonen networks (KN, also self organising (feature) map, SOM, SOFM) utilise competitive learning to classify data without supervision. Input is presented to the network, after which the network assesses which of its neurons most closely match that input. These neurons are then adjusted to match the input even better, dragging along their neighbours in the process. How much the neighbours are moved depends on the distance of the neighbours to the best matching units.
       Kohonen networks (KN,也是self - organizational (feature) map, SOM, SOFM)利用竞争性学习对数据进行分类,无需监督。输入被呈现给网络,然后网络评估哪个神经元与输入最匹配。然后,这些神经元被调整,以更好地匹配输入,在这个过程中拖拽它们的邻居。邻域的移动量取决于邻域到最佳匹配单元的距离。

Kohonen, Teuvo. “Self-organized formation of topologically correct feature maps.” Biological cybernetics 43.1 (1982): 59-69.
Original Paper PDF

 

 

AN

       Attention networks (AN) can be considered a class of networks, which includes the Transformer architecture. They use an attention mechanism to combat information decay by separately storing previous network states and switching attention between the states. The hidden states of each iteration in the encoding layers are stored in memory cells. The decoding layers are connected to the encoding layers, but it also receives data from the memory cells filtered by an attention context. This filtering step adds context for the decoding layers stressing the importance of particular features. The attention network producing this context is trained using the error signal from the output of decoding layer. Moreover, the attention context can be visualized giving valuable insight into which input features correspond with what output features.
       注意机制网络(AN)可以看作是一类网络,它包括转换器体系结构。他们使用一种注意机制,通过单独存储以前的网络状态和在状态之间切换注意来对抗信息衰减。编码层中每个迭代的隐藏状态存储在内存单元中。解码层连接到编码层,但它也接收由注意上下文过滤的记忆细胞的数据。此过滤步骤为解码层添加上下文,强调特定特性的重要性。利用解码层输出的错误信号对产生该上下文的注意网络进行训练。此外,注意上下文可以被可视化,从而提供有价值的见解,了解哪些输入特性对应于哪些输出特性。

Jaderberg, Max, et al. “Spatial Transformer Networks.” In Advances in neural information processing systems (2015): 2017-2025.
Original Paper PDF

 

Follow us on  twitter for future updates and posts. We welcome comments and feedback, and thank you for reading!

[Update 22 April 2019] Included Capsule Networks, Differentiable Neural Computers and Attention Networks to the Neural Network Zoo; Support Vector Machines are removed; updated links to original articles.  The previous version of this post can be found here .
​​​​​​​【2019年4月22日更新】包括胶囊网络、可微神经计算机和神经网络动物园的注意力网络;删除支持向量机;更新到原始文章的链接。这篇文章的前一个版本可以在这里找到。

 

 

 

 

DL学习笔记】3:循环神经网络(Recurrent Neural Network)
01-20
1 序列数据表示 1.1 简述 语音、文字等有先后顺序,属于序列数据,将序列据表达为能处理的形式就叫Sequence Representation。如对文字而言,PyTorch中没有对string的支持,所以要将其表示成数值形式,相应的方法就是Word Embedding。 通常将一个序列表示为[元素数、每个元素的向量长]的Tensor形式: [seq_len, feature_len] [seq\_len, \ feature\_len] [seq_len, feature_len] 注意,这个表示方法对不同的具体序列数据的类型有不同的具体解释,上面的seq_len既是序列的长度,也是序列的
SOM Toolbox
04-07
芬兰赫尔辛基理工大学提供的资料,SOM普遍应用于分类和聚类中
the graph neural network model 图神经网络模型
04-26
神经网络模型学习
The Neural Network Zoo翻译 各种神经网络总结.docx
06-14
The Neural Network Zoo翻译 各种神经网络总结,各种神经网络架构层出不穷,比如DCIGN, BiLSTM, DCGAN等,Fjodor Van Veen总结了近几年来流行的神经网络各架构,易于直观理解。
神经网络优化算法 Annealing Chaotic Neural network.zip
07-20
深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。 深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。 深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。 深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法。深度学习,神经网络学习资源,机器学习源码及案例,经典人工智能算法
胶囊网络(Capsule)学习笔记
梆子井欢喜坨的博客
06-30 2862
1. 前言 最近学习了一下胶囊网络(Capsule Net),这里写一篇博客记录学习笔记。 胶囊网络于2017年,由深度学习先驱Hinton发布的开源论文《Dynamic Routing Between Capsules》提出。 胶囊网络的特点是“vector in vector out”,取代了以往神经元的“scalar in scalar out”。 Q: 什么是“胶囊”呢? A: 只要把一个向量当作一个整体来看,它就是一个“胶囊”。 每一个胶囊表示一个特征,Capsule输出的向量的模值大小表示有没.
胶囊网络(Capsule)实战——keras算法练习
wenyusuran的专栏
09-19 1893
Capsule是深度学习之父hinton在2017年提出来的一个较为轰动的网络结构。capsule这个结构主要的特点是:Vector in Vector out——向量进,向量出,而普通的神经元(Neuron)是Vector in Scalar out——向量进,标量出。capsule输出的向量比Neuron输出的标量表达出更丰富的特征。 下图台湾大学的李宏毅老师对capsule解读的slide。 Neuron的输出标量只能表示到是否存在鸟嘴。 capsule的输出的向量不仅能表示鸟嘴是否存在,而且还能
[6] 胶囊体(Capsule)图形的生成算法
chuifuhuo6864的博客
07-29 292
顶点数据的生成 1 bool YfBuildCapsuleVertices 2 ( 3 Yreal radius, 4 Yreal ...
DL之DNN:《The Neural Network Zoo神经网络模型集合与分类》翻译与解读
近期请国内外头部出版社可尽快私信博主!——心比天高,仗剑走天涯,保持热爱,奔赴向梦想!低调,谦虚,自律,反思,成长,还算是比较正能量的博主,公益免费传播……内心特别想在AI界做出一些可以推进历史进程影响力的东西(兴趣使然,有点小情怀,也有点使命感呀)…
07-07 5041
DL之DNN:《The Neural Network Zoo神经网络模型集合与分类》翻译与解读 目录 相关文章 《The Neural Network Zoo神经网络模型集合与分类》翻译与解读 Introduce Neural Network Zoo 相关文章 DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释感悟(一) DL:深度学习算法(神经网络模型集合)概览
(转)The Neural Network Zoo
a1424262219的博客
01-04 347
转自:http://www.asimovinstitute.org/neural-network-zoo/ THE NEURAL NETWORK ZOO POSTED ONSEPTEMBER 14, 2016BYFJODOR VAN VEEN With new neural networkarchitectures...
通俗易懂:彻底明白什么是神经网络
qq_45140518的博客
06-10 517
常用激活函数(激励函数)理解与总结
一文读懂胶囊神经网络
weixin_40920183的博客
02-25 4003
来自 | 博客园 作者 |CZiFan转自 | 深度学习这件小事背景Geoffrey Hinton是深度学习的开创者之一,反向传播等神经网络经典算法发明人,他和他的团队提出了...
深度学习系列——关于神经网络理解的总结
快乐晓笑
05-25 2553
因为课题的需要,最近在学习深度学习方面的知识,因为是初学,博文中可能会有错误和不严谨的地方,欢迎大家批评指正、互相交流,好了言归正传。   目前在人工智能和大数据方向炒的最火的就是深度学习,深度学习是神经网络的一个大的分支,深度学习的基本结构是深度神经网络,它是一种人工神经网络,人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。   人脑大约由100亿个神经元组成,而其中
DL Net | Capsual Net 算法学习笔记
xiao_lxl的专栏
04-03 640
会议: NIPS 2017 标题:《 Dynamic Routing Between Capsules》 论文链接:https://arxiv.org/abs/1710.09829 代码链接:https://github.com/naturomics/CapsNet-Tensorflow 论文摘要: capsule是一组神经元,其活动向量表示特定类型实体(例如对象或对象部分)的实例化参数。我们使用...
史上最好记的神经网络结构速记表
weixin_33953249的博客
10-20 173
2019独角兽企业重金招聘Python工程师标准>>> ...
DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释感悟(五)
近期请国内外头部出版社可尽快私信博主!——心比天高,仗剑走天涯,保持热爱,奔赴向梦想!低调,谦虚,自律,反思,成长,还算是比较正能量的博主,公益免费传播……内心特别想在AI界做出一些可以推进历史进程影响力的东西(兴趣使然,有点小情怀,也有点使命感呀)…
07-07 5385
DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释感悟(五) 目录 GAN LSM ELM ESN 相关文章DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL NETWORK ZOO》的中文解释感悟(一)DL:深度学习算法(神经网络模型集合)概览之《THE NEURAL N...
深度学习(二)——深度学习常用术语解释, Neural Network Zoo, CNN, Autoencoder
热门推荐
antkillerfarm的专栏
07-10 1万+
深度学习(二)——深度学习常用术语解释, Neural Network Zoo, CNN, Autoencoder
深度学习的神经网络模型
最新发布
08-15
深度学习中最常用的神经网络模型是多层感知机(Multilayer Perceptron,简称 MLP)和卷积神经网络(Convolutional Neural Network,简称 CNN),还有循环神经网络(Recurrent Neural Network,简称 RNN)等。...

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 成功解决IndexError: index 0 is out of bounds for axis 1 with size 0 352953
  • Dataset之COCO数据集:COCO数据集的简介、下载、使用方法之详细攻略 302669
  • Py之cv2:cv2(OpenCV,opencv-python)库的简介、安装、使用方法(常见函数、图像基本运算等)最强详细攻略 270759
  • 成功解决AttributeError: ‘str‘ object has no attribute ‘decode‘ 243689
  • GitHub:如何从GitHub上下载文件(下载单个文件或者下载整个项目文件)之详细攻略(图文教程) 231684

分类专栏

  • 资深文章(前沿/经验/创新) 付费 103篇
  • 精选(人工智能+AIGC)-高级 付费 109篇
  • 精选(人工智能)-中级 付费 312篇
  • 成长书屋 付费 125篇
  • 安装教程以及Bug解决 付费 334篇
  • 金融风控 付费 26篇
  • Matlab/C++/SQL 付费 96篇
  • RAG_Agent 28篇
  • CaseCode 9篇
  • SLAM 3篇
  • CV 245篇
  • AI/AGI 316篇
  • BlockChain 39篇
  • DataScience 326篇
  • NLP/LLMs 437篇
  • DayDayUp 102篇
  • Algorithm/Interview 101篇
  • High&NewTech 96篇
  • ML 506篇
  • DL/R 387篇
  • RL/KG 13篇
  • Paper 71篇
  • BigData/Cloud Computing 56篇
  • Python编程(初级+进阶) 263篇
  • Python_Libraries 248篇
  • Java/Html/JS/VB/Go etc 27篇
  • Computer knowledge 737篇
  • TF/PyTorch 86篇
  • Keras/Caffe 28篇
  • Dataset 59篇
  • Crawler 22篇
  • VM(Linux/Ubuntu) 32篇
  • Tool/IDE etc 91篇
  • 2D(Autolisp)/3D 10篇
  • Computer(Win) 62篇

最新评论

  • NVIDIA之NCCL:NCCL的简介、安装、使用方法之详细攻略

    2301_78389786: 请问nccl怎么卸载

  • MLM之CogVLM2:CogVLM2(基于Llama-3-8B-Instruct 模型进行微调)的简介、安装和使用方法、案例应用之详细攻略

    猫头虎: 🐅🐾🛸 信息量大且易懂,结构明确,真是一篇好文章!猫头虎在线催更!!🌍

  • DayDayUp:2021,再见了,无论是躺平还是内卷—愿大家改变不可接受的,接受不可改变的—心若有向往,何惧道阻且长

    陌尘(MoCheeen): 后生可畏啊,6年时间就在CSDN全站跑到第一名去了,还有40万粉丝,真的挺厉害的!

  • LLMs之Agent之DERA:《DERA: Enhancing Large Language Model Completions with Dialog-Enabled Resolving Agen

    LeoToJavaer: 博主的文章细节很到位,兼顾实用性和可操作性,内容和细节都很到位,期待博主持续带来更多好文

  • LLMs之Llama3:Llama-3的简介、安装和使用方法、案例应用之详细攻略

    息流使用宝典: 优质宝藏博主,欢迎看我置顶文章,体验FlowUs,分享文章可获得知识付费的收入

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • MLM之CogVLM2:CogVLM2(基于Llama-3-8B-Instruct 模型进行微调)的简介、安装和使用方法、案例应用之详细攻略
  • LLMs之PEFT之Llama-2:《LoRA Learns Less and Forgets LessLoRA学得更少但遗忘得也更少》翻译与解读
  • LLMs之Agent之DERA:《DERA: Enhancing Large Language Model Completions with Dialog-Enabled Resolving Agen
2024
05月 31篇
04月 24篇
03月 35篇
02月 17篇
01月 29篇
2023年460篇
2022年330篇
2021年267篇
2020年577篇
2019年785篇
2018年768篇
2017年3篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一个处女座的程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司酒泉网站排名优化多少钱大丰品牌网站设计公司贵阳seo多少钱铜仁营销网站丹东网站排名优化多少钱昌都百姓网标王营口百姓网标王推广公司南澳网站定制公司南充网站优化推广哪家好泰安模板推广报价大丰企业网站改版哪家好无锡SEO按天收费哪家好十堰设计公司网站价格湘西网站优化软件哪家好西乡英文网站建设报价南联阿里店铺运营多少钱三明百度竞价哪家好乐山网站推广工具辽阳SEO按天收费价格坑梓网站优化按天扣费价格来宾网页制作价格唐山阿里店铺托管公司保定推广网站多少钱白城网站优化排名报价西安网站建设报价济宁营销型网站建设公司南澳模板推广莱芜网站改版多少钱延安网站建设设计价格延边百度爱采购价格歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化