麻省理工学院发布一系列深度学习视频课和代码实战,今天给大家介绍的是研究科学家Lex Fridman整理的常用的深度学习七个基本框架实战,具体包括前馈神经网络、卷积神经网络、循环神经网络、编解码模型、自编码模型、生成对抗网络和深度强化学习,七个常见系列,附详细代码实战。
作为麻省理工学院深度学习系列讲座和GitHub教程的一部分,我们将介绍使用神经网络解决计算机视觉、自然语言处理、游戏、自动驾驶、机器人等领域问题的基础知识。
这篇博客文章提供了7个架构范例的深度学习概述,每个范例都有TensorFlow教程的链接。以下是麻省理工学院课程6.S094的深度学习基础课程链接:
/
代码链接:
深度学习是表征学习:从数据中自动形成有用的表征。我们如何表现世界,可以让复杂的东西在我们人类和我们建立的机器学习模型看来都很简单。
作者最喜欢的之前的一个例子是1543年哥白尼发表的日心说,它将太阳置于“宇宙”的中心,而不是以地球为中心的地心模型。在最好的情况下,深度学习使我们能够自动化这一步骤,从“特征工程”过程中删除专家手工设定:
在高层次上,神经网络要么是编码器,要么是解码器,要么是两者的组合:
编码器(Encoders) 在原始数据中找到模式以形成紧凑,有用的表示。
解码器(Decoders) 从这些表示中生成高分辨率数据。生成的数据是新示例或描述性知识。
其余的则是一些聪明的方法,它们可以帮助我们有效地处理视觉信息、语言、音频,甚至可以在一个基于这些信息和偶尔奖励的世界中采取行动。以下是各个部分示意图:
在下面的部分中,作者将简要描述这7个体系结构范例,并提供每个范例的演示性TensorFlow教程的链接。参见最后的“Beyond the Basics”部分,该部分讨论了深度学习的一些令人兴奋的领域,这些领域并不完全属于这七个类别。
一、Feed Forward Neural Networks (FFNNs) 前馈神经网络
详细代码见:
二、Convolutional Neural Networks (CNNs) 卷积神经网络
详细代码见:
三、Recurrent Neural Networks (RNNs) 循环神经网络
详细代码见:
四、Encoder-Decoder Architectures 编解码模型
详细代码见:
五、Autoencoders 自编码模型
详细代码见:
六、Generative Adversarial Networks (GANs) 生成对抗网络
详细代码见:
七、Deep Reinforcement Learning (Deep RL) 深度强化学习
详细代码见:
参考链接:
/