【编者按】到底该选择TensorFlow还是Keras,是深度学习初学者经常纠结的一个问题。数据科学家Aakash Nain比较了TensorFlow和Keras,希望有助于选择合适的框架。
深度学习库/框架流行度(来源:Google)
深度学习无处不在,大量的深度学习库让初学者无所适从。这篇文章重点关注TensorlFlow和Keras两者之间的选择。TensorFlow是最著名的用于深度学习生产环境的框架。它有一个非常大非常棒的社区。然而,TensorFlow的使用不那么简单。另一方面,Keras是在TensorFlow基础上构建的高层API,比TF(TensorFlow的缩写)要易用很多。
既然Keras基于TensorFlow,那么两者有何区别?既然Keras对用户更友好,为什么我还需要使用TF来构建深度学习模型呢?下面一些内容将帮助你做出选择。
快速开发原型如果你想快速创建、测试一个神经网络,写尽可能少的代码,那么选择Keras。花不了多少分钟,你就能用Keras创建简单或很复杂的神经网络。Model和Sequential API如此强大,基本上能做到你可能想要做的任何事情。让我们看一个例子吧:
model = Sequential()model.add(Dense(32, activation='relu', input_dim=100))model.add(Dense(1, activation='sigmoid'))model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['accuracy'])# 生成虚假数据import numpy as npdata = np.random.random((1000, 100))labels = np.random.randint(2, size=(1000, 1))# 训练模型,迭代数据(每个batch包含32个样本)model.fit(data, labels, epochs=10, batch_size=32)收工!!就是这么容易!
没有人不喜欢Pythonic!!Keras的开发设计注重用户友好,因而某种意义上它更加pythonic。模块化是Keras的另一个优雅的设计指导原则。Keras中的任何东西都可以表示为模块,用户可以根据需要将其进一步组合。
弹性有时候你不想用现成的东西,想要自己定义一些东西(比如,损失函数、测度、网络层,等等)。
尽管Keras 2的设计让你可以实现几乎所有你想要的东西,但是我们都知道底层的库提供了更多弹性。TF同样如此。相比Keras,TF允许你进行更多调整。
功能性尽管Keras提供了创建深度学习模型一般所需的所有功能性,它还是不如TF提供得多。相比Keras,TensorFlow提供更多高级操作。当你从事研究或开发特殊种类的深度学习模型时,这一点是十分便利的。下面是一些例子:
线程和队列
队列是一个强大的机制,可以异步地计算图中的张量。类似地,你可以使用多个线程执行同一会话,通过并行运算加速操作。下面是一个在TensorFlow中使用队列和线程的简单例子:
# 创建图,等等。init_op = tf.global_variables_initializer()# 创建会话,以运行图中的操作。sess = tf.Session()# 初始化变量(比如epoch计数器)sess.run(init_op)# 开始输入入队线程。coord = tf.train.Coordinator()threads = tf.train.start_queue_runners(sess=sess, coord=coord)try: while not coord.should_stop(): # 运行训练步骤,等等 sess.run(train_op)except tf.errors.OutOfRangeError: print('训练完毕——达到epoch限制')finally: # 结束时,请求停止线程 coord.request_stop()# 等待线程终止。coord.join(threads)sess.close()调试器
TensorFlow有一个专门的调试器,为内部结构和正在运行的TensorFlow图的状态提供了可见性。从调试器获得的洞见可以加速调试训练和推断阶段的多种bug。
TensorFlow调试器截屏(来源:TensorFlow文档)
控制就我的经验而言,你对神经网络的控制越多,你对神经网络在做什么的理解就更深。TF让你可以更多地控制神经网络。在TF中对权重和梯度进行操作有如神助。
例如,假设你的模型有三个变量,比如w、b、step,你可以选择变量step是否可以训练。你只需写一行代码就可以办到:
step = tf.Variable(1, trainable=False, dtype=tf.int32)在训练阶段,梯度可以提供大量信息。你想控制梯度?当然可以,看下面的例子:
# 创建优化器optimizer = GradientDescentOptimizer(learning_rate=0.1)# 为一组变量计算梯度grads_and_vars = opt.compute_gradients(loss, <list of variables>)# grads_and_vars是一个元组的列表(梯度, 变量)。# 你可以随意对梯度部分进行操作,比如,每项减1.subtracted_grads_and_vars = [(gv[0] - 1.0, gv[1]) for gv in grads_and_vars]# 请求优化器应用减一后的梯度。optimizer.apply_gradients(subtracted_grads_and_vars)(以上代码样例取自 CS 20SI: TensorFlow for Deep Learning Research)
结论(TL;DR)除非你正从事研究性质的工作或开发某种特殊种类的神经网络,选择Keras(相信我,我是一个Keras党!!)使用Keras快速构建非常复杂的模型仍然超容易。
如果你想要更精细地控制你的网络,或者想要仔细查看你的网络发生了什么,那么TF是正确的选择(不过有时TF的语法会让你做噩梦的)。不过,现在TF已经集成了Keras,所以更明智的做法是使用tf.contrib.Keras创建你的网络,然后根据需要在你的网络中插入纯TensorFlow。
简而言之,tf.contrib.keras+ tf= 你所需要的一切