首页 算命 正文

tensorflow算命

1. 如何测试tensorflow配置成功

如何测试tensorflow配置成功安装步骤:1、sudo apt-get install python-pip python-dev python-virtualenv2、virtualenv --system-site-packages ~/tensorflow3、cd ~/tensorflow4、source bin/activate # If using bash5、(tensorflow)$ pip install --upgrade tensorflow-0.5.0-cp27-none-linux_x86_64.whl测试:1、打开终端输入cd tensorflow2、source bin/activate3、python4、输入python后输入以下示例>>> import tensorflow as tf>>> hello = tf.constant('Hello, TensorFlow!')>>> sess = tf.Session()>>> print sess.run(hello)Hello, TensorFlow!>>> a = tf.constant(10)>>> b = tf.constant(32)>>> print sess.run(a+b)42>>>5、测试成功接下来首先退出python 按快捷键Ctrl+D6、再退出tensorflow 在命令行输入命令:deactivate。

2. 怎么测试tensorflow安装是否成功

官网:http://tensorflow.org/安装步骤:1、sudo apt-get install python-pip python-dev python-virtualenv2、virtualenv --system-site-packages ~/tensorflow3、cd ~/tensorflow4、source bin/activate # If using bash5、(tensorflow)$ pip install --upgrade tensorflow-0.5.0-cp27-none-linux_x86_64.whl测试:1、打开终端输入cd tensorflow2、source bin/activate3、python4、输入python后输入以下示例>>> import tensorflow as tf>>> hello = tf.constant('Hello, TensorFlow!')>>> sess = tf.Session()>>> print sess.run(hello)Hello, TensorFlow!>>> a = tf.constant(10)>>> b = tf.constant(32)>>> print sess.run(a+b)42>>>5、测试成功接下来首先退出python 按快捷键Ctrl+D6、再退出tensorflow 在命令行输入命令:deactivate。

3. tensorflow的各种优化算法怎么实现的

如何高效的学习TensorFlow代码?目前TensorFlow代码已超过40w行,从代码量上来看,绝不是一个能够迅速上手的小项目。

所以,想要精通TensorFlow的同学需要做好心理准备。对于想要学习TensorFlow(以下简称TF)的人,根据目的不同,可以简单分为以下2类:1.研究学者,仅仅需要TF这个平台实现深度学习算法,无需了解太多底层原理2.好学的行业内人员(比如我⊙﹏⊙),不仅需要了解算法模型,同时还要熟悉TF平台的原理。

在算子、通信、模型优化等方面进行平台的二次开发的人。研究学者:你们可以考虑使用Keras,Python写的深度神经网络库,已经实现了绝大部分神经网络,如:RNN、GRU、LSTM,CNN,Pooling,Full-Connected,以及sigmoid、tanh、Relu、PRelu、SRelu等各种激活函数。

并且采用TF/Theano作为后端计算引擎,自己本身拥有一套更高层的API,可以同时跑在TF/Theano平台上。相对于TF来说,这个学习压力小了很多,我们公司负责算法的同事也是用Keras来写模型,然后我再用TF的API来实现分布式部署。

附:开发人员:对于我们这类人来说,首先需要弄清平台的很多名称、概念、定义,@贾扬清曾说过TF有太多的Abstraction需要学习。诚然,这加大了我们的学习难度。

但是,这也说明Google是想要把这个平台做大做强的,所以才会花时间去设计这一套框架和统一的结构。特别是读了部分源码后,更有这种感触。

那么,具体要怎么开始呢?极客学院有翻译部分TF的官方文档,对于初步了解Tensor、DAG、Operator、Variable、Device、Optimizer等是帮助的。在看完这些概念后,有一个MNIST的例子程序作为TF的入门。

这个样例用一个简单的Softmax实现了手写体数字识别的神经网络,只有一层参数。同时还介绍了Session、tf.placeholder、图的计算等重要概念。

在看完这个样例后,如果理解了DAG和Session,可以继续看用卷积神经网络实现的MNIST,准确率上升到了99%,相对于单层Softmax的92%左右,已经接近目前最高的准确率了。TFv0.8发布了分布式模型,我也研究了将近1个月,才把Seq2seq机器翻译改造成了分布式,但是现在公司不让发布出来ORZ。

好消息是,我改写了社区的MNIST分布式程序,并且已经合并到master分支了。所以,如果想要继续学习分布式的话,我建议可以看一下那份代码。

比较遗憾的是,极客学院目前没有翻译分布式的教程,所以大家得移步TF官网(貌似被墙了)。由于分布式的资料较少,我这里简单梳理下概念,大家在官网会看到他们的定义:TF采用了PS/Worker的结构来定义集群,其中PS(parameterserver):存储variable(模型参数),主要负责参数更新和发放;Worker:存储operator,主要负责图计算和梯度计算(TF使用Optimizer实现了自动化的梯度计算);job:由于工作类型不同,用job_name来区分ps和workertask:对于每个worker来说,具体做什么任务(算什么图)也有可能不同,用task_index区分device:指具体的CPU/GPU,通常PS绑定到CPU上,Worker绑定到GPU上,各取所长。

syncReplicaOptimizer:同步优化器,其本质仍然是用普通优化器进行梯度计算,但是通过Queue机制和Coordinator多线程协同实现了所有worker的梯度汇总和平均,最终将梯度传回PS进行参数更新。以上几个概念对于分布式的理解非常重要。

当然,想要完全弄懂,还得不断的看文档和源码。源码我推荐几个python目录下非常值得看的基础类定义:framework/Ops.py:定义了Tensor、Graph、Opreator类等Ops/Variables.py:定义了Variable类。

4. 如何使用tensorflow

基本使用使用 TensorFlow, 你必须明白 TensorFlow:使用图 (graph) 来表示计算任务.在被称之为 会话 (Session) 的上下文 (context) 中执行图.使用 tensor 表示数据.通过 变量 (Variable) 维护状态.使用 feed 和 fetch 可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据.综述TensorFlow 是一个编程系统, 使用图来表示计算任务. 图中的节点被称之为 op(operation 的缩写). 一个 op 获得 0 个或多个 Tensor, 执行计算,产生 0 个或多个 Tensor. 每个 Tensor 是一个类型化的多维数组.例如, 你可以将一小组图像集表示为一个四维浮点数数组,这四个维度分别是 [batch, height, width, channels]。