首页 > 代码库 > tensorflow Relu激活函数
tensorflow Relu激活函数
1、Relu激活函数
Relu激活函数(The Rectified Linear Unit)表达式为:f(x)=max(0,x)。
2、tensorflow实现
#!/usr/bin/env python # -*- coding: utf-8 -*- import tensorflow as tf input_data = tf.constant( [[0, 10, -10],[-1,2,-3]] , dtype = tf.float32 ) output = tf.nn.relu(input_data) sess=tf.Session() print(sess.run(output))
输出为:
[[ 0. 10. 0.]
[ 0. 2. 0.]]
tensorflow Relu激活函数
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。