这里有两个代码。tf.nn.relu("output of previous layer")tf.maximum("output of previous layer", 0)这两个行为完全一样吗?换句话说,是否有可能用另一个替换一个?
1 回答
当年话下
TA贡献1890条经验 获得超9个赞
一旦 relu 被定义为:
max(features, 0)
他们基本上是一样的。两者都将张量作为输入并返回张量。唯一的区别是支持的类型。
将tf.nn.relu支持以下类型:
float32,float64,int32,uint8,int16,int8,int64,bfloat16,uint16,half,uint32,uint64,qint8
while tf.maximum支持上述类型的一个子集:
half,float32,float64,int32,int64
添加回答
举报
0/150
提交
取消
