Explorar o código

fix a bug. remove leaky relu activation argument from residual network

youngwoon %!s(int64=6) %!d(string=hai) anos
pai
achega
57ae298846
Modificáronse 1 ficheiros con 1 adicións e 1 borrados
  1. 1 1
      encoder.py

+ 1 - 1
encoder.py

@@ -55,7 +55,7 @@ class Encoder(object):
                                self._reuse, norm=None, activation='leaky', bias=True)
             for i, n in enumerate(num_filters):
                 E = ops.residual(E, n, 'res{}_{}'.format(n, i + 1), self._is_train,
-                                 self._reuse, norm=self._norm, activation='leaky',
+                                 self._reuse, norm=self._norm,
                                  bias=True)
                 E = tf.nn.avg_pool(E, [1, 2, 2, 1], [1, 2, 2, 1], 'SAME')
             E = tf.nn.avg_pool(E, [1, 8, 8, 1], [1, 8, 8, 1], 'SAME')