Jelajahi Sumber

fix a bug. remove leaky relu activation argument from residual network

youngwoon 6 tahun lalu
induk
melakukan
57ae298846
1 mengubah file dengan 1 tambahan dan 1 penghapusan
  1. 1 1
      encoder.py

+ 1 - 1
encoder.py

@@ -55,7 +55,7 @@ class Encoder(object):
                                self._reuse, norm=None, activation='leaky', bias=True)
             for i, n in enumerate(num_filters):
                 E = ops.residual(E, n, 'res{}_{}'.format(n, i + 1), self._is_train,
-                                 self._reuse, norm=self._norm, activation='leaky',
+                                 self._reuse, norm=self._norm,
                                  bias=True)
                 E = tf.nn.avg_pool(E, [1, 2, 2, 1], [1, 2, 2, 1], 'SAME')
             E = tf.nn.avg_pool(E, [1, 8, 8, 1], [1, 8, 8, 1], 'SAME')