diff scripts/stacked_dae/mnist_sda.py @ 139:7d8366fb90bf

Ajouté des __init__.py dans l'arborescence pour que les scripts puissent être utilisés avec des paths pour jobman, et fait pas mal de modifs dans stacked_dae pour pouvoir réutiliser le travail fait pour des tests où le pretraining est le même.
author fsavard
date Mon, 22 Feb 2010 13:38:25 -0500
parents 5c79a2557f2f
children
line wrap: on
line diff
--- a/scripts/stacked_dae/mnist_sda.py	Sun Feb 21 17:30:38 2010 -0600
+++ b/scripts/stacked_dae/mnist_sda.py	Mon Feb 22 13:38:25 2010 -0500
@@ -9,7 +9,7 @@
 import theano.tensor as T
 from theano.tensor.shared_randomstreams import RandomStreams
 
-from stacked_dae import sgd_optimization
+from sgd_optimization import SdaSgdOptimizer
 import cPickle, gzip
 from jobman import DD
 
@@ -31,12 +31,14 @@
                        'pretraining_lr':pretrain_lr,
                        'pretraining_epochs_per_layer':pretraining_epochs,
                        'max_finetuning_epochs':training_epochs,
-                       'hidden_layers_sizes':[1000,1000,1000],
-                       'corruption_levels':[0.2,0.2,0.2],
+                       'hidden_layers_sizes':[100],
+                       'corruption_levels':[0.2],
                        'minibatch_size':20})
 
-    sgd_optimization(dataset, hyperparameters, n_ins, n_outs)
+    optimizer = SdaSgdOptimizer(dataset, hyperparameters, n_ins, n_outs)
+    optimizer.pretrain()
+    optimizer.finetune()
 
 if __name__ == '__main__':
-    sgd_optimization_mnist()
+    sgd_optimization_mnist(dataset=MNIST_LOCATION)