Mercurial > ift6266
diff scripts/stacked_dae/mnist_sda.py @ 139:7d8366fb90bf
Ajouté des __init__.py dans l'arborescence pour que les scripts puissent être utilisés avec des paths pour jobman, et fait pas mal de modifs dans stacked_dae pour pouvoir réutiliser le travail fait pour des tests où le pretraining est le même.
author | fsavard |
---|---|
date | Mon, 22 Feb 2010 13:38:25 -0500 |
parents | 5c79a2557f2f |
children |
line wrap: on
line diff
--- a/scripts/stacked_dae/mnist_sda.py Sun Feb 21 17:30:38 2010 -0600 +++ b/scripts/stacked_dae/mnist_sda.py Mon Feb 22 13:38:25 2010 -0500 @@ -9,7 +9,7 @@ import theano.tensor as T from theano.tensor.shared_randomstreams import RandomStreams -from stacked_dae import sgd_optimization +from sgd_optimization import SdaSgdOptimizer import cPickle, gzip from jobman import DD @@ -31,12 +31,14 @@ 'pretraining_lr':pretrain_lr, 'pretraining_epochs_per_layer':pretraining_epochs, 'max_finetuning_epochs':training_epochs, - 'hidden_layers_sizes':[1000,1000,1000], - 'corruption_levels':[0.2,0.2,0.2], + 'hidden_layers_sizes':[100], + 'corruption_levels':[0.2], 'minibatch_size':20}) - sgd_optimization(dataset, hyperparameters, n_ins, n_outs) + optimizer = SdaSgdOptimizer(dataset, hyperparameters, n_ins, n_outs) + optimizer.pretrain() + optimizer.finetune() if __name__ == '__main__': - sgd_optimization_mnist() + sgd_optimization_mnist(dataset=MNIST_LOCATION)