Mercurial > ift6266
view code_tutoriel/test.py @ 186:d364a130b221
Ajout du code de base pour scalar_series. Modifications à stacked_dae: réglé un problème avec les input_divider (empêchait une optimisation), et ajouté utilisation des séries. Si j'avais pas déjà commité, aussi, j'ai enlevé l'histoire de réutilisation du pretraining: c'était compliqué (error prone) et ça créait des jobs beaucoup trop longues.
author | fsavard |
---|---|
date | Mon, 01 Mar 2010 11:45:25 -0500 |
parents | 4bc5eeec6394 |
children |
line wrap: on
line source
#import convolutional_mlp, dbn, logistic_cg, logistic_sgd, mlp, rbm, SdA_loops, SdA import convolutional_mlp, logistic_cg, logistic_sgd, mlp, SdA from nose.plugins.skip import SkipTest #TODO: dbn, rbm, SdA, SdA_loops, convolutional_mlp def test_logistic_sgd(): logistic_sgd.sgd_optimization_mnist(n_epochs=10) def test_logistic_cg(): logistic_cg.cg_optimization_mnist(n_epochs=10) def test_mlp(): mlp.test_mlp(n_epochs=5) def test_convolutional_mlp(): convolutional_mlp.evaluate_lenet5(n_epochs=5,nkerns=[5,5]) def test_dbn(): raise SkipTest('Implementation not finished') def test_rbm(): raise SkipTest('Implementation not finished') def test_SdA(): SdA.test_SdA(pretraining_epochs = 2, training_epochs = 3)