log

age author description
Mon, 19 Apr 2010 07:09:44 -0400 Guillaume Sicard Ajouté dans set_batches : choix de la classe principale
Sun, 18 Apr 2010 13:22:24 -0400 fsavard example config file needs EXPERIMENT_PATH outside isolate_experiment
Sun, 18 Apr 2010 13:21:21 -0400 fsavard Correcting bugs after trying to launch on cluster. Image dir must be created after workdir is changed.
Sun, 18 Apr 2010 11:54:57 -0400 fsavard Last few bugfixes before launching
Sun, 18 Apr 2010 11:47:35 -0400 fsavard Slight bug
Sun, 18 Apr 2010 11:41:27 -0400 fsavard Added init.py to crbm
Sun, 18 Apr 2010 11:39:24 -0400 fsavard Corrected a few bugs, no new features. Supposedly ready to run on cluster.
Sat, 17 Apr 2010 20:29:18 -0400 fsavard Aded code to run experiment on cluster, separate configuration from other machinery. Not tested yet.
Sat, 17 Apr 2010 12:42:48 -0400 xaviermuller added async save, restart from old model and independant error calculation based on Arnaud's iterator
Fri, 16 Apr 2010 16:05:55 -0400 fsavard Added convolutional RBM (ala Lee09) code, imported from my working dir elsewhere. Seems to work for one layer. No subsampling yet.
Thu, 15 Apr 2010 14:41:00 -0400 sylvainpl Arrange pour avoir un taux d'apprentissage decroissant decent pour NIST
Thu, 15 Apr 2010 12:53:03 -0400 Arnaud Bergeron noisyness -> noise
Wed, 14 Apr 2010 16:06:43 -0400 Arnaud Bergeron Name the important layers to be able to change them easily later.
Wed, 14 Apr 2010 16:06:04 -0400 Arnaud Bergeron Adapt parameters (especially the number of epochs) to P07
Wed, 14 Apr 2010 11:51:18 -0400 Guillaume Sicard Correction de bug numpy array et ajout d'une deuxième classe auxiliaire
Wed, 14 Apr 2010 10:17:33 -0400 SylvainPL Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
Sun, 11 Apr 2010 19:52:52 -0400 SylvainPL Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
Sun, 11 Apr 2010 19:52:44 -0400 SylvainPL Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
Sun, 11 Apr 2010 19:52:35 -0400 SylvainPL Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
Sun, 11 Apr 2010 19:52:28 -0400 SylvainPL Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
Fri, 09 Apr 2010 15:50:11 -0400 SylvainPL Calcule l'erreur d'entrainement
Fri, 09 Apr 2010 15:49:42 -0400 SylvainPL Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
Thu, 08 Apr 2010 11:22:11 -0400 xaviermuller fixed bug in jobman interface
Thu, 08 Apr 2010 11:01:55 -0400 xaviermuller finished code clean up and testing
Tue, 06 Apr 2010 16:00:52 -0400 xaviermuller code clean up in progress
Fri, 02 Apr 2010 14:54:05 -0400 SylvainPL finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
Fri, 02 Apr 2010 14:53:46 -0400 SylvainPL finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
Fri, 02 Apr 2010 14:53:32 -0400 SylvainPL finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
Fri, 02 Apr 2010 09:12:40 -0400 SylvainPL Ajoute plus de fonctionnalite
Thu, 01 Apr 2010 20:09:14 -0400 SylvainPL Ajout de noms differents pour les series produites pour differents choix de pretrain
Thu, 01 Apr 2010 17:47:53 -0400 SylvainPL Correct a little bug about maximum number of minibatches
Thu, 01 Apr 2010 14:29:48 -0400 Arnaud Bergeron branch merge
Thu, 01 Apr 2010 14:28:50 -0400 Arnaud Bergeron Print the error sometimes in the pretrain loop.
Thu, 01 Apr 2010 14:25:55 -0400 SylvainPL Avoir exactement le meme jeu de donnees pour pre-train et finetune
Thu, 01 Apr 2010 14:25:40 -0400 SylvainPL Avoir exactement le meme jeu de donnees pour pre-train et finetune
Thu, 01 Apr 2010 13:44:30 -0400 SylvainPL Petits changements pour pouvoir utiliser le GPU
Thu, 01 Apr 2010 13:44:04 -0400 SylvainPL Petits changements pour pouvoir utiliser le GPU
Thu, 01 Apr 2010 13:43:43 -0400 SylvainPL Petits changements pour pouvoir utiliser le GPU
Thu, 01 Apr 2010 09:12:48 -0400 SylvainPL Ajout d'une ligne d'impression importante
Wed, 31 Mar 2010 21:03:41 -0400 SylvainPL Ajout d'une protection supplementaire (un peu de paranoia) ainsi que commentaires
Wed, 31 Mar 2010 21:02:27 -0400 SylvainPL Meilleure souplesse d'execution, un parametre hard-coade est maintenant plus propre
Wed, 31 Mar 2010 21:00:59 -0400 SylvainPL Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
Wed, 31 Mar 2010 16:06:55 -0400 xaviermuller added type 2 adaptive learning configurable learning weight + versionning
Wed, 31 Mar 2010 15:54:47 -0400 Arnaud Bergeron Use sigmoids with cross-entropy cost in the ConvAutoencoders.
Tue, 30 Mar 2010 14:40:54 -0400 Arnaud Bergeron Fix concatenation of 1-dim datasets (such as int target vectors).
Mon, 29 Mar 2010 18:14:30 -0400 Arnaud Bergeron Fix last-minute bugs in the code.
Mon, 29 Mar 2010 17:54:01 -0400 Arnaud Bergeron Adjust sgd_opt parameters and use nist_all.
Mon, 29 Mar 2010 17:42:44 -0400 Arnaud Bergeron branch merge
Mon, 29 Mar 2010 17:36:22 -0400 Arnaud Bergeron - Adapt to scdae to input_shape change in pynnet
Wed, 10 Feb 2010 11:15:04 -0500 Arnaud Bergeron && -> and
Wed, 10 Feb 2010 10:58:44 -0500 Arnaud Bergeron Fix testmod so that modules with no parameters are accepted.
Mon, 29 Mar 2010 09:18:54 -0400 Guillaume Sicard modifié setup_batches.py pour compatibilité avec mlp_nist.py
Sat, 27 Mar 2010 13:39:48 -0400 Arnaud Bergeron Save best valid score and test score in the db.
Fri, 26 Mar 2010 19:18:03 -0400 Arnaud Bergeron Add some prints to see the current step.
Fri, 26 Mar 2010 18:49:27 -0400 Arnaud Bergeron Fix stuff (imports, ...) so that it can run under jobman properly.
Fri, 26 Mar 2010 18:35:23 -0400 Arnaud Bergeron Split out the run_exp method.
Fri, 26 Mar 2010 17:35:23 -0400 Arnaud Bergeron Add commas, since that way it's not a syntax error anymore.
Fri, 26 Mar 2010 17:25:06 -0400 Arnaud Bergeron branch merge
Fri, 26 Mar 2010 17:24:17 -0400 Arnaud Bergeron Add net saving (only the best model) and error saving using SeriesTable
Fri, 26 Mar 2010 16:17:56 -0400 SylvainPL Programme pour reprendre une partie des experiences seulement. Utile seulement pour un usage tres specifique