log

age author description
Thu, 22 Apr 2010 13:43:04 -0400 SylvainPL Correction d'un bug dans le pre-train du SDA cause par tanh
Thu, 22 Apr 2010 13:18:12 -0400 SylvainPL programme pour voir les images ainsi que la prediction faite par le modele
Thu, 22 Apr 2010 13:17:19 -0400 SylvainPL Ajout d'une fonctionnalite utile avec le programme voir_erreurs.py afin de voir les exemples ainsi que la prediction du modele donne dans le fichier config.py
Thu, 22 Apr 2010 10:34:26 -0400 fsavard Problèmes de révisions hg... tentative de merger
Thu, 22 Apr 2010 10:19:07 -0400 fsavard Fichier config.py.example supprimé je ne sais pas pourquoi ?! Enfin je le réajoute
Thu, 22 Apr 2010 00:49:42 -0400 humel Initial commit for the experimental setup of the denoising convolutional network
Thu, 22 Apr 2010 00:00:09 -0400 Guillaume Sicard version mlp modifiée pour la selection du ratio de la classe principale
Wed, 21 Apr 2010 23:47:50 -0400 Guillaume Sicard Extension du choix de la classe principale pour les batches d'entrainement
Wed, 21 Apr 2010 15:07:09 -0400 xaviermuller added support for pnist in iterator. corrected a print bug in mlp
Wed, 21 Apr 2010 14:54:54 -0400 SylvainPL Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
Wed, 21 Apr 2010 14:51:14 -0400 SylvainPL Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
Wed, 21 Apr 2010 14:50:59 -0400 SylvainPL Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
Wed, 21 Apr 2010 14:07:53 -0400 SylvainPL Ajout de la capacite d'utiliser des tanh a la place des sigmoides et sigmoide en sortie plutot que softmax
Tue, 20 Apr 2010 16:38:13 -0400 SylvainPL Amelioration de l'efficacite de la sauvegarde des parametres
Mon, 19 Apr 2010 10:12:17 -0400 xaviermuller added pnist support, will check in code for data set iterator later
Mon, 19 Apr 2010 08:17:45 -0400 goldfinger training an rbm using cd or pcd
Mon, 19 Apr 2010 08:16:56 -0400 goldfinger base class for an rbm
Mon, 19 Apr 2010 07:09:44 -0400 Guillaume Sicard Ajouté dans set_batches : choix de la classe principale
Sun, 18 Apr 2010 13:22:24 -0400 fsavard example config file needs EXPERIMENT_PATH outside isolate_experiment
Sun, 18 Apr 2010 13:21:21 -0400 fsavard Correcting bugs after trying to launch on cluster. Image dir must be created after workdir is changed.
Sun, 18 Apr 2010 11:54:57 -0400 fsavard Last few bugfixes before launching
Sun, 18 Apr 2010 11:47:35 -0400 fsavard Slight bug
Sun, 18 Apr 2010 11:41:27 -0400 fsavard Added init.py to crbm
Sun, 18 Apr 2010 11:39:24 -0400 fsavard Corrected a few bugs, no new features. Supposedly ready to run on cluster.
Sat, 17 Apr 2010 20:29:18 -0400 fsavard Aded code to run experiment on cluster, separate configuration from other machinery. Not tested yet.
Sat, 17 Apr 2010 12:42:48 -0400 xaviermuller added async save, restart from old model and independant error calculation based on Arnaud's iterator
Fri, 16 Apr 2010 16:05:55 -0400 fsavard Added convolutional RBM (ala Lee09) code, imported from my working dir elsewhere. Seems to work for one layer. No subsampling yet.
Thu, 15 Apr 2010 14:41:00 -0400 sylvainpl Arrange pour avoir un taux d'apprentissage decroissant decent pour NIST
Thu, 15 Apr 2010 12:53:03 -0400 Arnaud Bergeron noisyness -> noise
Wed, 14 Apr 2010 16:06:43 -0400 Arnaud Bergeron Name the important layers to be able to change them easily later.
Wed, 14 Apr 2010 16:06:04 -0400 Arnaud Bergeron Adapt parameters (especially the number of epochs) to P07
Wed, 14 Apr 2010 11:51:18 -0400 Guillaume Sicard Correction de bug numpy array et ajout d'une deuxième classe auxiliaire
Wed, 14 Apr 2010 10:17:33 -0400 SylvainPL Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
Sun, 11 Apr 2010 19:52:52 -0400 SylvainPL Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
Sun, 11 Apr 2010 19:52:44 -0400 SylvainPL Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
Sun, 11 Apr 2010 19:52:35 -0400 SylvainPL Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
Sun, 11 Apr 2010 19:52:28 -0400 SylvainPL Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
Fri, 09 Apr 2010 15:50:11 -0400 SylvainPL Calcule l'erreur d'entrainement
Fri, 09 Apr 2010 15:49:42 -0400 SylvainPL Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
Thu, 08 Apr 2010 11:22:11 -0400 xaviermuller fixed bug in jobman interface
Thu, 08 Apr 2010 11:01:55 -0400 xaviermuller finished code clean up and testing
Tue, 06 Apr 2010 16:00:52 -0400 xaviermuller code clean up in progress
Fri, 02 Apr 2010 14:54:05 -0400 SylvainPL finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
Fri, 02 Apr 2010 14:53:46 -0400 SylvainPL finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
Fri, 02 Apr 2010 14:53:32 -0400 SylvainPL finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
Fri, 02 Apr 2010 09:12:40 -0400 SylvainPL Ajoute plus de fonctionnalite
Thu, 01 Apr 2010 20:09:14 -0400 SylvainPL Ajout de noms differents pour les series produites pour differents choix de pretrain
Thu, 01 Apr 2010 17:47:53 -0400 SylvainPL Correct a little bug about maximum number of minibatches
Thu, 01 Apr 2010 14:29:48 -0400 Arnaud Bergeron branch merge
Thu, 01 Apr 2010 14:28:50 -0400 Arnaud Bergeron Print the error sometimes in the pretrain loop.
Thu, 01 Apr 2010 14:25:55 -0400 SylvainPL Avoir exactement le meme jeu de donnees pour pre-train et finetune
Thu, 01 Apr 2010 14:25:40 -0400 SylvainPL Avoir exactement le meme jeu de donnees pour pre-train et finetune
Thu, 01 Apr 2010 13:44:30 -0400 SylvainPL Petits changements pour pouvoir utiliser le GPU
Thu, 01 Apr 2010 13:44:04 -0400 SylvainPL Petits changements pour pouvoir utiliser le GPU
Thu, 01 Apr 2010 13:43:43 -0400 SylvainPL Petits changements pour pouvoir utiliser le GPU
Thu, 01 Apr 2010 09:12:48 -0400 SylvainPL Ajout d'une ligne d'impression importante
Wed, 31 Mar 2010 21:03:41 -0400 SylvainPL Ajout d'une protection supplementaire (un peu de paranoia) ainsi que commentaires
Wed, 31 Mar 2010 21:02:27 -0400 SylvainPL Meilleure souplesse d'execution, un parametre hard-coade est maintenant plus propre
Wed, 31 Mar 2010 21:00:59 -0400 SylvainPL Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
Wed, 31 Mar 2010 16:06:55 -0400 xaviermuller added type 2 adaptive learning configurable learning weight + versionning