Sun, 18 Apr 2010 13:21:21 -0400 |
fsavard |
Correcting bugs after trying to launch on cluster. Image dir must be created after workdir is changed.
|
Sun, 18 Apr 2010 11:54:57 -0400 |
fsavard |
Last few bugfixes before launching
|
Sun, 18 Apr 2010 11:47:35 -0400 |
fsavard |
Slight bug
|
Sun, 18 Apr 2010 11:41:27 -0400 |
fsavard |
Added init.py to crbm
|
Sun, 18 Apr 2010 11:39:24 -0400 |
fsavard |
Corrected a few bugs, no new features. Supposedly ready to run on cluster.
|
Sat, 17 Apr 2010 20:29:18 -0400 |
fsavard |
Aded code to run experiment on cluster, separate configuration from other machinery. Not tested yet.
|
Sat, 17 Apr 2010 12:42:48 -0400 |
xaviermuller |
added async save, restart from old model and independant error calculation based on Arnaud's iterator
|
Fri, 16 Apr 2010 16:05:55 -0400 |
fsavard |
Added convolutional RBM (ala Lee09) code, imported from my working dir elsewhere. Seems to work for one layer. No subsampling yet.
|
Thu, 15 Apr 2010 14:41:00 -0400 |
sylvainpl |
Arrange pour avoir un taux d'apprentissage decroissant decent pour NIST
|
Thu, 15 Apr 2010 12:53:03 -0400 |
Arnaud Bergeron |
noisyness -> noise
|
Wed, 14 Apr 2010 16:06:43 -0400 |
Arnaud Bergeron |
Name the important layers to be able to change them easily later.
|
Wed, 14 Apr 2010 16:06:04 -0400 |
Arnaud Bergeron |
Adapt parameters (especially the number of epochs) to P07
|
Wed, 14 Apr 2010 11:51:18 -0400 |
Guillaume Sicard |
Correction de bug numpy array et ajout d'une deuxième classe auxiliaire
|
Wed, 14 Apr 2010 10:17:33 -0400 |
SylvainPL |
Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
|
Sun, 11 Apr 2010 19:52:52 -0400 |
SylvainPL |
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
|
Sun, 11 Apr 2010 19:52:44 -0400 |
SylvainPL |
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
|
Sun, 11 Apr 2010 19:52:35 -0400 |
SylvainPL |
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
|
Sun, 11 Apr 2010 19:52:28 -0400 |
SylvainPL |
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
|
Fri, 09 Apr 2010 15:50:11 -0400 |
SylvainPL |
Calcule l'erreur d'entrainement
|
Fri, 09 Apr 2010 15:49:42 -0400 |
SylvainPL |
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
|
Thu, 08 Apr 2010 11:22:11 -0400 |
xaviermuller |
fixed bug in jobman interface
|
Thu, 08 Apr 2010 11:01:55 -0400 |
xaviermuller |
finished code clean up and testing
|
Tue, 06 Apr 2010 16:00:52 -0400 |
xaviermuller |
code clean up in progress
|
Fri, 02 Apr 2010 14:54:05 -0400 |
SylvainPL |
finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
|
Fri, 02 Apr 2010 14:53:46 -0400 |
SylvainPL |
finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
|
Fri, 02 Apr 2010 14:53:32 -0400 |
SylvainPL |
finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
|
Fri, 02 Apr 2010 09:12:40 -0400 |
SylvainPL |
Ajoute plus de fonctionnalite
|
Thu, 01 Apr 2010 20:09:14 -0400 |
SylvainPL |
Ajout de noms differents pour les series produites pour differents choix de pretrain
|
Thu, 01 Apr 2010 17:47:53 -0400 |
SylvainPL |
Correct a little bug about maximum number of minibatches
|
Thu, 01 Apr 2010 14:29:48 -0400 |
Arnaud Bergeron |
branch merge
|
Thu, 01 Apr 2010 14:28:50 -0400 |
Arnaud Bergeron |
Print the error sometimes in the pretrain loop.
|
Thu, 01 Apr 2010 14:25:55 -0400 |
SylvainPL |
Avoir exactement le meme jeu de donnees pour pre-train et finetune
|
Thu, 01 Apr 2010 14:25:40 -0400 |
SylvainPL |
Avoir exactement le meme jeu de donnees pour pre-train et finetune
|
Thu, 01 Apr 2010 13:44:30 -0400 |
SylvainPL |
Petits changements pour pouvoir utiliser le GPU
|
Thu, 01 Apr 2010 13:44:04 -0400 |
SylvainPL |
Petits changements pour pouvoir utiliser le GPU
|
Thu, 01 Apr 2010 13:43:43 -0400 |
SylvainPL |
Petits changements pour pouvoir utiliser le GPU
|
Thu, 01 Apr 2010 09:12:48 -0400 |
SylvainPL |
Ajout d'une ligne d'impression importante
|
Wed, 31 Mar 2010 21:03:41 -0400 |
SylvainPL |
Ajout d'une protection supplementaire (un peu de paranoia) ainsi que commentaires
|
Wed, 31 Mar 2010 21:02:27 -0400 |
SylvainPL |
Meilleure souplesse d'execution, un parametre hard-coade est maintenant plus propre
|
Wed, 31 Mar 2010 21:00:59 -0400 |
SylvainPL |
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
|
Wed, 31 Mar 2010 16:06:55 -0400 |
xaviermuller |
added type 2 adaptive learning configurable learning weight + versionning
|
Wed, 31 Mar 2010 15:54:47 -0400 |
Arnaud Bergeron |
Use sigmoids with cross-entropy cost in the ConvAutoencoders.
|
Tue, 30 Mar 2010 14:40:54 -0400 |
Arnaud Bergeron |
Fix concatenation of 1-dim datasets (such as int target vectors).
|
Mon, 29 Mar 2010 18:14:30 -0400 |
Arnaud Bergeron |
Fix last-minute bugs in the code.
|
Mon, 29 Mar 2010 17:54:01 -0400 |
Arnaud Bergeron |
Adjust sgd_opt parameters and use nist_all.
|
Mon, 29 Mar 2010 17:42:44 -0400 |
Arnaud Bergeron |
branch merge
|
Mon, 29 Mar 2010 17:36:22 -0400 |
Arnaud Bergeron |
- Adapt to scdae to input_shape change in pynnet
|
Wed, 10 Feb 2010 11:15:04 -0500 |
Arnaud Bergeron |
&& -> and
|