Mercurial > ift6266
annotate deep/stacked_dae/v_sylvain/sgd_optimization.py @ 359:969ad25e78cc
Fichier config.py.example supprimé je ne sais pas pourquoi ?! Enfin je le réajoute
author | fsavard |
---|---|
date | Thu, 22 Apr 2010 10:19:07 -0400 |
parents | cfb79f9fd1a4 |
children | b599886e3655 |
rev | line source |
---|---|
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
1 #!/usr/bin/python |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
2 # coding: utf-8 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
3 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
4 # Generic SdA optimization loop, adapted from the deeplearning.net tutorial |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
5 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
6 import numpy |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
7 import theano |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
8 import time |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
9 import datetime |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
10 import theano.tensor as T |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
11 import sys |
350
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
12 #import pickle |
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
13 import cPickle |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
14 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
15 from jobman import DD |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
16 import jobman, jobman.sql |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
17 from copy import copy |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
18 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
19 from stacked_dae import SdA |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
20 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
21 from ift6266.utils.seriestables import * |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
22 |
310
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
23 #For test purpose only |
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
24 buffersize=1000 |
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
25 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
26 default_series = { \ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
27 'reconstruction_error' : DummySeries(), |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
28 'training_error' : DummySeries(), |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
29 'validation_error' : DummySeries(), |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
30 'test_error' : DummySeries(), |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
31 'params' : DummySeries() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
32 } |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
33 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
34 def itermax(iter, max): |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
35 for i,it in enumerate(iter): |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
36 if i >= max: |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
37 break |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
38 yield it |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
39 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
40 class SdaSgdOptimizer: |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
41 def __init__(self, dataset, hyperparameters, n_ins, n_outs, |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
42 examples_per_epoch, series=default_series, max_minibatches=None): |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
43 self.dataset = dataset |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
44 self.hp = hyperparameters |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
45 self.n_ins = n_ins |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
46 self.n_outs = n_outs |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
47 self.parameters_pre=[] |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
48 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
49 self.max_minibatches = max_minibatches |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
50 print "SdaSgdOptimizer, max_minibatches =", max_minibatches |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
51 |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
52 self.ex_per_epoch = examples_per_epoch |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
53 self.mb_per_epoch = examples_per_epoch / self.hp.minibatch_size |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
54 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
55 self.series = series |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
56 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
57 self.rng = numpy.random.RandomState(1234) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
58 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
59 self.init_classifier() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
60 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
61 sys.stdout.flush() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
62 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
63 def init_classifier(self): |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
64 print "Constructing classifier" |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
65 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
66 # we don't want to save arrays in DD objects, so |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
67 # we recreate those arrays here |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
68 nhl = self.hp.num_hidden_layers |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
69 layers_sizes = [self.hp.hidden_layers_sizes] * nhl |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
70 corruption_levels = [self.hp.corruption_levels] * nhl |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
71 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
72 # construct the stacked denoising autoencoder class |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
73 self.classifier = SdA( \ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
74 batch_size = self.hp.minibatch_size, \ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
75 n_ins= self.n_ins, \ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
76 hidden_layers_sizes = layers_sizes, \ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
77 n_outs = self.n_outs, \ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
78 corruption_levels = corruption_levels,\ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
79 rng = self.rng,\ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
80 pretrain_lr = self.hp.pretraining_lr, \ |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
81 finetune_lr = self.hp.finetuning_lr) |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
82 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
83 #theano.printing.pydotprint(self.classifier.pretrain_functions[0], "function.graph") |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
84 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
85 sys.stdout.flush() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
86 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
87 def train(self): |
233
02ed13244133
version pour utilisation du module dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
230
diff
changeset
|
88 self.pretrain(self.dataset) |
02ed13244133
version pour utilisation du module dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
230
diff
changeset
|
89 self.finetune(self.dataset) |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
90 |
352
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
91 def pretrain(self,dataset,decrease=0): |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
92 print "STARTING PRETRAINING, time = ", datetime.datetime.now() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
93 sys.stdout.flush() |
286
1cc535f3e254
correction d'un bug pour affichage des resultats de pre-train avec P07
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
283
diff
changeset
|
94 |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
95 un_fichier=int(819200.0/self.hp.minibatch_size) #Number of batches in a P07 file |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
96 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
97 start_time = time.clock() |
352
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
98 |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
99 ######## This is hardcoaded. THe 0.95 parameter is hardcoaded and can be changed at will ### |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
100 #Set the decreasing rate of the learning rate. We want the final learning rate to |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
101 #be 5% of the original learning rate. The decreasing factor is linear |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
102 decreasing = (decrease*self.hp.pretraining_lr)/float(self.hp.pretraining_epochs_per_layer*800000/self.hp.minibatch_size) |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
103 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
104 ## Pre-train layer-wise |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
105 for i in xrange(self.classifier.n_layers): |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
106 # go through pretraining epochs |
352
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
107 |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
108 #To reset the learning rate to his original value |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
109 learning_rate=self.hp.pretraining_lr |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
110 for epoch in xrange(self.hp.pretraining_epochs_per_layer): |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
111 # go through the training set |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
112 batch_index=0 |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
113 count=0 |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
114 num_files=0 |
233
02ed13244133
version pour utilisation du module dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
230
diff
changeset
|
115 for x,y in dataset.train(self.hp.minibatch_size): |
352
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
116 c = self.classifier.pretrain_functions[i](x,learning_rate) |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
117 count +=1 |
238
9fc641d7adda
Possibilite de restreindre la taille des ensemble d'entrainement, valid et test afin de pouvoir tester le code rapidement
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
235
diff
changeset
|
118 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
119 self.series["reconstruction_error"].append((epoch, batch_index), c) |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
120 batch_index+=1 |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
121 |
352
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
122 #If we need to decrease the learning rate for the pretrain |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
123 if decrease != 0: |
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
124 learning_rate -= decreasing |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
125 |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
126 # useful when doing tests |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
127 if self.max_minibatches and batch_index >= self.max_minibatches: |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
128 break |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
129 |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
130 #When we pass through the data only once (the case with P07) |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
131 #There is approximately 800*1024=819200 examples per file (1k per example and files are 800M) |
286
1cc535f3e254
correction d'un bug pour affichage des resultats de pre-train avec P07
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
283
diff
changeset
|
132 if self.hp.pretraining_epochs_per_layer == 1 and count%un_fichier == 0: |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
133 print 'Pre-training layer %i, epoch %d, cost '%(i,num_files),c |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
134 num_files+=1 |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
135 sys.stdout.flush() |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
136 self.series['params'].append((num_files,), self.classifier.all_params) |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
137 |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
138 #When NIST is used |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
139 if self.hp.pretraining_epochs_per_layer > 1: |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
140 print 'Pre-training layer %i, epoch %d, cost '%(i,epoch),c |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
141 sys.stdout.flush() |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
142 |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
143 self.series['params'].append((epoch,), self.classifier.all_params) |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
144 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
145 end_time = time.clock() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
146 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
147 print ('Pretraining took %f minutes' %((end_time-start_time)/60.)) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
148 self.hp.update({'pretraining_time': end_time-start_time}) |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
149 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
150 sys.stdout.flush() |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
151 |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
152 #To be able to load them later for tests on finetune |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
153 self.parameters_pre=[copy(x.value) for x in self.classifier.params] |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
154 f = open('params_pretrain.txt', 'w') |
350
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
155 cPickle.dump(self.parameters_pre,f,protocol=-1) |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
156 f.close() |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
157 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
158 |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
159 def finetune(self,dataset,dataset_test,num_finetune,ind_test,special=0,decrease=0): |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
160 |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
161 if special != 0 and special != 1: |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
162 sys.exit('Bad value for variable special. Must be in {0,1}') |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
163 print "STARTING FINETUNING, time = ", datetime.datetime.now() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
164 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
165 minibatch_size = self.hp.minibatch_size |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
166 if ind_test == 0 or ind_test == 20: |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
167 nom_test = "NIST" |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
168 nom_train="P07" |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
169 else: |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
170 nom_test = "P07" |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
171 nom_train = "NIST" |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
172 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
173 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
174 # create a function to compute the mistakes that are made by the model |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
175 # on the validation set, or testing set |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
176 test_model = \ |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
177 theano.function( |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
178 [self.classifier.x,self.classifier.y], self.classifier.errors) |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
179 # givens = { |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
180 # self.classifier.x: ensemble_x, |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
181 # self.classifier.y: ensemble_y]}) |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
182 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
183 validate_model = \ |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
184 theano.function( |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
185 [self.classifier.x,self.classifier.y], self.classifier.errors) |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
186 # givens = { |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
187 # self.classifier.x: , |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
188 # self.classifier.y: ]}) |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
189 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
190 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
191 # early-stopping parameters |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
192 patience = 10000 # look as this many examples regardless |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
193 patience_increase = 2. # wait this much longer when a new best is |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
194 # found |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
195 improvement_threshold = 0.995 # a relative improvement of this much is |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
196 # considered significant |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
197 validation_frequency = min(self.mb_per_epoch, patience/2) |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
198 # go through this many |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
199 # minibatche before checking the network |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
200 # on the validation set; in this case we |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
201 # check every epoch |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
202 if self.max_minibatches and validation_frequency > self.max_minibatches: |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
203 validation_frequency = self.max_minibatches / 2 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
204 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
205 best_params = None |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
206 best_validation_loss = float('inf') |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
207 test_score = 0. |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
208 start_time = time.clock() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
209 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
210 done_looping = False |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
211 epoch = 0 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
212 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
213 total_mb_index = 0 |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
214 minibatch_index = 0 |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
215 parameters_finetune=[] |
331
c2331b8e4b89
Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
330
diff
changeset
|
216 |
c2331b8e4b89
Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
330
diff
changeset
|
217 if ind_test == 21: |
352
cfb79f9fd1a4
Ajout d'une fonctionnalite pour pouvoir avoir un taux d'apprentissage decroissant dans le pretrain
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
350
diff
changeset
|
218 learning_rate = self.hp.finetuning_lr / 10.0 |
331
c2331b8e4b89
Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
330
diff
changeset
|
219 else: |
c2331b8e4b89
Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
330
diff
changeset
|
220 learning_rate = self.hp.finetuning_lr #The initial finetune lr |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
221 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
222 |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
223 while (epoch < num_finetune) and (not done_looping): |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
224 epoch = epoch + 1 |
283
28b628f331b2
correction d'un bug sur l'indice des mini-batches
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
281
diff
changeset
|
225 |
310
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
226 for x,y in dataset.train(minibatch_size,bufsize=buffersize): |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
227 minibatch_index += 1 |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
228 |
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
229 |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
230 if special == 0: |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
231 cost_ij = self.classifier.finetune(x,y,learning_rate) |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
232 elif special == 1: |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
233 cost_ij = self.classifier.finetune2(x,y) |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
234 total_mb_index += 1 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
235 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
236 self.series["training_error"].append((epoch, minibatch_index), cost_ij) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
237 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
238 if (total_mb_index+1) % validation_frequency == 0: |
283
28b628f331b2
correction d'un bug sur l'indice des mini-batches
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
281
diff
changeset
|
239 #minibatch_index += 1 |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
240 #The validation set is always NIST (we want the model to be good on NIST) |
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
241 if ind_test == 0 | ind_test == 20: |
310
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
242 iter=dataset_test.valid(minibatch_size,bufsize=buffersize) |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
243 else: |
310
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
244 iter = dataset.valid(minibatch_size,bufsize=buffersize) |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
245 if self.max_minibatches: |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
246 iter = itermax(iter, self.max_minibatches) |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
247 validation_losses = [validate_model(x,y) for x,y in iter] |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
248 this_validation_loss = numpy.mean(validation_losses) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
249 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
250 self.series["validation_error"].\ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
251 append((epoch, minibatch_index), this_validation_loss*100.) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
252 |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
253 print('epoch %i, minibatch %i, validation error on NIST : %f %%' % \ |
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
254 (epoch, minibatch_index+1, \ |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
255 this_validation_loss*100.)) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
256 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
257 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
258 # if we got the best validation score until now |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
259 if this_validation_loss < best_validation_loss: |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
260 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
261 #improve patience if loss improvement is good enough |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
262 if this_validation_loss < best_validation_loss * \ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
263 improvement_threshold : |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
264 patience = max(patience, total_mb_index * patience_increase) |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
265 |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
266 # save best validation score, iteration number and parameters |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
267 best_validation_loss = this_validation_loss |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
268 best_iter = total_mb_index |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
269 parameters_finetune=[copy(x.value) for x in self.classifier.params] |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
270 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
271 # test it on the test set |
310
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
272 iter = dataset.test(minibatch_size,bufsize=buffersize) |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
273 if self.max_minibatches: |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
274 iter = itermax(iter, self.max_minibatches) |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
275 test_losses = [test_model(x,y) for x,y in iter] |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
276 test_score = numpy.mean(test_losses) |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
277 |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
278 #test it on the second test set |
310
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
279 iter2 = dataset_test.test(minibatch_size,bufsize=buffersize) |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
280 if self.max_minibatches: |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
281 iter2 = itermax(iter2, self.max_minibatches) |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
282 test_losses2 = [test_model(x,y) for x,y in iter2] |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
283 test_score2 = numpy.mean(test_losses2) |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
284 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
285 self.series["test_error"].\ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
286 append((epoch, minibatch_index), test_score*100.) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
287 |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
288 print((' epoch %i, minibatch %i, test error on dataset %s (train data) of best ' |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
289 'model %f %%') % |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
290 (epoch, minibatch_index+1,nom_train, |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
291 test_score*100.)) |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
292 |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
293 print((' epoch %i, minibatch %i, test error on dataset %s of best ' |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
294 'model %f %%') % |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
295 (epoch, minibatch_index+1,nom_test, |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
296 test_score2*100.)) |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
297 |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
298 if patience <= total_mb_index: |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
299 done_looping = True |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
300 break #to exit the FOR loop |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
301 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
302 sys.stdout.flush() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
303 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
304 # useful when doing tests |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
305 if self.max_minibatches and minibatch_index >= self.max_minibatches: |
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
306 break |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
307 |
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
308 if decrease == 1: |
350
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
309 if (ind_test == 21 & epoch % 100 == 0) | ind_test == 20: |
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
310 learning_rate /= 2 #divide the learning rate by 2 for each new epoch of P07 (or 100 of NIST) |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
311 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
312 self.series['params'].append((epoch,), self.classifier.all_params) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
313 |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
314 if done_looping == True: #To exit completly the fine-tuning |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
315 break #to exit the WHILE loop |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
316 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
317 end_time = time.clock() |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
318 self.hp.update({'finetuning_time':end_time-start_time,\ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
319 'best_validation_error':best_validation_loss,\ |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
320 'test_score':test_score, |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
321 'num_finetuning_epochs':epoch}) |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
322 |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
323 print(('\nOptimization complete with best validation score of %f %%,' |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
324 'with test performance %f %% on dataset %s ') % |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
325 (best_validation_loss * 100., test_score*100.,nom_train)) |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
326 print(('The test score on the %s dataset is %f')%(nom_test,test_score2*100.)) |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
327 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
328 print ('The finetuning ran for %f minutes' % ((end_time-start_time)/60.)) |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
329 |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
330 sys.stdout.flush() |
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
331 |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
332 #Save a copy of the parameters in a file to be able to get them in the future |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
333 |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
334 if special == 1: #To keep a track of the value of the parameters |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
335 f = open('params_finetune_stanford.txt', 'w') |
350
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
336 cPickle.dump(parameters_finetune,f,protocol=-1) |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
337 f.close() |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
338 |
331
c2331b8e4b89
Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
330
diff
changeset
|
339 elif ind_test == 0 | ind_test == 20: #To keep a track of the value of the parameters |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
340 f = open('params_finetune_P07.txt', 'w') |
350
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
341 cPickle.dump(parameters_finetune,f,protocol=-1) |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
342 f.close() |
331
c2331b8e4b89
Ajout d'une ligne faisant rapetisser le finetune_lr pour NIST lorsqu'on a P07+NIST
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
330
diff
changeset
|
343 |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
344 |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
345 elif ind_test== 1: #For the run with 2 finetunes. It will be faster. |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
346 f = open('params_finetune_NIST.txt', 'w') |
350
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
347 cPickle.dump(parameters_finetune,f,protocol=-1) |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
348 f.close() |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
349 |
321
403b9e6ecfaa
finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
310
diff
changeset
|
350 elif ind_test== 21: #To keep a track of the value of the parameters |
403b9e6ecfaa
finetune NIST+P07 change pour P07+NIST, les experiences n'ont pas ete concluentes
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
310
diff
changeset
|
351 f = open('params_finetune_P07_then_NIST.txt', 'w') |
350
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
352 cPickle.dump(parameters_finetune,f,protocol=-1) |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
353 f.close() |
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
354 |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
355 |
305
fe5d428c2acc
Ajout de commentaires ainsi que correction de bug pour sauvegarder les parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
286
diff
changeset
|
356 #Set parameters like they where right after pre-train or finetune |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
357 def reload_parameters(self,which): |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
358 |
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
359 #self.parameters_pre=pickle.load('params_pretrain.txt') |
281
a8b92a4a708d
rajout de methode reliant toutes les couches cachees a la logistic et changeant seulement les parametres de la logistic durant finetune
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
263
diff
changeset
|
360 f = open(which) |
350
625c0c3fcbdb
Amelioration de l'efficacite de la sauvegarde des parametres
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
336
diff
changeset
|
361 self.parameters_pre=cPickle.load(f) |
263
a0264184684e
ajout de fonctionnalitees pour deux testsets
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
252
diff
changeset
|
362 f.close() |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
363 for idx,x in enumerate(self.parameters_pre): |
310
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
364 if x.dtype=='float64': |
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
365 self.classifier.params[idx].value=theano._asarray(copy(x),dtype=theano.config.floatX) |
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
366 else: |
a5abd5c8b4b0
Petits changements pour pouvoir utiliser le GPU
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
305
diff
changeset
|
367 self.classifier.params[idx].value=copy(x) |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
368 |
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
369 def training_error(self,dataset): |
325
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
370 # create a function to compute the mistakes that are made by the model |
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
371 # on the validation set, or testing set |
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
372 test_model = \ |
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
373 theano.function( |
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
374 [self.classifier.x,self.classifier.y], self.classifier.errors) |
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
375 |
330
18dc860a4ef4
Rajout de la capacite de faire decroitre le taux d'apprentissage si demande
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
325
diff
changeset
|
376 iter2 = dataset.train(self.hp.minibatch_size,bufsize=buffersize) |
325
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
377 train_losses2 = [test_model(x,y) for x,y in iter2] |
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
378 train_score2 = numpy.mean(train_losses2) |
048898c1ee55
Ajout d'une fonction pour calculer l'erreur effectuee par le modele sur un ensemble pre-determine
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
321
diff
changeset
|
379 print "Training error is: " + str(train_score2) |
252
7dd43ef66d15
ajout de fonctionnalite pour different finetune dataset
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
238
diff
changeset
|
380 |
230
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
381 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
382 |
8a94a5c808cd
Repertoire pour faire les tests avec les differents ensembles pour le finetuning
SylvainPL <sylvain.pannetier.lebeuf@umontreal.ca>
parents:
diff
changeset
|
383 |