Normes de Rejet Des
Normes de Rejet Des
Normes de Rejet Des
Thème
DJEDDOU Messaoud
Soutenu publiquement le : 04 Décembre 2014
I
DEDICACE
À mon Père,
À ma Mère,
À ma femme,
Djeddou Messaoud
II
REMERCIMENTS
Tout d’abord je remercie « ALLAH » pour m’avoir donné le courage de finir ce travail,
et essayer d’apporter une petite contribution dans l’effort d’améliorer et protéger
notre environnement.
Thèse, Mr. ACHOUR Bachir professeur à l’université de Biskra, qui m’a accordé sa
confiance pour diriger cette recherche, et m’a permis d’être l’un de ces disciples.
III
secondaire, et universitaire ceux qui ont contribués à mon éducation et ma formation
à la recherche scientifique.
IV
RESUME
La performance et la fiabilité d'une usine de traitement des eaux usées est une considération
critique, particulièrement si ces eaux usées traitées seront récupérées pour une réutilisation
ultérieure. Les marges de sécurité pour la santé publique et la protection de l'environnement
doivent être assurée et respecter.
Les performances des processus de traitement sont généralement influencées par de nombreux
facteurs tels que les changements qualitatifs et quantitatifs dans les eaux usées et la variabilité
inhérente du procédé de traitement. La législation algérienne a établi des critères de qualité de
l'eau traitée et rejetée, donc il devrait être possible d'évaluer la performance du processus et la
fiabilité des installations pour assurer leurs conformités.
V
importante de ce modèle est que les paramètres du modèle sont basés sur les propriétés des
données d'auto-surveillance de la station d’épuration (moyenne arythmique et écart type).
Afin d'élaborer une stratégie de contrôle du processus de boues activées dans une station de
traitement des eaux usées, la compréhension des variations des niveaux de fiabilité à la station
d’épuration est nécessaire.
Les systèmes biologiques sont parmi les plus difficiles à contrôler et à prévoir. En raison des
mécanismes de réaction biologique complexes, hautement variables dans le temps et les
aspects multi variables de la station de traitement des eaux usées (STEU), le diagnostic de la
station d'épuration sont encore difficiles dans la pratique.
L'application des techniques intelligentes, qui peut analyser les données de processus non-
linéaire multidimensionnelle en utilisant une technique de visualisation, peut être utile pour
l'analyse et le diagnostic du procédé à boues activées dans une station d'épuration. Cette
capacité complexe de la représentation de la non-linéarité combiné avec le fait qu'il n'existe
pas de modèle déterministe de la fiabilité pour les stations d'épurations. Les réseaux de
neurones artificiels sont un choix idéal comme solution.
VI
La deuxième contribution de ce travail de recherche est le développement de modèles de
réseaux de neurones artificiels pour la prédiction des taux de fiabilité et taux de défaillance
basée sur les données d’auto-surveillance de la station d’épuration, et un modèle probabiliste
spécialement développé pour cette étude .
Six différents réseaux de neurones artificiels répartis en deux types ; un modèle simple RNA
et un modèle complet RNA, basé sur un Perceptron Multicouche (PMC) sont développés pour
la prédiction du niveau de la fiabilité, et les taux de défaillance du processus basée sur les
paramètres de qualité des eaux usées traitées suivants : la demande chimique en oxygène
(DCO), la demande biochimique en oxygène après cinq jours(DBO5), et les matières en
suspension (MES).
Les résultats devrait permettre de fournir des informations utiles sur la portée et les
possibilités d'application des réseaux de neurones artificiels dans le domaine du traitement des
eaux usées et de servir comme un outil de diagnostic des défaillances du processus et en
particulier d’'aider les exploitant dans la gestion quotidienne de la station d’épuration.
VII
RESUME EN ANGLAIS (ABSTRACT)
The performances of treatment process are usually influenced by many factors such as
qualitative and quantitative changes in waste water and the inherent variability of the process
wastewater. Algerian legislation has established criteria of quality of treated water and
discarded, thus it should be possible to evaluate the performance of the process and the
reliability of facilities to ensure compliance.
The performance of municipal wastewater treatment plant in Khenchela was assessed based
on reliability. Data studied and analyzed statistically included wastewater flow rates and some
important water quality parameters such as Chemical Oxygen Demand (COD), five-day
Biochemical Oxygen Demand (BOD5), and Total Suspended Solids (TSS).
Using the lognormal function, a probabilistic reliability model was developed and found
suitable to quantitatively the performance of the plant. A significant feature of this model is
that the model parameters are based on properties of original data.
The development of this reliability model is the first contribution of this study; a model that
can provide a quantitative performance of the studied wastewater treatment plant, and can
also be used to estimate mean values of effluent quality.
In order to develop an effective control strategy for the activated sludge process of wastewater
treatment plant, an understanding of the reliability disturbances to the wastewater treatment
plant is necessary. Biological systems are among the most difficult to control and predict. Due
to the complex biological reaction mechanisms, the highly time-varying and multivariable
aspects of the wastewater treatment plant (WWTP), the diagnosis of the WWTP are still
difficult in practice. The application of intelligent techniques, which can analyze the
multidimensional nonlinear process data using a visualization technique, can be useful for
analyzing and diagnosing the activated-sludge process in the WWTP.
This complex capability for nonlinearity representation combined with the fact that no
reliability model exists for the WWTP, makes neural networks an ideal choice for a solution.
VIII
Forecasting the behavior of complex systems has been a broad application area for neural
networks. Applications such as economic forecasting, electricity load / demand forecasting,
and forecasting natural and physical phenomena have been extensively studied, hence the
numerous papers presented at annual conferences in this focus area. The cognitive ability of
artificial neural networks to map nonlinear complex input-output relationships, which would
allow for better prediction and corrective control of processes, make them particularly
attractive.
The second contribution of this work presents the development of neural network models for
prediction of reliability and process rate of failure based on historical plant data and a
probabilistic model especially developed for this study.
Six different neural networks divided on two types; simple model and complete model, based
on Multi-Layer Perceptrons (MLP) are developed for the prediction of reliability level, and
process rate of failure based on the following quality parameters of treated wastewater,
Chemical Oxygen Demand (COD), five-day Biochemical Oxygen Demand (BOD5) and Total
Suspended Solids (TSS).
The application area is the prediction of the reliability level at a local municipal wastewater
treatment plant. The forecast result is used for the determination of the set point to control the
process, in order to optimize plant performance.
The results will hopefully provide useful information about the scope and possibilities for the
application of neural networks in the field of wastewater treatment and serve as a diagnostic
tool of process failures and especially help operator in the daily management of the plant.
Develop artificial neural networks models based on a probabilistic model for predicting the
reliability and failure rate of wastewater treatment process based on activated sludge is the
first attempt in the literature and research.
IX
ص( RESUME EN ARABE )ا
م إذا ن و رات ا ھو أ د ا رف ا ها ط ان أداء و و و
ن ر ذ نا ا ل ا دا دة ا ا ا رداد ه ا رف ا
. ا و ا ا
، )إ ر و و وروف -ر وف ،و إ ر أ در ون دار رات ا ا رت أ
ا وز ب إ ر ر ر -ون زس( .أن ن ن ا د د ن ا ذج ا درو ا و
و فا ت ھو ا ر و ا ه ،ن ان ا وز ا و ر تا و ا
. م ا
X
وذج و د أ ب إ ل ا دة .ھذه ا درة ا رف ا
ل. و لإ را تا لا ذه ا ط ت ا وو
ل ا ؤ ا ط ت ا ل ط ق ا د م ا ؤ وك ا ظ ا دة و
ن ا دد وا د ،و ل ا ر ء /ا ؤ ط ب ،وا ؤ ظواھر ا ط دي ، ا
ت ر ا درة ا ھذا ا ل ر ز ا ؤ رات ا و دت ن ا وراق ا
ن دة ،ا ت نا د توا ر ت را ط ا ر م رط ا ا ط ا
ل ص. ذا ،و تا ؤ و را أ ل أن
XI
SOMMAIRE
DEDICACE .......................................................................................................................................................... II
RESUME .............................................................................................................................................................. V
I. 1 INTRODUCTION .......................................................................................................................................... 5
XII
CHAPITRE II: DESCRIPTION GENERALE DE LA STATION D'EPURATION DE LA VILLE DE
KHENCHELA..................................................................................................................................................... 19
III.4.1 CONCEPT DE FIABILITE DANS UNE STATION DE TRAITEMENT DES EAUX USEES ....................................... 31
III.4.2 EVALUATION DE LA FIABILITE D'UNE STATION DE TRAITEMENT DES EAUX USEES PAR LA METHODE DU
COEFFICIENT DE FIABILITE (C.D.F) .................................................................................................................... 32
XIII
IV.3 CORRECTION DES DONNES D’AUTO-SURVEILLANCES ............................................................. 41
XIV
V.6.1 ALGORITHME D’APPRENTISSAGE DE RETRO PROPAGATION (BP) ............................................................. 86
V.6.2 LIMITES DE L'ALGORITHME D'APPRENTISSAGE RETRO PROPAGATION ...................................................... 87
V.6.3 AMELIORATION HEURISTIQUE POUR L'ALGORITHME DE RETRO PROPAGATION ........................................ 88
V.7 GENERALISATION ................................................................................................................................... 89
VI.4.1 PREDICTION DE LA FIABILITE DE LA DEGRADATION DE LA DBO5 PAR MODELE SIMPLE ....................... 109
VI.4.2 PREDICTION DE LA FIABILITE D’ELIMINATION DE LA DCO PAR MODELE SIMPLE .................................. 111
VI.4.3 PREDICTION DE LA FIABILITE D’ELIMINATION DES MES PAR MODELE SIMPLE ..................................... 114
VI.5 PREDICTION DU TAUX DE FAIBILITE DES PARAMETRES DE QUALITE DES EAUX
TRAITEES PAR MODELE COMPLET ....................................................................................................... 117
XV
VI.6.2.1 Prédiction du taux de fiabilité par modèle simple MS-RNADCO (4-2-1) ...................................... 130
VI.6.2.2 Prédiction du taux de fiabilité par modèle complet MC-RNADCO (14-8-1).................................. 131
VI.6.3 RESULTATS DES MODELES RNAMES ..................................................................................................... 131
VI.6.3.1 Prédiction du taux de fiabilité par modèle simple MS-RNAMES1 (4-4-1)...................................... 131
VI.6.3.2 Prédiction du taux de fiabilité par modèles complets MC-RNAMES1,2 (10-3-1 ; 10-6-1) .............. 132
VI.7. CONCLUSION ........................................................................................................................................ 133
VII.2.1 MODELE SIMPLE RNA UTILISEES POUR LA PREDICTION DU TAUX DE DEFAILLANCE ........................... 134
VII.2.2 MODELES COMPLETS RNA UTILISES POUR LA PREDICTION DU TAUX DE DEFAILLANCE ...................... 135
VII.3 PREDICTION DU TAUX DE DEFAILLANCE DU PROCEDE DE TRAITEMENT .................... 136
VII.3.1 PREDICTION DU TAUX DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5 PAR MODELE SIMPLE ..... 136
VII.3.2 PREDICTION DU TAUX DE DEFAILLANCE DE L’ELIMINATION DE LA DCO PAR MODELE SIMPLE .......... 139
VII.2.3 PREDICTION DU TAUX DE DEFAILLANCE DE L’ELIMINATION DES MES PAR MODELE SIMPLE .............. 142
VII.3 PREDICTION DU TAUX DE DEFAILLANCE DU PROCEDE DE TRAITEMENT DES EAUX
USEES PAR MODELE COMPLET ............................................................................................................... 145
VII.3.1 PREDICTION DU TAUX DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5 PAR MODELE COMPLET.. 145
VII.3.2 PREDICTION DU TAUX DE DEFAILLANCE DE L’ELIMINATION DE LA DCO PAR MODELE COMPLET ....... 148
VII.3.3 PREDICTION DU TAUX DE DEFAILLANCE D’ELIMINATION DES MES PAR MODELE COMPLET................ 151
VII.4 DISCUSSION DES RESULTATS DE LA PREDICTION DES TAUX DE DEFAILLANCE ........ 154
XVI
LISTE DES FIGURES
XVII
FIGURE 29: COURBE DE LA VARIATION DU TAUX DE DEFIALLANCE DU PROCEDE DE TRAITEMENT DE LA DCO DANS
LA STATION D'EPURATION DE KHENCHELA (2009-2012). ............................................................................. 71
FIGURE 30: COURBE DE LA VARIATION DU TAUX DE DEFIALLANCE DU PROCEDE D'ELIMINATION DES MES DANS LA
STATION D'EPURATION DE KHENCHELA (2009-2012). .................................................................................. 72
FIGURE 31: STRUCTURE D'UN NEURONE BIOLOGIQUE (GRAUPE, 2007).................................................................. 74
FIGURE 32: NEURONE FORMEL (ARTIFICIEL). ......................................................................................................... 76
FIGURE 33: RESEAU DE NEURONES MULTICOUCHES (PMC) AVEC DEUX COUCHES CACHEES (RUSTUM, 2009). ..... 77
FIGURE 34: STRUCTURE D'UN NEURONE ARTIFICIEL QUI CALCULE LA SOMME DE SES ENTREES PUIS CETTE VALEUR
PASSE A TRAVERS LA FONCTION D'ACTIVATION POUR PRODUIRE SA SORTIE (KRIGER, 2007)........................ 77
FIGURE 35: RESEAU DE NEURONES ARTIFICIELS DIRECTS (PAR ALIMENTATION AVANT) (FEED-FORWARD) (KRIGER,
2007)............................................................................................................................................................ 79
FIGURE 36: RESEAU DE NEURONES RECURRENT (KRIGER, 2007). .......................................................................... 80
FIGURE 37: ALGORITHME D'APPRENTISSAGE COINCE DANS UN MINIMUM LOCAL .................................................. 88
FIGURE 38 : PRESENTATION GRAPHIQUE DU PHENOMENE DE SUR-APPRENTISSAGE................................................ 90
FIGURE 39 : EXEMPLE DU PHENOMENE DE SOUS-APPRENTISSAGE (PARIZEAU, 2006). ........................................... 91
FIGURE 40 : ILLUSTRATION DU CRITERE DE LA VALIDATION CROISEE (PARIZEAU, 2006)....................................... 92
FIGURE 41 : RESEAU DE NEURONES ARTIFICIELS D'ELMAN .................................................................................... 95
FIGURE 42 : RESEAU DE NEURONES ARTIFICIELS POUR DES APPLICATIONS DE PREDICTION AVEC DES ENTREES
TEMPORISES ................................................................................................................................................. 96
FIGURE 43: PRINCIPE GENERAL DES ALGORITHMES GENETIQUES (ALLIOT ET DURAND, 2005) ............................ 102
FIGURE 44: SCHEMA GENERALE DU MODELE SIMPLE RNADBO5 (4-3-1) POUR LA PREDICTION DU TAUX DE FIABILITE
DE LA DEGRADATION DE LA DBO5. ............................................................................................................ 109
FIGURE 45: TAUX DE FIABILITE DE LA DEGRADATION DE LA DBO5 PREDITE PAR MODELE SIMPLE MS-RNADBO5 (4-
3-1) VERSUS FIABILITE PAR MODELE PROBABILISTE (VALEUR CIBLE). ........................................................ 110
FIGURE 46: TAUX DE FIABILITE DE LA DEGRADATION DE LA DBO5 PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
SIMPLE (4-3-1), STATION D’EPURATION DE KHENCHELA (2009-2012). ...................................................... 111
FIGURE 47: SCHEMA GENERALE DU MODELE SIMPLE MS-RNADCO (4-2-1) POUR LA PREDICTION DU TAUX DE
FIABILITE D’ELIMINATION DE LA DCO. ...................................................................................................... 112
FIGURE 48: TAUX DE FIABILITE D’ELIMINATION DE LA DCO PREDIT PAR MODELE SIMPLE MS-RNADCO ............ 113
FIGURE 49: TAUX DE FIABILITE DE LA DEGRADATION DE LA DBO5 PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
SIMPLE (4-2-1), STATION D’EPURATION DE KHENCHELA (2009-2012) ....................................................... 114
FIGURE 50: SCHEMA GENERALE DU MODELE SIMPLE MS-RNAMES (4-4-1) POUR LA PREDICTION DU TAUX DE
FIABILITE D’ELIMINATION DES MES........................................................................................................... 115
FIGURE 51: TAUX DE FIABILITE D’ELIMINATION DES MES PREDIT PAR MODELE SIMPLE MS-RNAMES ................ 116
FIGURE 52: TAUX DE FIABILITE D’ELIMINATION DES MES PREDIT PAR RESEAU DE NEURONES ARTIFICIELS SIMPLE
(4-4-1), STATION D’EPURATION DE KHENCHELA (2009-2012) ................................................................... 117
FIGURE 53 : SCHEMA GENERALE DU MODELE COMPLET MC-RNADBO5 (14-3-1) POUR LA PREDICTION DU TAUX DE
FIABILITE DE LA DEGRADATION DE LA DBO5. ............................................................................................ 118
FIGURE 54: FIABILITE DE LA DEGRADATION DE LA DBO5 PREDITE PAR MODELE COMPLET MC-RNADBO5 .......... 119
FIGURE 55: TAUX DE FIABILITE DE LA DEGRADATION DE LA DBO5 PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
COMPLET (14-3-1), STATION D’EPURATION DE KHENCHELA (2009-2012) .................................................. 120
FIGURE 56: SCHEMA GENERALE DU MODELE COMPLET MC-RNADCO (14-8-1) POUR LA PREDICTION DU TAUX DE
FIABILITE D’ELIMINATION DE LA DCO. ...................................................................................................... 121
FIGURE 57: TAUX DE FIABILITE D’ELIMINATION DE LA DCO PREDIT PAR MODELE COMPLET MC-RNADCO ........ 122
FIGURE 58: TAUX DE FIABILITE D’ELIMINATION DE LA DCO PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
COMPLET (14-8-1), STATION D’EPURATION DE KHENCHELA (2009-2012) .................................................. 123
FIGURE 59: SCHEMA GENERALE DU MODELE COMPLET MC-RNAMES1 (10-3-1) POUR LA PREDICTION DU TAUX DE
FIABILITE D’ELIMINATION DES MES........................................................................................................... 124
FIGURE 60: TAUX DE FIABILITE D’ELIMINATION DES MES PREDIT PAR MODELE COMPLET RNAMES1 (10-3-1)
VERSUS FIABILITE PAR MODELE PROBABILISTE (VALEUR CIBLE). ............................................................... 125
FIGURE 61: TAUX DE FIABILITE D’ELIMINATION DES MES PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
COMPLET (10-3-1), STATION D’EPURATION DE KHENCHELA (2009-2010). ................................................. 126
XVIII
FIGURE 62: SCHEMA GENERALE DU MODELE COMPLET MC-RNAMES2 (10-6-1) POUR LA PREDICTION DU TAUX DE
FIABILITE D’ELIMINATION DES MES........................................................................................................... 126
FIGURE 63: TAUX DE FIABILITE D’ELIMINATION DES MES PREDIT PAR MODELE COMPLET RNAMES2 (10-6-1)
VERSUS TAUX DE FIABILITE PAR MODELE PROBABILISTE (VALEUR CIBLE). ................................................. 127
FIGURE 64: TAUX DE FIABILITE D’ELIMINATION DES MES PREDIT PAR RESEAU DE NEURONES ARTIFICIELS PAR
MODELE COMPLET RNAMES2 (10-6-1), STATION D’EPURATION DE KHENCHELA (2011-2012) .................... 128
FIGURE 65: SCHEMA GENERALE DU MODELE SIMPLE MS-RNADBO5 (5-2-1) POUR LA PREDICTION DU TAUX DE
DEFAILLANCE DE LA DEGRADATION DE LA DBO5....................................................................................... 137
FIGURE 66 : TAUX DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5 PREDIT PAR MODELE SIMPLE MS-RNADBO5
(5-2-1) VERSUS TAUX DE DEFAILLANCE PAR MODELE PROBABILISTE (VALEUR CIBLE). .............................. 138
FIGURE 67 : TAUX DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5 PREDIT PAR RESEAU DE NEURONES
ARTIFICIELS SIMPLE (5-2-1), STATION D’EPURATION DE KHENCHELA (2009-2012).................................... 139
FIGURE 68 : SCHEMA GENERALE DU MODELE SIMPLE MS-RNADCO (5-8-1) POUR LA PREDICTION DU TAUX DE
DEFAILLANCE D’ELIMINATION DE LA DCO. ............................................................................................... 140
FIGURE 69 : TAUX DE DEFAILLANCE D’ELIMINATION DE LA DCO PREDIT PAR MODELE SIMPLE MS-RNADCO ..... 141
FIGURE 70 : TAUX DE DEFAILLANCE D’ELIMINATION DE LA DCO PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
SIMPLE (5-8-1), STATION D’EPURATION DE KHENCHELA (2009-2012). ...................................................... 142
FIGURE 71: SCHEMA GENERALE DU MODELE SIMPLE MS-RNAMES (4-3-1) POUR LA PREDICTION DU TAUX DE
DEFAILLANCE D’ELIMINATION DES MES. ................................................................................................... 143
FIGURE 72 : TAUX DE DEFAILLANCE D’ELIMINATION DES MES PREDIT PAR MODELE SIMPLE MS-RNAMES (4-3-1)
VERSUS TAUX DE DEFAILLANCE PAR MODELE PROBABILISTE (VALEUR CIBLE). .......................................... 144
FIGURE 73 : TAUX DE DEFAILLANCE D’ELIMINATION DES MES PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
SIMPLE (4-3-1), STATION D’EPURATION DE KHENCHELA (2009-2012). ...................................................... 145
FIGURE 74 : SCHEMA GENERALE DU MODELE COMPLET MC-RNADBO5 (10-2-1) POUR LA PREDICTION DU TAUX DE
DEFAILLANCE DE LA DEGRADATION DE LA DBO5....................................................................................... 146
FIGURE 75 : TAUX DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5 PREDIT PAR MODELE COMPLET MC-
RNADBO5 (10-2-1) VERSUS TAUX DE DEFAILLANCE PAR MODELE PROBABILISTE (VALEUR CIBLE). ........... 147
FIGURE 76 : TAUX DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5 PREDIT PAR RESEAU DE NEURONES
ARTIFICIELS COMPLET (10-2-1), STATION D’EPURATION DE KHENCHELA (2009-2012). ............................. 148
FIGURE 77 : SCHEMA GENERALE DU MODELE COMPLET MC-RNADCO (10-4-1) POUR LA PREDICTION DU TAUX DE
DEFAILLANCE D’ELIMINATION DE LA DCO. ............................................................................................... 149
FIGURE 78 : TAUX DE DEFAILLANCE D’ELIMINATION DE LA DCO PREDIT PAR MODELE COMPLET MC-RNADCO (10-
4-1) VERSUS TAUX DE DEFAILLANCE PAR MODELE PROBABILISTE (VALEUR CIBLE).................................... 150
FIGURE 79 : TAUX DE DEFAILLANCE D’ELIMINATION DE LA DCO PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
COMPLET (10-4-1), STATION D’EPURATION DE KHENCHELA (2009-2012). ................................................. 151
FIGURE 80 : SCHEMA GENERALE DU MODELE COMPLET MC-RNAMES (14-5-1) POUR LA PREDICTION DU TAUX DE
DEFAILLANCE D’ELIMINATION DES MES. ................................................................................................... 152
FIGURE 81 : TAUX DE DEFAILLANCE D’ELIMINATION DES MES PREDIT PAR MODELE COMPLET MC-RNAMES (14-5-
1) VERSUS TAUX DE DEFAILLANCE PAR MODELE PROBABILISTE (VALEUR CIBLE). ...................................... 153
FIGURE 82 : TAUX DE DEFAILLANCE D’ELIMINATION DES MES PREDIT PAR RESEAU DE NEURONES ARTIFICIELS
SIMPLE (14-5-1), STATION D’EPURATION DE KHENCHELA (2009-2012). .................................................... 154
XIX
LISTE DES TABLEAUX
XX
TABLEAU 32: PERFORMANCES DE LA PREDICTION DU TAUX DE FIABILITE D’ELIMINATION DE LA DCO LA PAR LE
MODELE COMPLET MC-RNADCO. ............................................................................................................... 121
TABLEAU 33: DONNEES D’ENTREES-SORTIE DES MODELES COMPLETS MC-RNAMES1 ET MC-RNAMES2 POUR LA
PREDICTION DU TAUX DE FIABILITE D’ELIMINATION DES MES. .................................................................. 123
TABLEAU 34: PERFORMANCES DE LA PREDICTION DU TAUX DE FIABILITE D’ELIMINATION DES MES PAR MODELE
COMPLET MC-RNAMES1. ............................................................................................................................ 124
TABLEAU 35: PERFORMANCES DE LA PREDICTION DU TAUX DE FIABILITE D’ELIMINATION DES MES PAR MODELE
COMPLET MC-RNAMES2. ............................................................................................................................ 127
TABLEAU 36: DONNEES ENTREES-SORTIE DES DIFFERENTS MODELES SIMPLES RNA (PREDICTION DU TAUX DE
DEFAILLANCE). ........................................................................................................................................... 135
TABLEAU 37: DONNEES ENTREES-SORTIE DES DIFFERENTS MODELES COMPLETS RNA (PREDICTION DU TAUX DE
DEFAILLANCE). ........................................................................................................................................... 136
TABLEAU 38: DONNEES D’ENTREES-SORTIE DU MODELE SIMPLE MS-RNADBO5 POUR LA PREDICTION DU TAUX DE
DEFAILLANCE DE LA DEGRADATION DE LA DBO5....................................................................................... 137
TABLEAU 39 : PERFORMANCES DE LA PREDICTION DU TAUX DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5
PAR LE MODELE SIMPLE MS-RNADBO5. ...................................................................................................... 138
TABLEAU 40 : DONNEES D’ENTREES-SORTIE DU MODELE SIMPLE MS-RNADCO POUR LA PREDICTION DU TAUX DE
DEFAILLANCE D’ELIMINATION DE LA DCO. ............................................................................................... 139
TABLEAU 41 : PERFORMANCES DE LA PREDICTION DU TAUX DE DEFAILLANCE D’ELIMINATION DE LA DCO PAR LE
MODELE SIMPLE MS-RNADCO. ................................................................................................................... 140
TABLEAU 42 : DONNEES D’ENTREES-SORTIE DU MODELE SIMPLE MS-RNAMES POUR LA PREDICTION DU TAUX DE
DEFAILLANCE D’ELIMINATION DES MES. ................................................................................................... 142
TABLEAU 43 : PERFORMANCES DE LA PREDICTION DU TAUX DE DEFAILLANCE D’ELIMINATION DES MES PAR LE
MODELE SIMPLE MS-RNAMES. ................................................................................................................... 143
TABLEAU 44 : DONNEES D’ENTREES-SORTIE DU MODELE COMPLET MC-RNADBO5 POUR LA PREDICTION DU TAUX
DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5.................................................................................. 145
TABLEAU 45 : PERFORMANCES DE LA PREDICTION DU TAUX DE DEFAILLANCE DE LA DEGRADATION DE LA DBO5
PAR LE MODELE COMPLET MC-RNADBO5. .................................................................................................. 146
TABLEAU 46 : DONNEES D’ENTREES-SORTIE DU MODELE COMPLET MC-RNADCO POUR LA PREDICTION DU TAUX
DE DEFAILLANCE D’ELIMINATION DE LA DCO. .......................................................................................... 148
TABLE 47 : PERFORMANCES DE LA PREDICTION DU TAUX DE DEFAILLANCE D’ELIMINATION DE LA DCO PAR LE
MODELE COMPLET MC-RNADCO. ............................................................................................................... 149
TABLEAU 48 : DONNEES D’ENTREES-SORTIE DU MODELE COMPLET MC-RNAMES POUR LA PREDICTION DU TAUX
DE DEFAILLANCE D’ELIMINATION DES MES. .............................................................................................. 151
TABLEAU 49 : PERFORMANCES DE LA PREDICTION DU TAUX DE DEFAILLANCE D’ELIMINATION DES MES PAR LE
MODELE COMPLET MC-RNAMES. ............................................................................................................... 152
XXI
INTRODUCTION GENERALE
Les eaux usées représentent une des composantes de l’offre globale en eau au même titre que
les eaux superficielles et souterraines. En Algérie, leur volume annuel est estimé à 800
millions de m3, dont quelque 650 millions de m3 correspondant aux agglomérations de taille
supérieure à 50 000 habitants (MRE, 2014). Notons que 60 % de ces eaux sont soit rejetés
dans les cours soit en mer (Medkour, 2003).
Pour ce qui est des ouvrages de traitement et d’épuration des eaux, il existe à ce jour 145
stations de traitement et d’épuration avec une capacité totale de traitement estimé à plus de 8
millions d'équivalent-habitants, avec une capacité mensuelle de collecte estimée à 66,77
millions de m3, et un volume d'eau usées épurées de 13,6 millions de m3, soit un taux
d’utilisation des capacités des installations de 45% (ONA, 2014). Il faut ajouter 435 bassins
de décantation qui reçoivent les eaux usées domestiques (Medkour, 2003). En raison d’un
cout moyen de l’épuration de 5,94 DA/m3 incluant la réhabilitation des équipements,
l’amortissement et les frais d’exploitation, l’aspect financier reste le principal frein à la remise
en service des stations d’épuration à l’arrêt.
Si les eaux usées non traitées sont autorisés à s'accumuler, la décomposition de la matière
organique peut conduire à la production de grandes quantités de gaz malodorants (Belanche et
al., 1992). Les stations de traitement des eaux usées sont importantes pour le développement
économique et social de tout pays. Ils protègent la santé de la population contre les bactéries
pathogènes et des virus. Pour ces raisons, le retrait immédiat et sans nuisance des eaux usées à
partir de ses sources de production , suivi d'un traitement et d'élimination , est non seulement
souhaitable mais aussi nécessaire dans une société industrialisée (Metcalf et Eddy, 2003).
Les stations de traitement des eaux usées sont considérées comme la première ligne dans la
bataille de l'humanité pour éliminer la pollution de l'eau et restaurer la qualité de l'eau dans les
cours d'eaux.
On constate généralement que ces manques ne sont pas dus à un seul facteur, mais plutôt due
à une combinaison de problèmes qui limite la capacité d'une station de traitement des eaux
usées. Ces problèmes se répartissent généralement en une ou plusieurs des catégories
suivantes:
- Défauts de conception.
- Surcharges hydrauliques.
1
- Les surcharges de déchets industriels.
Les stations de traitement des eaux usées sont conçues et construits de manière à éliminer une
quantité prédéterminée des polluants contenus dans les eaux usées brutes. La quantité de
polluant à enlever repose sur des critères standards de qualité de l'eau correspondant à la
quantité de polluant qui peut être contenue dans l'eau et ne pas avoir un impact négatif surtout
si on projette sa réutilisation. Une défaillance dans l'élimination de la quantité de polluants
requis peut signifier non seulement que l'eau ne peut pas être utilisée comme prévu mais aussi
des millions de dinars algériens perdus.
Un dysfonctionnement d'une installation de traitement des eaux usées est un problème social
et biologique délicat (Belanche et al., 1992).
L'évaluation des performances est un facteur important dans l'optique d'une réutilisation des
eaux usées traitées afin d'assurer des marges de sécurité pour le respect de la santé publique et
la protection de l'environnement. La fiabilité d'un système peut être définie comme «la
probabilité d'une performance adéquate pour une période de temps déterminée dans les
conditions de fonctionnement spécifiées » ou " le pourcentage du temps que les
concentrations des eaux usées traités et rejetées sont conformes aux exigences du permis
précisées" (Kottegoda et Rosso, 2009 ; Metcalf et Eddy, 2003). La probabilité de bonne
exécution est sensible à la fonction de distribution des concentrations de l'eau traitée à la
sortie de la station. Ainsi, afin de développer un modèle de fiabilité, la distribution des
concentrations des effluents doit d'abord être modélisée. Cette distribution de probabilité
caractérise la variabilité de la performance du traitement.
Le processus de traitement des eaux usées est un processus assez complexe et dynamique.
Selon Theilliol et al., (2003), certains facteurs doivent être pris en considération lorsque l'on
tente de mettre en œuvre un contrôle avancé en temps réel du processus :
• Le processus est variable dans le temps (Carlsson et Lindberg, 2004). Des paramètres
tels la température, la composition de l'eau entrante, la quantité de biomasse, des flux, pH,
etc.., varient au cours d'une période de temps.
2
Le recourt à l’application de techniques intelligentes pour tenter de modéliser un processus de
traitement des eaux usées reste une alternative prometteuse rendu possible avec le
développement des capacités de calculs des ordinateurs.
Les réseaux de neurones sont une technique d'intelligence artificielle qui utilise un ensemble
d'équations non linéaires pour imiter les connexions neuronales des systèmes biologiques. Ils
se sont révélés être utiles pour la reconnaissance des formes et des applications de prédiction
de résultat.
A en juger par le nombre de publications dans des revues et à des conférences, il y’a
beaucoup de chercheurs travaillant dans les domaines des réseaux de neurones et les
processus de traitement des eaux usées. Ces informations ont été glanées dans des livres de
conseils, publications dans les revues, Internet, et des actes de conférences. De nombreux
auteurs ont vues sur de nombreuses questions et de nombreux « règles empiriques »
différentes ont été proposées pour résoudre les différents problèmes pratiques de mise en
œuvre. L'expérience de l'auteur a consisté à utiliser ces règles comme des lignes directrices,
mais de résoudre de nombreux problèmes pratiques avec une expérimentation rigoureuse.
La station de traitements des eaux usées de la ville de Khenchela a pour but de traiter les eaux
usées du chef-lieu de la wilaya ainsi que sa banlieue proche. Elle a été mise en service le 20
Octobre 2008 avec une capacité de 192000 Eq. Hab, avec un débit d'effluents à traiter en
temps de pluie estimé à 23000 m3/jour.
Les travaux présentés dans cette thèse ont pour objectifs de développer des méthodes
combinées basés sur un modèle probabiliste et puis la conception d'un modèle réseau de
neurones artificiels pour prédire les taux de fiabilités et les taux de défaillances d'un procédé
de traitement des eaux usées utilisant les boues activées.
3
• Construire des modèles de réseaux de neurones artificiels pour la prédiction des taux
de défaillances
• développer les modèles pour être utilisés pour fournir une prédiction quantitative de la
performance future du procédé de traitement, et peut être les utilisés pour d'autres
stations similaires.
Pour atteindre les objectifs ci-dessus, l'étude a été organisée en sept chapitres.
Le premier chapitre présente les différents précédés de traitement des eaux usées. Une
description générale de la de la station de traitement de la ville de Khenchela est présenté dans
le deuxième chapitre.
Les différentes méthodes d’évaluation de la fiabilité d’une station d’épuration sont énumérées
dans le troisième chapitre.
La première contribution de cette thèse est détaillé dans le chapitre quatre avec l'application
du modèle probabiliste pour l'évaluation des niveaux de performances de la station. Une revue
de littérature portant sur les réseaux de neurones artificiels est consacrée dans le cinquième
chapitre.
La deuxième contribution de cette étude est partagée en deux parties, le sixième chapitre qui
se consacre à l'application des RNA pour la prédiction des taux de fiabilités du procédé de
traitement suivi d'une discussion des différents résultats.
Le septième chapitre englobe l’application des RNA pour la prédiction des taux de défaillance
des différents paramètres de qualité des eaux usées traitées.
Une conclusion générale décrit les principales conclusions et recommandations. Enfin, les
références bibliographique.
4
CHAPITRE I: LES PROCEDES DE TRAITEMENT DES EAUX USEES
I. 1 INTRODUCTION
Le rôle d'une station de traitement des eaux usées est l'élimination de la pollution jusqu'à un
niveau définie par la réglementation en vigueur pour assurer que le rejet des eaux traitées
n'affecte pas le milieu récepteur, et selon cette réglementation, les procédés de traitement sont
mis en œuvre selon plusieurs niveaux de traitements.
Les niveaux de traitement d'une station sont définis selon la succession suivante:
Les prétraitements, le traitement primaire et le traitement secondaire. Lorsque l'eau traitée est
être rejetée en milieu particulièrement sensible, un traitement tertiaire est nécessaire.
Une station d’épuration comporte généralement une phase de prétraitement, pendant laquelle
les éléments les plus grossiers sont éliminés par dégrillage (pour les solides de grandes
tailles), puis par flottaison/décantation (pour les sables et les graisses). Vient ensuite un
traitement dit primaire, une décantation plus longue, pour éliminer une partie des MES. Des
traitements physico-chimiques et/ou biologiques sont ensuite appliqués afin d’éliminer la
matière organique. Ils sont généralement suivis d’une phase de clarification qui est encore une
décantation. Enfin, un traitement des nitrates et des phosphates est exigé en fonction de la
sensibilité du milieu récepteur. Il existe également des traitements dits extensifs, comme le
lagunage, qui combinent des traitements biologiques, physiques et naturels.
I.2 PRETRAITEMENTS
Les eaux usées brutes à leur arrivée à la station doivent généralement subir, un prétraitement
qui composé d'un certain nombre d'opérations successives, uniquement physiques ou
mécaniques. Il est destiné à extraire de l'eau usée, la plus grande quantité possible d'éléments
dont la nature ou la dimension constitueront une gêne pour les traitements ultérieurs. Selon la
nature des eaux à traiter et la conception des installations, le prétraitement peut comprendre
les opérations : (le dégrillage), principalement pour les déchets volumineux, (le dessablage)
pour les sables et graviers et (le dégraissage-déshuilage ou d’écumage-flottation) pour les
huiles et les graisses.
I.2.1 Dégrillage
Lors de l'opération de dégrillage, les eaux usées passent au travers d'une grille dont les
barreaux, dont l'espacement est déterminé de sorte qu'il puisse retenir matières grossières les
plus volumineuses et flottantes charriées par l'eau brute, qui pourraient nuire, obstruer ou
provoquer des bouchages dans conduites d'alimentation de l'installation, et nuire à l'efficacité
5
de la station. Le dégrillage permet aussi de protéger la station contre l'arrivée intempestive des
gros objets, les éléments retenus sont, ensuite, éliminés avec les ordures ménagères.
Cette opération est effectuée avant le poste de relevage afin de protéger les pompes ou les vis
d’Archimède et de ne pas gêner leur fonctionnement.
Les grilles peuvent être verticales, mais sont le plus souvent inclinées de 60° à 80° sur
l’horizontale (Dufournet, 1974), l'espacement est définis comme suit:
Espacement Rôle
Pré-dégrillage (dégrillage 40-150 mm Empêcher que les bûches et les gros débris
grossier) lourds d'entrer dans les procédés de
traitement. Principalement utilisé dans le
poste d'arrivage des eaux brutes avant le
poste de relevage
Dégrillage moyen 6-75 mm Pour éliminer les grosses matières solides, les
chiffons et les débris. Généralement utilisé
dans les stations d'épuration.
Les pompes à vis (Vis d'Archimède) peuvent pomper une variété des eaux usées brutes
contenant des solides et des débris. L'un des avantages majeurs de ces pompes est la
variabilité du débit de pompage à une vitesse constante, puisque le niveau d'eau dans le
puisard est le facteur qui influence sur les performances de pompage. Les opérateurs
constatent qu'une fois installées, les pompes à vis d'Archimède sont rarement victimes de
problèmes de défaillances (Garbus, 2006).
6
I.2.3 Dessablage
Le dessablage a pour but d'extraire des eaux brutes les graviers, les sables, les verres brisés,
les coquilles d'œufs, et les particules minérales plus ou moins fines ayant une vitesse de
sédimentation sensiblement supérieure à la matière organique. Le dessablage est prévu pour
protéger les équipements mécaniques à l'abrasion et à l'usure, de réduire la formation de
dépôts dans les canalisations et les canaux, et de réduire la fréquence de nettoyage du
digesteur qui est nécessaire en raison des particules accumulés.
Dans un dessableur à flux horizontal, pour assurer l'élimination des grains et empêcher que la
matière organique se dépose, trois conditions doivent être remplies (Steel et McGhee, 1979) :
Des recherches ont révélés que la gamme de densités des grains de sable est de l'ordre de 1,1 à
2,7 (Metcalf & Eddy, 2003). En outre, il est reconnu que la graisse et autres matières
organiques fréquemment recouvre le grain de particules inorganiques. Ainsi, ni la densité, ni
la taille d'une particule de grain ne peut être décrite en termes d'un grain de sable seul. Une
mesure plus réaliste appelé la taille équivalente de sable (TES) est préféré (Wilson et al.,
2007a ).
La vitesse d'eau à travers le fond du bassin est influencée par la taille des particules et la
densité des particules qui vont se déposer (Albrecht, 1967 ; Sawicki, 2004). L'action de
roulement induit par les diffuseurs d'air est indépendante du débit de transit. La vitesse de
diffusion de l'air et de la forme du bassin régit la vitesse du rouleau. Les particules sont
déplacées par l'écoulement en spirale vers le fond de la cuve.
Le sable est extrait soit mécaniquement ou par raclage vers un poste de réception, puis repris
par pompage, soit directement par pompe suceuse montée sur pont roulant.
Les avantages et les inconvénients du dessableur aéré sont résumés dans le tableau ci-dessous.
7
Tableau n° 2: Avantages et inconvénients des dessableurs aérés (WEF, 1998 ; Spangler, 2006)
Avantages Inconvénients
Bien qu'il n'y ait pas d'arguments formels pour l'efficacité requise de dessablage,
généralement il a été supposé qu'un dessableur aéré fonctionne correctement devrait
supprimer 100 % de la fraction de sable supérieur à 200 µm de diamètre et 65 à 75 % de la
fraction de sable entre 100µm et 200µm. En outre, la teneur en matière organique du grain
capturée ne devra pas dépasser 10% (Imhoff et Imhoff, 2007).
8
Néanmoins, certains rejets industriels (abattoirs, laiteries...) peuvent élever ces valeurs à 300-
350 mg/L.
Les huiles et graisses, lorsqu’elles ne sont pas émulsionnées, sont séparées sous forme de
boues flottantes dans des ouvrages comportant une zone d’aération où les bulles d’air
augmentent la vitesse de montée des particules grasses et une zone de tranquillisation où
s’effectue la récupération.
Le temps de séjour dans ce type d’ouvrage est de 5 à 12 min. Le débit d’air insufflé est de
l’ordre de 0,2 m3 par mètre cube d’eau et par heure.
Le plus souvent, les fonctions de dessablage et de déshuilage sont combinées dans un même
ouvrage qui met en œuvre les principes de fonctionnement cités précédemment (Gaïd, 1993).
Le dépôt des matières solides au fond d'un ouvrage appelé "décanteur" produit boues
"primaires". Le raclage des boues s'effectue au moyen d'un racleur de fond entrainé par
chaines qui les ramène vers 1 ou 2 trémies. Avec un décanteur classique ou lamellaire sur des
eaux domestiques, le pourcentage de matières totales en suspension éliminées est de 50 à 65
%, celui de la DBO5 éliminée est de 20 à 35 % (Gaïd, 1993).
9
I.3.2 Elimination de la pollution colloïdale
Dans certaines conditions, le traitement primaire simple est insuffisant. L'amélioration du
rendement d'épuration de la décantation se fait alors par ajout de réactifs de coagulation
floculation. Pour certains effluents industriels, la flottation peut être utilisée.
Les principaux coagulants minéraux utilisés en eaux résiduaires urbaines sont le sulfate
d'alumine, le chlorure ferrique. Les floculants organiques les plus employés sont des
polymères synthétiques de haut poids moléculaire. En général, des essais de laboratoire sont
indispensables pour sélectionner le ou les réactifs à utiliser (Jar-test).
Les techniques utilisées sont extrêmement diverses. Elles vont d'appareils directement
extrapolés des décanteurs primaires (décanteur-floculateur) à des appareils plus complexes et
plus performants.
Les performances dépendent très largement de la composition des eaux brutes du choix et du
dosage des réactifs. On obtient en moyenne une réduction de (Sadowski, 2002):
• DBO5 : 70 à 80 %;
• MES : 90 %.
Ces traitements sont généralement utilisés dans les stations d’épuration de grande capacité,
ou dans celles ayant à faire face à de grandes variations de charge dans l’année (zone
touristique). La séparation du floc a lieu pendant la phase de clarification (décantation
secondaire). Les procédés les plus modernes utilisent du micro sables injectés dans l’effluent
afin d’accélérer la décantation des flocs. On parle alors d’élimination à flocs lestés (Lazarova
et al., 2003).
La dégradation peut se réaliser par voie aérobie (en présence d’oxygène), pour les eaux usées
et en anaérobie (en l’absence d’oxygène) pour le traitement des boues.
10
Le traitement biologique classique des eaux domestiques s’effectue par voie aérobie, qui
consiste à dégrader les impuretés grâce à l’action d’une biomasse épuratrice, à laquelle doit
être fourni l’oxygène nécessaire à son développement (Gaïd, 1993).
Selon (Faby et Brissaud, 1997), une épuration biologique (boues activées, puis bassin de
clarification) permet d’éliminer 90 % des virus, 60 à 90 % des bactéries, mais par contre a peu
d’effet sur les kystes de protozoaires et les œufs d’helminthes. Selon (Rowe et Abdel Magid,
1995 ; Asano, 1998) un traitement par boues activées élimine 90 % des bactéries entériques,
80 à 99 % des entérovirus et des rotavirus. L’élimination a lieu grâce à la sédimentation des
MES, la compétition avec les micro-organismes non pathogènes et la température ; la part la
plus importante est due à la sédimentation.
Les micro-organismes, les plus actifs, sont les bactéries qui conditionnent en fonction de leur
modalité propre de développement, deux types de traitements :
Le lit bactérien est le plus ancien procédé à biomasse fixée est le lit bactérien. La biomasse est
fixée sur un matériau de grosse granulométrie (3 à 8 cm) sur lequel percole l’effluent à traiter.
L’air est transféré par diffusion à travers le film d’eau ruisselant à la surface du matériau. Une
vitesse hydraulique suffisante, assurée par un recyclage d’eau traitée, permet l’évacuation des
boues en excès qui sont séparées de l’effluent traité dans un ouvrage de décantation situé en
aval (Gaïd, 1993).
11
Le principe du disque biologique consiste en l'utilisation de disques tournant autour d'un axe
horizontal et baignant en partie dans l'eau à traiter. De par la rotation, la biomasse fixée sur les
disques se trouve alternativement en contact avec l'eau à traiter et l'oxygène de l'air.
La vitesse de rotation de ces disques (1 à 2 tours par minute) ne permet pas de générer des
énergies de circulation capables de maintenir en suspension des matières solides. Le risque de
dépôts en fond de bassin oblige donc à un prétraitement de l'eau brute par décantation
primaire et empêche la recirculation de la boue.
Les disques sont réalisés en polystyrène, PVC ou feuilles de polyéthylène, leur diamètre est
généralement compris entre 2 et 3 m. Les disques utilisés sont plats ou présentent des
ondulations ou une rugosité créée par des reliefs de façon à accroître la surface de fixation de
la biomasse. Ils sont espacés de 2 à 3 cm et leur vitesse de rotation est de 1 à 2 tours par
minute. Les surfaces développées sont de 150 à 200 m2/m3 de disque (Sadowski, 2002).
Pour cela, on utilise un bassin brassé, pour conserver en suspension la culture, dans lequel est
maintenue. Dans ce bassin, le brassage a pour but d'éviter les dépôts et d'homogénéiser le
mélange des flocons bactériens et de l'eau usée (liqueur mixte) ; l'aération peut se faire à partir
de l'oxygène de l'eau, du gaz enrichi en oxygène par (le brassage, l’injection d’air comprimé,
voire même d'oxygène pur), a pour but de dissoudre ce gaz dans la liqueur mixte, afin de
répondre aux besoins des bactéries épuratrices aérobies.
Après un temps de contact suffisant, les bactéries épuratrices disposent d'un temps d'action
suffisant appelée "temps de contact", ensuite la liqueur mixte est envoyée dans un
clarificateur appelé parfois décanteur secondaire, pour séparer l'eau épurée des boues. Une
partie de ces dernières sont recyclées dans le bassin d'aération pour y maintenir une
concentration suffisante en bactéries épuratrices.
L'excédent (boues en excès) est extrait du système et évacué vers la filière de traitement des
boues.
12
I.4.2.3 Le lagunage
La technique de traitement des eaux usées par lagunage se sert des mécanismes naturels de
l’environnement où l’eau est épurée par des communautés de micro-organismes variés.
L’épuration par lagunage naturel repose sur la présence de bactéries aérobies en cultures
libres et d’algues. L’oxygène nécessaire à la respiration bactérienne est produit par des
végétaux en présence du rayonnement solaire. Les bactéries présentent dans le système
consomment la pollution dissoute dans l’eau pour respirer. L’oxygène est produit grâce aux
mécanismes photosynthétiques des algues qui poussent et se développent grâce aux engrais
qu’apportent les eaux d’égout (Racault et al., 1997).
Le lagunage aéré permet d'épurer des rejets peu chargés en matières en suspension dans des
bassins de 2 à 3 m de profondeur. Comme il n'y a pas de recirculation de boues à partir d'un
clarificateur, il se crée un équilibre entre l'apport de pollution biodégradable et la masse de
bactéries qui se développe à partir de cette pollution. Les dispositifs d'aération sont calculés
sur la base des besoins en oxygène. Compte tenu des grands volumes mis en jeu, les
puissances spécifiques appliquées sont faibles (2 à 5 W/m3) ce qui se traduit par une
décantation des bactéries au fond des bassins où elles forment un dépôt (Sadowski, 2002).
Il simule, en l’amplifiant, l’action auto-épuratrice des étangs ou des lacs. Associés aux
systèmes conventionnels de traitement secondaire, ils constituent aussi d’excellents dispositifs
tertiaires aptes à réduire les risques liés aux micro-organismes pathogènes.
I.4.2.4 Filtration/percolation
La filtration ou percolation consiste à traiter l’eau par l’intermédiaire du sol ou d’un massif
filtrant (Vasel, 2007). On filtre les effluents à raison de quelques centaines de litres d’effluent
par mètre carré de massif filtrant et par jour. Deux mécanismes entrent en jeu :
1) La filtration des MES : plus le sable est grossier, plus la fixation des MES se fera en
profondeur. Les MES finissent par colmater le filtre. Pour lutter contre le bouchage du massif
filtrant, il faut donc alterner phase de filtration et phase de séchage, l’élimination des MES
permet également l’élimination des micro-organismes qui y sont fixés ;
2) L’adsorption des bactéries libres par les grains de sable du filtre : il se forme alors un film
biologique contaminé, surtout dans la partie supérieure, ce film va permettre une dégradation
microbienne de la matière organique et des substances dissoutes dans l’effluent (phosphates,
nitrates, etc.). Cette dégradation consomme de l’O2 et produit du CO2, il faut donc aérer
régulièrement le film pour éviter l’asphyxie du milieu.
Plusieurs chercheurs proposent une épuration par les procédés de type extensif qui sont des
systèmes d’épuration d’eaux usées par voie naturelle (ou zones humides artificielles), dont le
plus connu est le lagunage à microphytes et à macrophytes (bassin de stabilisation, bassin
facultatif ou bassin de maturation). Ce système est expérimenté depuis la première moitié du
siècle sous climat tempéré et présente de nombreuses possibilités d'adaptation au climat des
pays en développement qui est généralement chaud et donc favorable à l'activité bactérienne
dont dépend son bon fonctionnement. Ces stations d'épuration par voie naturelle sont
nombreuses, mais elles ne sont pas souvent connues du grand public. Leur principe de
fonctionnement s'inspire de celui des écosystèmes rencontrés dans les zones humides
naturelles (Radoux, 1989).
14
L'azote présent dans les rejets domestiques est essentiellement d'origine urinaire. Il est apporté
pour près des 3/4 par l'urée qui s'hydrolyse rapidement pour donner NH4 en présence d'une
enzyme qui est l'uréase. Les bactéries qui possèdent cette enzyme sont en abondance dans les
égouts. Par contre, les formes oxydées de l'azote (NO2, NO3) seront toujours en faible
concentration, inférieure en général à 1 mg/l, en entrée de station. En plus de NH4, les eaux
résiduaires contiennent dans des proportions variables de l'azote organique. On rappellera que
l'azote total Kjeldahl ou NTK est la somme de l'azote organique et ammoniacal exprimée en
N. (Les nitrites (NO2) et les nitrates (NO3) ne sont pas pris en compte par ce dosage).
Les sels de fer ou d’aluminium sont également capables de se combiner avec les ions
phosphate pour former un précipité de phosphate de fer ou d’aluminium (FePO4ou AlPO4).
1,8 à 5,4 g de Fe soit, exprimé par exemple en FeCl3 pur, de 5,2 à 15,7 g ou 0,87 à 2,61 g d’Al
soit, exprimé en sulfate d’alumine, de 9,3 à 28 g de produit commercial [Al2(SO4)3, 18 H2O].
15
La précipitation chimique du phosphore peut se réaliser à plusieurs étapes dans la filière de
traitement :
Les principaux composés odorants rencontrés dans les stations d’épuration font partie
essentiellement des familles des produits soufrés et azotés, ainsi que des composés organiques
tels les acides gras volatils. Pour éviter la propagation des mauvaises odeurs émises aux
différents postes de traitement, il convient d’isoler les sources odorantes dans des enceintes
hermétiques. La couverture complète de tous les ouvrages est la technique la plus adaptée
avec, en plus, un souci d’intégration au site. La couverture du poste de relevage, des
prétraitements et de la filière de traitement des boues reste toutefois suffisante dans la plupart
des cas. Après confinement, les odeurs doivent être évacuées par ventilation forcée et les
composants odorants traités (Gaïd, 1993).
Trois produits ont été testés pour la désinfection d'eaux résiduaires urbaines : le chlore, le
dioxyde de chlore et les permanganates de potassium (Spellman, 2003).
Le chlore présent dans l'eau sous forme ionique pénètre dans la cellule après une altération de
la membrane cytoplasmique, réagit avec les acides aminés et enzymes et bloque ainsi le
16
métabolisme du glucose. La membrane étant altérée et ne pouvant plus assurer sa "production
d'énergie", la cellule meurt.
Le dioxyde de chlorure est un réactif très instable et doit être fabriqué sur place à partir de
l'oxydation de chlorites (ClO2-) par le chlore. Il est alors injecté dans l'eau sous forme gazeuse
ou liquide.
Le chlorure de brome est livré sous forme de liquide pressurisé. Sa vaporisation s'effectue à
température ambiante. Il est injecté sous forme gazeuse (Sadowski, 2002).
Les désinfections utilisant des produits chimiques sont efficaces, sauf contre les
Cryptosporidium. Il a été montré que des kystes de Cryptosporidium pouvaient résister à des
traitements à pH = 11,2, à la chloration et à d’autres traitements chimiques (Rose et al, 1999).
Cependant, la plus grande partie des kystes de Cryptosporidium sont éliminés pendant les
phases primaires de décantation et coagulation/floculation. Par ailleurs, il faut trouver
l’équilibre entre le risque posé par les désinfectants en eux-mêmes, et le risque lié aux
microorganismes pathogènes (Asano et Levine, 1995). C’est essentiellement le cas pour le
chlore dont l’utilisation crée des dérivés halogénés potentiellement cancérigènes. Pour les
ultraviolets, ce problème ne se pose pas. Leur action sur les virus et les coliformes fécaux est
bonne. Seules les formes de résistances, comme les œufs d’helminthes, ne sont pas trop
affectées (Cauchi et al, 1996).
Le traitement de désinfection par les rayons UV est plus économique et pose moins de
problèmes de toxicité que le chlore. Il est largement utilisé dans les moyennes et grandes
stations (Metcalf & Eddy, 2003.).
17
La déshydratation constitue souvent l’étape ultime de la filière de traitement des boues:
Une siccité minimale peut en effet être imposée contractuellement (généralement > 30 %) en
vue de l’évacuation de la boue ou être requise en vue d’une incinération dans des conditions
d’auto combustibilité.
Les principaux débouchés des boues produites par les stations d'épuration restent la possibilité
d'une valorisation agricole (Gaïd, 1993).
I.7 CONCLUSION
Les différents constituant d'un procédé de traitement des eaux usées à fait l'objet d'une
présentation sommaire.
Grâce aux développements des procédés de traitements, la production des eaux usées issue de
l'activité humane, n'est plus un problème, mais une source alternative pour une récupération
des eaux traitées afin de les réutiliser pour répondre aux besoins croissant dans l'agriculture et
l'industrie.
18
CHAPITRE II: DESCRIPTION GENERALE DE LA STATION
D'EPURATION DE LA VILLE DE KHENCHELA
La station de traitement des eaux usées municipale de la ville de Khenchela est située à 2,5
Km au Nord de la ville et à une l'altitude de 1045m dans la vallée d'OUED BOUGHEGAL.
• Latitude : N 35°27'37.11"
• Longitude : E 7° 8'55.06"
La station s'étend sur une superficie de 8 hectares (Hydro Projet Est, 2005). La figure 1
représente un aperçu général de la station d'épuration de la ville de Khenchela
19
Figure 1: Aperçu général de la station d'épuration de la ville de Khenchela.
20
• Un Poste de recirculation et extraction des boues comprenant chacun trois
pompes de recirculation d'une capacité unitaire de 720 m3/h en amont du bassin.
• Un épaississeur gravitaire équipé de deux pompes volumétriques (pompe à rotor
excentré) pour l'extraction et le refoulement vers les lits de séchages.
• Huit lits de séchage solaire (Hydro-projet Est, 2005).
Tableau 5:Choix du procédé de traitement selon la qualité de rejet conforme aux normes
Algériennes (Hydro Projet Est, 2005).
21
Tableau 6:Caractéristiques du dégrillageur grossier (Hydro Projet Est, 2005)
Tableau 7:Caractéristiques du poste de relevage des eaux usées (Hydro Projet Est, 2005).
22
Tableau 9: Caractéristiques du dessableur-déshuileur aéré (Hydro Projet Est, 2005).
Remarque: Le système d’aération pour la flottation des graisses est constitué de suppresseurs
et diffuseurs, l'extraction de sable est réalisée par des pompes de reprise.
Remarque: L’aération des bassins est assurée par des agitateurs (aérateur de surface).
23
II. 3 SCHEMA GENERAL DU PROCEDE DE TRAITEMENT
Le schéma général du procédé de traitement des eaux usées de la ville de Khenchela (type
boue activée) est présenté sur la figure 2 (ci-dessous).
Figure 2: Schéma général de la filière de traitement des eaux usées de la station de Khenchela.
24
CHAPITRE III: ETUDE DE LA FIABILITÉ D'UNE STATION DE
TRAITEMENT DES EAUX USEES
III. 1 INTRODUCTION
Qu'est-ce qu'une norme de performance que la réglementation signifie?
Par exemple, si une norme de rejet des effluents traités est fixée à 20 mg/L, est-ce que cela
signifie-t-il que le système de traitement devrait respecter cette norme tout le temps? La
moitié du temps? Quatre-vingt-dix-neuf pour cent du temps?
L'étude de la fiabilité fournit le langage et les concepts pour répondre à ces questions et
d'autres au sujet de la performance d'un système de traitement des eaux usées.
La fiabilité des composants spécifiques d'un système de traitement des eaux usées est
essentielle pour la protection de la santé humaine et du milieu récepteur, cette tâche n'est
garantie que par le respect des normes légales de rejet.
Les outils de fiabilité aident aussi à améliorer la conception initiale de nouveaux systèmes,
aident les opérateurs dans la résolution des problèmes quotidienne rencontrés durant
l'exploitation, et fournissent aux dirigeants et les organismes de réglementation des
informations essentielles pour diagnostiquer les points sensibles et / ou de localiser les partie
du procédé de traitement nécessitant une amélioration appropriée. Les outils présentés dans ce
chapitre permettent d'explorer chacun de ces domaines. Ces outils ont été testés dans des
applications de la vie réelle, et la plupart ont été appliquées dans les applications de traitement
des eaux usées.
Il est important de noter que la suite d'outils présentés dans ce chapitre est une sélection de
deux méthodes utilisées dans l'industrie de traitement des eaux pour évaluer la fiabilité de ces
systèmes.
25
Dans cette section, les normes de rendement utilisées comme exemples sont établis, et
plusieurs outils sont décrits qui peut être utilisé pour déterminer si les systèmes répondent à
ces normes.
Combien de systèmes de traitement des eaux usées ne parviennent plus à assurer son rôle dans
un an? Combien de composants s'usent après un certain temps de service et, si oui, quelle est
leur durée de vie utile ? Quel est le rôle du manque d'entretien régulier des systèmes de
traitement des eaux usées dans les taux d'échec ?
Une courbe de défaillance illustre le nombre d'unités (systèmes ou composants) dans une
population qui ne parviennent pas à un moment donné de la durée de vie de cette population,
et il donne par la probabilité de défaillance. Une fois les attributs de base des courbes de
défaillance sont établis, alors le temps moyen de fonctionnement avant panne (MTTF), le
temps moyen entre pannes (MTBF) et d'autres mesures potentiellement utiles peuvent être
facilement calculés.
Les courbes de défaillance sont tracées par l'analyse de données actualisées des échecs, les
données requises pour chaque échec sont, au minimum, des informations sur le moment où
l'appareil a été installé, quand il a échoué (si jamais). D'autres informations supplémentaires
sur l'unité pourraient également être importantes. L'information supplémentaire contribue à
définir le groupe d'unités devant être analysés. Par exemple, Hudson (1986) soutient que le
lieu et la date de la construction du système (et donc la réglementation en vertu de laquelle le
système a été conçu et construit), ainsi que le type de sol sur lequel le système est installé,
donnent un pouvoir prédictif suffisant pour le taux d'échec.
Hudson (1986) affirme que l'ajout de plusieurs variables à la définition d'un groupe augmente
la complexité des calculs, et ainsi augmente le pouvoir prédictif de l'analyse.
Les changements technologiques depuis les travaux d'Hudson en 1986 peuvent le rendre plus
attractif d'utiliser plusieurs variables dans la définition d'un groupe. Les progrès dans le
matériel et les logiciels permettent de réaliser des calculs compliqués pour réaliser une
prédiction du taux d'échec. Une grande variété de systèmes de traitement a été utilisée, et ils
peuvent avoir sensiblement différentes courbes de défaillance.
Il n'y a pas de moyens généralement reconnus pour définir un groupe des systèmes de
traitement des eaux usées à des fins d'analyse de la courbe de l'échec. Si des informations
détaillées telles que le type du système, le nom du concepteur, le nom de l'installateur, la
fréquence d'entretien, ou d'autres informations est associé à d'autres données sur chaque
système, il devient alors possible d'effectuer des analyses pour savoir si chaque facteur à un
26
effet significatif sur le rendement du système de traitement et par conséquent peut être inclue
dans la définition du groupe. Sans informations sur les modes de défaillance.
Dans toutes ces courbes de défaillance, l'axe des abscisses représente le temps et l'axe des
ordonnées représente la probabilité conditionnelle de l'échec.
27
conséquences élevés d'échec, le point de référence clé pour les tâches de maintenance
de planification est la longueur de la durée de vie utile.
• Modèle C a une probabilité de plus en plus régulière d'échec, sans aucune fin précise
de durée de vie utile. Il peut être associé à la fatigue du matériau. La pente, qui peut
varier aura une forte influence sur la stratégie de maintenance choisi.
• Modèle D est similaire au modèle C, sauf qu'il ya une brève période de très faible
probabilité de défaillance précoce dans la vie de l'unité.
La forme de la courbe de défaillance permet de déterminer lequel des mesures peuvent donner
des informations importantes. Le temps moyen entre pannes (MTBF) est une mesure
couramment discuté. Cette mesure peut donner des informations importantes sur la durée de
vie utile d'une unité qui présente un modèle d'échec suivant le modèles A ou B. Par
conséquent, les unités peuvent être ciblées pour des interventions (remplacement, des
inspections plus fréquentes, ou d'autres mesures) au moment où l'usure de l'groupe des
composants du système comment à se manifester.
Pour les unités conformes aux autres modèles, qui n'ont pas un temps distinct d'usure, le
temps moyen entre pannes (MTBF) ne donne pas d'information utile sur le moment
d'accélérer les interventions. Le temps moyen entre pannes (MTBF) peut toutefois encore être
utile dans le cycle de vie des calculs de coûts (Moubray 1997).
Hudson (1986) identifie un éventail de méthodes de prévision des taux d'échec. La méthode la
plus simple, "vielle ux est inacceptable», implique un état 100% réussi pour les systèmes
28
installés avant une certaine date et nécessite le remplacement de tous les systèmes plus
anciens. Comme le souligne Hudson (1986), l'application de cette méthode peut conduire à
une meilleure efficacité des systèmes remplacés.
Selon la complexité du système de traitement étudié, une "Analyse statistique complète" peut
mettre en évidence que d'autres modèles sont disponibles.
L'analyse statistique complète nécessite plus de données et une maitrise des outils statistiques
pour aboutir à d’autres méthodes de prévision.
Tableau 11: Nombre de stations construit et nombre de stations en service à la fin de chaque
année d'exploitation (Hudson, 1986)
Année de mise en service 1975 1976 1977 1978 1979 1980 Total
Systèmes en service 10 8 17 22 5 12 74
A partir des informations ci-dessus, Hudson construit un tableau indiquant le taux d'échec de
chaque année de service (tableau 12).
29
Tableau 12: Tableau récapitulatif du taux d'échec (Hudson, 1986).
Un graphique de la probabilité conditionnelle de l'échec (le taux d'échec de chaque année) est
présenté sur la figure 4.
0.09
0.08
Taux de défaillance
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0
1 2 3 4 5 6
Année de service
L'analyse de la courbe n'est pas aussi claire que les modèles de courbe de défaillance (modèle
A et F) présenté à la figure 3. Avec 74 systèmes et après 6 ans de service, on constate que la
population est trop petite et/ou le temps d'observation est trop court pour permettre la
détermination de la forme de la courbe de l'échec.
Pour répondre à la question pour les données au cours de cette courte période de temps de
service, Hudson (1986) demande si le taux d'échec moyen est supérieur au cours des trois
premières années d'exploitation qu'au cours des trois dernières années d'exploitation.
30
Le taux d'échec lors des trois premières années d'exploitation est le nombre de défaillances au
cours de cette période divisée par le nombre des systèmes en services:
6 +3+ 4
= 0,066 = 6,6%
74 + 68 + 55
Utilisant le même procédé pour déterminer le taux d'échec des trois dernières années
d'exploitation:
1+ 2 + 0
= 0,034 = 3,4%
46 + 28 + 13
Un taux de d'échec 6,6% lors des trois premières années d'exploitation est plus élevé que le
taux d'échec de 3,4% des trois dernières années d'exploitation. Même un taux d'échec
apparemment deux fois plus élevé pendant la première moitié de la durée de service que la
deuxième moitié n'est pas statistiquement significatif avec cette petite quantité de données.
Cette absence de signification statistique montre l'importance d'inclure un grand nombre
d'années d'exploitation dans l'étude pour assurer un échantillon de taille suffisante pour les
tests statistiques
La signification statistique est plus facile à réaliser avec de plus grandes quantités de données,
mais il est également important de voir comment les échantillons sont distribués. Pour une
étude statistique significative, il est important d'avoir accès aux grandes bases de données
(Groves et al., 2005; Converse et Nordheim,2004).
La notion de fiabilité peut être employée pour prévoir l'efficacité d'un processus de
traitement des eaux usées, que ce soit en phase de conception ou en exploitation a été
développée par Niku et al. (1979) qui ont appliqué le concept de fiabilité pour évaluer
l'efficacité de 37 stations de traitement des eaux usées aux USA utilisant le procédé de boue
activée pour former une base de corrélation statistique.
L'analyse des données avait eu la conclusion que la distribution log-normale la DBO5 et les
MES pour l'effluent d'entrée. Cette distribution peut être employée pour prévoir l'efficacité,
la qualité de l'eau traitée, et la fiabilité des stations de traitement des eaux résiduaires.
III.4.1 Concept de fiabilité dans une station de traitement des eaux usées
Les principes fondamentaux de la technologie de fiabilité peuvent être appliqués à la
quantification de la probabilité que les événements indésirables peuvent se produire. En
conséquence, l'analyse de la fiabilité des équipements de traitement des eaux résiduaires
permet à l'ingénieur d'exploiter la structure statistique des données des effluents a l'entrée et à
la sortie de la station en prévoyant la probabilité des événements indésirables.
31
La nature variable des caractéristiques des eaux usées, et de leurs qualités pendant le cycle de
vie, ainsi que la conception de la station, peut résulter en fluctuations des efficacités prévues
lors de la conception. Cependant, viser des niveaux de rejet des effluents devraient être
choisis ont se basant sur la probabilité admise de réaliser uniformément ces derniers valeurs
(Ellis et al., 1993).
Mathématiquement, une installation de traitement est complètement fiable s'il n'y a aucun
échec dans le processus d'épuration (par exemple, violations des normes de rejet). L'échec
d'un processus de traitement est mentionné quand les normes de rejet de la station d'épuration
dépassent les normes de rejet standard mentionnées par la législation en vigueur. (Niku et al.,
1979) a simplifié l'échec par l'équation suivante :
E = Csortie > CNormes rejet
E: échec (défaillance)
Csortie: concentration des différents paramètres physico-chimiques de l'eau rejetée après
traitement
CNormes rejet: normes légales de concentration des différents paramètres physico-chimiques
pour qu'une eau soit rejetée dans le milieu naturel.
Dans une définition technique, le concept essentiel de la fiabilité est la « probabilité de
succès » ou la « probabilité d'exécution proportionnée », qui est le pourcentage de temps que
la concentration des eaux rejetées répond aux exigences légale (Niku et al., 1979) :
M = 1 - P(E)
Où:
M = Maintenabilité
La valeur de M est égale à:
III.4.2 Evaluation de la fiabilité d'une station de traitement des eaux usées par la
méthode du coefficient de fiabilité (C.d.F)
La fiabilité d'une station de traitement est basée sur la connaissance du comportement du
processus. (Niku et al., 1979) a réalisé une analyse des données de 37 stations de traitement
des eaux usées et a abouti à la conclusion suivante:
32
Pour les paramètres de DBO5 et les MES de l'effluent à l'entrée de la station, la distribution
est le choix adéquat pour modéliser ces paramètres, et donc, la distribution log-normale peut
être utilisé pour prédire la performance de la qualité des effluents et la fiabilité des
installations de traitement des eaux usées.
En raison des variations dans les performances de la qualité des effluents, une station de
traitement doit être conçu respecter une concentration moyenne de l'effluent en dessous des
normes de rejet. La question est, quelle valeur moyenne garantit une concentration de
l'effluent constamment inférieur à une norme avec une certaine fiabilité?
Le coefficient de fiabilité peut être introduit en relation avec le rapport des valeurs moyennes
(valeur de dimensionnement) à la norme de rejet qui doit être réalisé sur une base de
probabilité. Par exemple, pour 90% du temps de fonctionnement du procédé de traitement, le
procédé doit être conçu pour atteindre une valeur moyenne mx obtenue à partir de l'équation
suivante:
mX = (CdF) × C NR
Avec:
{ }
m X = (Cv 2 + 1)1 / 2 × Exp - Z1-α × [ ln(Cv 2 + 1)]1/2 × (C NR )
Avec:
{
CdF = (Cv 2 + 1)1 / 2 × Exp - Z1-α × [ ln(Cv 2 + 1)]1/2 }
Le coefficient de fiabilité CdF rapporte la valeur moyenne mx constituant le niveau de fiabilité
du paramètre de qualité X. pour un niveau de (1-α), on note que CdF est exprimé en fonction
des propriétés des données et non pas du logarithme des données. Deux paramètres
statistiques sont utilisés dans la détermination du coefficient de fiabilité:
2. Les centiles Z1-α de la distribution normale : c’est le nombre de l’écart type par le
quel X diffère de la moyenne
33
m
ln X × (Cv 2 + 1) −1 / 2
C
Z 1−α = − NR
[ 2
ln(Cv + 1) ]
1/ 2
Les différentes valeurs des percentiles pour une distribution normale standard sont
représentées dans le tableau 13.
34
Tableau 13: Valeurs des centiles d'une distribution normale standard (Niku et al., 1981)
99.9 3.090
99 2.326
98 2.054
95 1.645
92 1.405
90 1.282
80 0.842
70 0.525
60 0.253
50 0
Les valeurs du coefficient de fiabilité (CdF) pour les concentrations des effluents pour les
différents coefficients de variation à différent niveaux de fiabilité sont présentées dans le
tableau 14.
Tableau 14: Coefficient de fiabilité (CdF) en fonction du coefficient de variation (Cv) et du taux
Les valeurs présentées dans le tableau 14 peuvent être utilisées dans la conception d’une
station de traitement prévu pour des niveaux de fiabilité données.
Le coefficient de variation de concentration des effluents (Cv) doit être estimé selon une
sélection de la valeur raisonnable de performances souhaitées.
Pour avoir une fiabilité de 95%, la concentration de la DBO5 devra être inférieur à une
certaine concentration CNR, lorsque le coefficient de variation (Cv) de la station est estimé à
0,70, la station doit être conçu pour une valeur moyenne égale ou inférieure à 0,43xCNR.(si
35
par exemple on a la concentration de norme de rejet CNR = 30mg/l), alors on obtient la
moyenne DBO5 = 0,43x30 = 12,9 mg/l, même pour une norme moins strict CNR = 40mg/l, la
moyenne de la DBO5 devra être inférieur a la valeur suivante (0,43 x 40 = 17,2 mg/l ).
L'un des problèmes commun aux stations de traitement des eaux résiduaires est que
l'efficacité des systèmes n'est pas toujours au niveau prévu lors de la conception (Drakatos et
al., 1992).
Selon (Metcalf et Eddy, 2003) ce problème est du a plusieurs facteurs affectant l'exécution
est principalement, du a trois catégories de variabilité:
1. La variabilité des débits des eaux usées et de leurs caractéristiques;
2. La variabilité inhérente dans un processus de traitement de l'eau usée ou fiabilité
inhérente;
3. La variabilité provoquée par les pannes mécaniques.
36
III.6 NORMES DE REJET DES EAUX USEES EN ALGERIE
L’eau usée traitée, récoltée à l'aval des systèmes d'assainissement urbains représente une eau
renouvelable non conventionnelle, qui pourrait être une source attrayante et bon marché à
employer en agriculture, au voisinage des centres urbains (Vasel, 2007). Toutefois, en raison
de la nature variable de la composition de cette eau (sa charge en constituants minéraux,
organiques et biologiques); sa réutilisation devrait être gérée soigneusement, surveillée et
contrôlée par des spécialistes, afin d'éviter les risques et menaces potentiels sur les usagers, le
sol et les cultures irriguées, ainsi que sur l'environnement dans son ensemble (Blumenthal,
1989).
En Algérie le volume global d'eaux usées rejetées annuellement est évalué à près de 800
millions de m3, dont 600 millions de m3 pour les seules agglomérations du Nord, sur ce
volume global seul environ 30% sont traitées. Ces effluents, d'origine domestique,
constitueraient une ressource d’eau importante qui peut être prise en considération pour
diverses utilisations. Pour cela, il est primordial d’augmenter le nombre de stations
d’épuration dotées d’équipements de traitements tertiaires qui permettraient un meilleur
abattement de la pollution notamment azotée et phosphatée (Metahri, 2012).
Par ailleurs l’Algérie est classée parmi les pays hydro-sensibles confrontés à la rareté des
eaux naturelles conventionnelles due à l’insuffisance et à l’irrégularité des précipitations dans
le temps et dans l’espace. Le climat aride et semi-aride qui sévit sur une grande partie du
territoire réduit également les disponibilités de cette ressource.
Tableau 15: Normes Algériennes des rejets d'eaux usées traités (JORA, 2006)
DBO5 35 – 40 mg/l
MES 35 – 40 mg/l
37
III.7 EVALUATION DE LA FIABILITE D'UNE STATION
D'EPURATION EN EMPLOYANT D'AUTRES APPROCHES
III.6 CONCLUSION
La méthode des courbes de défaillance est un outil simple qui trace la fréquence de
défaillance des composants du système ou des systèmes entiers dans le temps. Cet outil
permet à l'opérateur de comprendre quand certains éléments sont susceptibles d'échouer et de
planifier en conséquence leur maintenance ou leur remplacement.
Grâce à cet outil de gestion, une réduction des coûts globaux se manifeste sensiblement par
des pannes en moins du système, et une amélioration du niveau de protection de
l'environnement (Etnier et al., 2005).
38
CHAPITRE IV : EVALUATION DE LA FIABILITE DE LA STATION
D’EPURATION DE KHENCHELA PAR MODELE PROBABILISTE
D'abord un aperçu sur l'organisation des données, la deuxième section évoque la recherche
des erreurs dans les données, la troisième section est consacrée la correction des données.
Le choix de la loi de distribution approprié des données d'entrée et de sortie de la station fait
l'objet de la cinquième section. L'évaluation de la fiabilité globale de la station de Khenchela
est présentée dans la sixième section.
L'évaluation du taux de défaillance des procédés de traitement des eaux usées est présentée
dans la huitième section. En conclusion, une présentation des différents paramètres
influençant les performances de la station sont présentées dans la dernière section.
La compréhension des processus intervenant dans cycle de traitement des eaux usées ainsi
que l'étude des différents paramètres liés procédé, de leurs variations spatiales et temporelles
nécessitent de disposer de données. Celles-ci sont essentielles et constituent un préalable à
toute analyse statistique, que ce soit dans le but de procéder à une étude du procédé de
traitement de l'eau usée, d'impacts environnementaux ou pour procéder à l'évaluation de la
fiabilité de la station.
De façon générale, pour permettre le passage de l'acquisition des données à leur utilisation
effective dans le cadre d'une analyse statistique on distingue les étapes suivantes : acquisition,
traitement, contrôle et validation, organisation. Une collaboration entre l'université d'Oum El-
Bouaghi et la station de traitement des eaux usées de la ville de Khenchela a permis de
numériser les données d'auto-surveillance de la station durant les 5 dernières années sous
format EXCEL.
39
différents paramètres de pollution, température, pH etc…). Le procédé peut être automatisé ou
non. Ceci aura une influence sur le type d'erreurs que l'on peut commettre.
Le traitement des données inclut aussi le contrôle primaire des données qui comprend les
contrôles de cohérence à l'exclusion de tous traitements statistiques. Il s'agit par exemple,
dans le cas d'une acquisition manuelle des données, de les convertir en fichiers informatiques.
Dans ce cas, on procède généralement à une double saisie des données puis les fichiers sont
comparés afin de déceler d'éventuelles erreurs de saisie.
Avant de pouvoir exploiter les données et bien qu'elles soient dans un format adéquat, il
importe de contrôler la fiabilité et la précision de ces dernières. Le contrôle permet de valider
les données avant leur organisation au sein d'une base de données pour leur mise à disposition
à des fins opérationnelles.
40
IV.2 RECHERCHE DES ERREURS DANS LES DONNEES D’AUTO-
SURVEILLANCES
La constitution d'une série de valeurs, constituant un échantillon au sens statistique du terme,
est un processus long, parsemé d'embûches, et au cours duquel de nombreuses erreurs, de
nature fort différentes, sont susceptibles d'être commises.
Des erreurs peuvent en effet être perpétrées lors de l'une ou de l'autre des quatre phases du
déroulement classique des opérations, à savoir : la mesure ; la transmission de l'information ;
le stockage de l'information ; le traitement de l'information (prétraitement et analyse). Il est
donc indispensable, avant d'utiliser des séries de données, de se préoccuper de leur qualité et
de leur représentativité en utilisant diverses techniques en général de type statistique ou
graphiques.
Une erreur de mesure est définie comme étant la différence entre la vraie valeur (qui est l'idéal
recherché, mais qui n'est en principe et malheureusement jamais connue) et la valeur mesurée.
Il est commode, tant pour les présenter que pour différencier la façon de les aborder, de
considérer deux types d'erreur :
Les erreurs aléatoires (ou accidentelles): Elles affectent la précision des données et sont non
corrélées. Ce type d'erreur est dû à des raisons nombreuses et variées, généralement
inconnues, affectant différemment chaque mesure individuelle. Ces erreurs étant inévitables,
il faut en estimer l'importance afin de pouvoir en tenir compte lors de l'évaluation de
l'incertitude finale. Dans la mesure du possible, la technique de mesure induisant les erreurs
aléatoires les plus faibles devrait être préférée.
Les erreurs systématiques: Elles affectent la fiabilité des données et sont totalement
corrélées. On parle aussi d'inconsistance. Supposons qu'aucune erreur aléatoire n'affecte les
mesures. La différence entre la vraie valeur et la valeur mesurée, si elle existe, est alors due à
une erreur systématique. L'origine des erreurs systématiques est le plus souvent liée à la
calibration de l'appareil de mesure qui n'est pas parfaite ou à un phénomène extérieur qui
perturbe la mesure (erreur d'appareillage, changement d'observateur…) (Saporta, 2006).
Selon la nature des erreurs constatées ou supposées la recherche de ces dernières fait appel à
différentes techniques et méthodes
• « in situ » qui consiste à vérifier sur place la manière dont les données ont été
organisées, traitées et/ou transformées.
• Investigation de bureau qui consiste à vérifier la chaîne de traitement de la
mesure/donnée à chaque étape de son élaboration, tout comme la manière dont on a
constitué les séries de données soumises à contrôle et/ou sauvegarde.
• Investigation statistique qui, à l'aide d'outils spécifiques, permet de mettre en évidence
certaines erreurs ou inconsistance. Ces techniques efficientes ont largement été
41
utilisées dans la pratique professionnelle et se basent sur des hypothèses spécifiques
qu'il convient de bien connaître.
Les calculs statistiques sont basés sur un certain nombre d'hypothèses qui doivent en principe
être vérifiées. Parmi celles-ci, citons :
1. Les mesures reflètent les vraies valeurs: Cette hypothèse n'est malheureusement
jamais réalisée en pratique, du fait des erreurs systématiques ou aléatoires.
2. Les données sont consistantes: Aucune modification dans les conditions internes du
système n'intervient durant la période d'observation (position du pluviomètre,
procédures d'observation, observateur unique).
3. La série de données est stationnaire: Les propriétés de la loi statistique qui régit le
phénomène (moyenne, variance ou moments d'ordre supérieur) sont invariantes au
cours du temps.
Les données sont homogènes: Une série de données est réputée non homogène lorsque:
• Elle provient de la mesure d'un phénomène dont les caractéristiques évoluent durant la
période de mesure; le phénomène est alors dit "non-stationnaire" (par exemple:
variations climatiques, variations du régime des débits). Il est également possible
d'observer des signes d'une non stationnarité apparente lorsque l'électronique intégrée
à l'équipement de mesure présente une dérive temporelle ou lors du changement de
l'observateur.
• La série de données est aléatoire et simple: Le caractère aléatoire et simple d'une série
d'observations est une hypothèse fondamentale pour l'analyse statistique. Un
échantillon aléatoire signifie que tous les individus de la population ont la même
probabilité d'être prélevés. Un échantillon simple signifie que le prélèvement d'un
individu n'influe pas la probabilité d'apparition des individus suivants. Autrement dit,
si toutes les observations de la série sont issues de la même population et qu'elles sont
indépendantes entre elles, la série est alors aléatoire et simple. La non vérification du
caractère aléatoire et simple peut avoir plusieurs causes, parfois simultanément. Ces
causes se groupent en deux catégories, les défauts d'auto corrélation d'une part
(caractère non aléatoire des séries) et les défauts de stationnarité du processus d'autre
part (dérive à long terme et dérive cyclique).
• La série doit être suffisamment longue: La longueur de la série influe sur les erreurs
d'échantillonnage, notamment sur le calcul des moments d'ordre supérieurs donc sur
les tests inhérents à leur fiabilité (Saporta, 2006).
42
IV.4 TRAITEMENT STATISTIQUE DES DONNES DE LA STATION
D’EPURATION DE KHENCHELA
Les données recueillies ont été analysées statistiquement pour déterminer la nature et le type
des fonctions de distribution qui représentent adéquatement les données observées et leurs
paramètres caractéristiques suivant différents modèles de distribution.
Le choix de la distribution hypothétique pour ajuster les données est important afin d'obtenir
la fiabilité. Parfois, les analystes peuvent utiliser leur connaissance des phénomènes
physiques pour choisir une distribution pour modéliser les données. Parfois l'expérience peut
suggérer le choix d'une autre distribution. Dans la situation où il n'y a pas d'expérience ou de
théorie précédente (comme notre situation) on suggère une répartition qui décrit les données.
La théorie sous-jacente de tests d'adéquation sort du cadre de cette étude, mais une courte
description des composants de base est décrite ci-dessous.
"Supposons qu'un échantillon aléatoire donnée de taille n est X1; .........;. Xn soit X(1) <X(2) <...
<X(n) les statistiques d'ordre. Supposons aussi que la distribution de X est F(x). La fonction
de répartition empirique (FRE) est Fn (x) définie par:
Ainsi Fn (x) est une fonction en escalier, calculée à partir des données, lorsque x augmente, il
fait un pas vers le haut d'une hauteur de 1/n que chaque observation de l'échantillon est
atteinte. Pour tout x, Fn (x) enregistre le nombre d'observations inférieur ou égal à x, tandis
que F(x) est la probabilité d'une observation inférieure ou égale à x. Nous pouvons nous
attendre Fn (x) pour estimer F (x), et il est en fait un estimateur de F(x), comme n → ∞, | Fn
(x) - f(x) | tend vers zéro avec une probabilité. Empiriques fonction statistique de distribution
(par exemple, D, A2) mesure le décalage entre la fonction de répartion empirique (FRE) et une
fonction de distribution donnée, et sont utilisés pour tester l'ajustement de l'échantillon à la
distribution choisie. La distribution peut être complètement spécifiée ou peut contenir des
paramètres qui doivent être estimés à partir des données.
43
Test statistique de Kuiper (K):
−∞
−∞
Les formules de calcul pour les tests statistiques ci-dessus peuvent être trouvées en utilisant la
transformation intégrale de probabilité (TIP), Z = F(x); lorsque F(x) est la vraie distribution
de X, la nouvelle variable aléatoire Z est uniformément réparti entre 0 et 1. Ensuite, Z à la
distribution fonction F* (z) = z, 0 ≤ z ≤ 1. Supposons qu'un échantillon X1, ........., Xn donne
des valeurs Zi = F(Xi); i = 1, ………, n, et Fn*(z) la fonction de distribution empirique des
valeurs Zi.
Les statistiques des fonctions de distribution empirique peuvent désormais être calculés à
partir d'une comparaison de Fn*(z), avec F*(z):
Fn ( x ) − F ( x ) = Fn* ( z ) − F * ( z ) = Fn* ( z ) − z
V = max i {i / n − Z (i ) }+ max i {Z (i ) − (i − 1) / n}
[
A 2 = − n − (1 / n)∑ (2i − 1) ln Z (i ) + ln{1 − Z n+ &−i ) } ]
i
44
Les données des paramètres de qualité sont absents particulièrement les week-ends et les jours
fériés, par contre les données concernant les débits d'entrée, sorties sont pratiquement
complets sauf pour quelques mois. Le tableau 13 résume les statistiques des données
comprenant le nombre d'observations, valeur maximum, valeur minimum, moyenne et l'écart
type.
L'analyse de l'écart type annuelle de la DBO5 à la sortie montre que la station de Khenchela
est statistiquement instable pour les années 2009 et 2010, par contre pour les années 2011 et
2012 aucune conclusion ne peut être tirée dû au manque cruel de données. (Une station est
statistiquement stable si l'écart type pour la DBO5 des effluents est inférieur à 10 mg/l, et si
l'écart type pour les MES des effluents est inférieur à 70 mg/l) (Niku et al., 1982).
45
Tableau 16: Synthèse de l'analyse statistique des données de la station d'épuration de Khenchela
(2009-2012).
Entrée de la station
Min. 888 33 33 70
Sortie de la station
Min. 836 10 13 10
Pour les données d'entrée de la station, on constate que la valeur de l'écart type du débit est
très importante, due principalement à la grande variabilité du débit d'entrée entre un débit
minimum de 888 m3/j et un maximum de 19079 m3/j.
Même constat pour les autres paramètres de pollution, une valeur élevée de l'écart type
observée est synonyme de grande variation, ce qui nous laisse conclure que la série
d'observation est étalés.
En outre, les moyennes des concentrations de l'effluent à la sortie sont étendus entre 13 - 165
mg/l pour la DCO, 10 - 128 mg/l pour la DBO et 10 - 452 pour les MES.
46
Pour montrer les niveaux et la variabilité différents dans la DCO entrée et sortie, la DBO, les
MES, les différents données sont regroupées et illustrées sur la figure 5.
1600
1400
Concentration (mg/L)
1200
1000
800
600
400
200
0
MES (mg/l) DCO (mg/l) DBO5 (mg/l)
Les médianes (traits horizontaux à l'intérieur des boîtes), les diffusions (distances verticales), les annexes
(points), et la gamme entre le 25ème et le 75 ème percentile (distance entre les côtés supérieurs et inférieurs des
boîtes).
Figure 5: Diagramme Box-Whisker des différents paramètres des eaux usées à l'entrée de la
station de Khenchela (2009-2012)
Du diagramme de Box-Whiskers on peut constater que les paramètres MES et DBO5 sont très
variables et que leurs domaine de variation est très large.
47
Diagramme Box-Wisker des MES, de la DBO5 et de la DCO à la sortie de la station de Khenchela
500
400
300
Données
200
100
0
MES (mg/l) DCO (mg/l) DBO5 (mg/l)
Les médianes (traits horizontaux à l'intérieur des boîtes), les diffusions (distances verticales), les annexes
(points), et la gamme entre le 25ème et le 75 ème percentile (distance entre les côtés supérieurs et inférieurs des
boîtes).
Figure 6: Diagramme Box-Whisker des différents paramètres des eaux traités à la sortie de la
station de Khenchela
Du diagramme de Box-Whiskers on peut constater que la concentration des MES est très
variable et que son domaine de variation est très large.
Dans une analyse des données d'auto-surveillance d'une station de traitement des eaux
résiduaires, il y a habituellement des données suffisantes pour caractériser la variabilité des
chargements des différents paramètres caractérisant la qualité d'effluent qui doivent être
traité. La variabilité des débits et des paramètres de qualité sont caractérisés avec des
fonctions de densité de probabilité, le choix adéquat de la loi de distribution est important
pour la détermination des différents paramètres statistiques.
Avant d'employer une distribution de probabilité pour représenter les données fondamentales
d'une population de données, il est important d'examiner l'adéquation de cette distribution.
Pour faire cela il faut étudier la qualité des tests d'ajustement. La qualité de ces tests
statistiques convenables détermine s'il y a d'une différence significative entre une distribution
de fréquence observée et une distribution de probabilité théorique présumé pour décrire la
distribution observée (Levin, 1984).
48
Par ceci nous voulons dire qu'à quel point la population de l'échantillon de données est
conformes à une distribution donnée. Cependant, les tests statistiques convenables sont
divisés en deux types :
• Les tests paramétriques
• Les tests non paramétriques
On parle de tests paramétriques (les données observées issu d'une loi gaussienne) lors qu'on
stipule que les données sont issues d’une distribution paramétrée. Dans ce cas, les
caractéristiques des données peuvent être résumées à l’aide de paramètres estimés sur
l’échantillon, la procédure de test subséquente ne porte alors que sur ces paramètres.
L’hypothèse de normalité sous-jacente des données est le plus souvent utilisée, la moyenne et
la variance suffisent pour caractériser complètement la distribution. Concernant les tests
d’homogénéité par exemple, pour éprouver l’égalité des distributions, il suffira de comparer
les moyennes et/ou les variances. En revanche les tests non paramétriques (les données
observées ne sont pas issu d'une loi gaussienne) ne font aucune hypothèse sur la distribution
sous-jacente des données. On les qualifie souvent de tests distribution free. L’étape préalable
consistant à estimer les paramètres des distributions avant de procéder au test d’hypothèse
proprement dit n’est plus nécessaire.
Les fonctions de densité de probabilité peuvent être caractérisées avec une fonction de
probabilité de différents types, par exemple, normal, log-normal, gamma, logistique, Laplace,
distributions de Weibull. Ces distributions pour des variables continues et chacune a ses
caractéristiques particulières. Deux paramètres décrire habituellement la distribution
normale, à savoir la moyenne et l'écart type. Un paramètre détermine la forme de la
distribution tandis qu'un autre détermine la diffusion des données (Wadsworth, 1990 ;
Kottegoda et Rosso, 2009).
Malheureusement, les observations faites sur les différents variables (paramètres) de qualité
d'eaux usées ne font pas souvent suivre une distribution normale. Puisque les variables telles
que les niveaux de concentrations sont souvent positif (aucunes valeurs négatif), cette
remarque font on sorte que la courbe oblique se décale vers la droite, incluent des
observations extrêmes à des niveaux élevés.
En conséquence, la distribution log-normale est utilisée généralement dans le traitement des
eaux résiduaires pour la caractérisation des effluents. Une justification qui fait penser que le
processus donne à l'effluent une concentration ayant une loi de distributions log-normales
(Niku et al., 1979) ou une loi de distribution du type gamma (Kottegoda et Rosso, 2009), le
processus aléatoire fondamental est multiplicatif dans la nature et la fluctuation de la
moyenne peut être proportionnel plutôt qu'additif. En d'autres termes, la concentration des
effluents peut être prédite avec une équation non linéaire. Dans de telles circonstances, si les
paramètres sont des variables aléatoires sans se soucier de leurs distributions, la distribution
du produit, par exemple, la concentration de l’effluent, est log-normal (Burmaster et Hall,
1997).
49
Niku et al. (1982) ont examiné statistiquement les concentrations d'écoulement des effluents
de processus de filtre biologique et de boue activée, et ils ont constaté que les données se sont
adaptées non seulement a une distribution log-normale mais également d'autres types de
distributions telles que la distribution gamma.
La distribution log-normale des concentrations des effluents était également en accord avec
d'autres distributions (Cohen et al., 1975 ; Culp et al., 1980 ; Ossenbruggen et al., 1987 ;
Kahn et Rubin, 1989 ; USEPA, 1991).
Sherwani et Moreau (1975) cité par Loftis et al. (1983) trouvent utiles de proposer les lois de
distributions normal, log-normal, et gamma pour modéliser les variables aléatoires de la
qualité de l'eau. Salle et al., (1981) ont suggéré que les distributions normales et log-normales
s'appliquent le plus largement pour la qualité des eaux, mais aussi que la loi gamma, et la loi
de Gumble sont parfois les plus appropriées.
On, constate d'après les études mentionnées dans cette recherches que la modélisation des
variables aléatoires (paramètres de qualités des eaux) peuvent être modélisés par une
distribution adéquates mais reste que l'effet de l'originalité des données joue un rôle
important, éliminant de ce fait l'idée de généraliser le choix d'une meilleur distribution, les
paramètres de qualités peuvent être modélisé par une loi de distribution donnée, mais peuvent
dans d'autre cas d'étude pourrait être mieux modéliser par une autre distribution.
Les distributions normales et log-normales sont d'intérêt particulier pour deux raisons :
D'abord, elles modélisent le comportement de plusieurs paramètres de qualités des eaux
usées. En second lieu, les paramètres de ces distributions (la moyenne et l'écart-type sont
facile à estimer), des tables de la fonction de distribution normale cumulative sont largement
disponible (Loftis et al., 1983 ; USEPA, 1991). Ainsi, ces distributions sont faciles à utiliser.
La distribution de Weibull, qui est baptisée du nom du physicien suédois W. Weibull fournit
une approximation étroite aux lois de probabilité de plusieurs phénomènes. Elle a été
employée pour modéliser le temps de défaillance des éléments électriques, et systèmes
mécaniques (Kottegoda et Rosso, 2009).
D'une part, il se peut qu'une partie des données des paramètres de qualités d'une eau usée ne
suive aucune distribution. Par exemple, les données de la DBO5 et les MES des effluents de
28 stations de traitement des eaux dans le Colorado (USA), ces données ont été analysées,
mais aucune fonction de densité de probabilité n'a justement décrit les concentrations en
DBO5 et MES de ces effluentes (Culp et al., 1980).
Les données de qualité des eaux usées brute à l'entrée à fait l'objet de tentative de
modélisation pour le choix d'une loi de distribution appropriée de probabilité on utilisant
plusieurs tests statistiques adaptées avec différentes tests de distributions (par exemple,
distribution normale, log-normale et Gamma).
50
Initialement, un test de Kolmogrov-Smirnov a été appliqué sur tous les données brutes d'auto-
surveillance de la station incluant tous les paramètres de pollution (DCO, DBO5 et MES).
Remarque: Les p-valeurs obtenues sont issu de l'application du Test Kolmogorov-Smirnov (D test).
Si Les p-valeurs sont inférieures à 0,05 indiquerait que le paramètres de pollution ne vient pas de la distribution
choisie avec 95% de confiance.
Les MES à l'entrée de la station de Khenchela suivent une loi log-normal et une loi de gamma
51
Gam m a - 95% IC
99.9
99
95
90
80
70
60
Pourcentage
50
40
30
20
10
5
0.1
10 100 1000
DBO5 (mg/ l)
Figure 7 : Courbe de probabilité de la DBO5 à l'entrée de la station de Khenchela suivant une loi
de distribution Gamma.
Lognormal - 95% IC
99.9
99
95
90
80
Pourcentage
70
60
50
40
30
20
10
5
0.1
100 1000
DBO5 (mg/l)
Figure 8: Courbe de probabilité de la DBO5 à l'entrée de la station de Khenchela suivant une loi
dedistribution Log-normale.
52
Normal - 95% IC
99.9
99
95
90
80
Pourcentage
70
60
50
40
30
20
10
5
0.1
-500 0 500 1000 1500
DCO (mg/l)
Figure 9: Courbe de probabilité de la DCO à l'entrée de la station de Khenchela suivant une loi
de distribution normale.
Gamma - 95% IC
99.9
99
95
90
80
70
60
50
Pourcentage
40
30
20
10
0.1
10 100 1000
DCO (mg/l)
Figure 10: Courbe de probabilité de la DCO à l'entrée de la station de Khenchela suivant une loi
de distribution Gamma.
53
Gam m a
100
80
Pourcentage
60
40
20
Norm al
100
80
Pourcentage
60
40
20
54
La figure 12 représente l'histogramme de distribution versus la fonction de répartition de
probabilité des MES suivant la loi log-normale et Gamma. La figure 13 représente la courbe
des quantiles (concentration des MES versus la probabilité cumulative) suivant la loi log-
normale et Gamma. Ces figures indiquent clairement que les données des MES peuvent être
décrites par la loi de distribution gamma.
Figure 12: Histogramme de distribution des MES à l'entrée de la station de Khenchela suivant
les lois de distribution log-normale et Gamma
Figure 13: Courbe des quantiles des MES à l'entrée de la station de Khenchela suivant les lois de
distributions log-normal et Gamma
55
IV.5.2 Analyse des données à la sortie de la station d’épuration
Le but de la deuxième partie de l'analyse statistique des paramètres de pollution des eaux
usées traités par la station de Khenchela, et la détermination de la loi de distribution de
chaque paramètre est indispensable pour la détermination des taux de fiabilité de la station.
Les données de qualité des eaux traitées à la sortie ont fait l'objet de tentative de modélisation
adaptées sur différentes tests de distributions (par exemple, distribution normale, log-normale
et gamma).
Comme mentionné précédemment, un test de Kolmogrov-Smirnov a été appliqué sur tous les
données d'auto-surveillance à la sortie de a station incluant tous les paramètres de pollution
(DCO, DBO5 et MES).
MES 0 0,0053075 0 X*
(mg/l)
Remarque: Les p-valeurs obtenues sont issus de l'application du test Kolmogorov-Smirnov (D). Si Les p-
valeurs <0,05 alors la loi de distribution choisi est rejetée avec 95% de confiance.
Les résultats affichés dans le tableau 18 indique, que la DCO et DBO5 à la sortie de la station
de Khenchela suit une distribution log-normale. Pour illustrer ces résultats graphiquement, les
courbes de probabilité, et la courbe de la fonction de densité empirique (FDE) suivant la loi
log-normale est présenté sur les figures 14, 15, 16 et 17, respectivement.
56
Figure 14 : Histogramme de la DBO5 à la sortie de la station de Khenchela suivant différents lois
de distribution.
Figure 15: Courbe des quantiles de la DBO5 à la sortie de la station de Khenchela suivant
différents lois de dedistribution.
57
Figure 16: Histogramme de la DCO à la sortie la station de Khenchela suivant différents lois de
distribution.
Figure 17: Courbe des quantiles de la DCO à la sortie de la station de Khenchela suivant
différents lois de distribution.
58
Figure 18: Capture écran lors du traitement statistique des données de la station de Khenchela
La figure 19 représente l'histogramme des MES avec un essai de modélisation avec différents
lois de distribution. Une remarque se dégage de cette courbe, les MES suivent une loi de
distribution log-normale.
59
Figure 19: Histogramme de distribution des MES à la sortie de la station de Khenchela suivant
différents lois de distribution.
Figure 20: Courbe des quartiles versus la probabilité cumulative des MES suivant différents lois
de distributions.
Pour justifier notre choix de la distribution log-normale, les courbes de probabilité des MES à
la sortie de la station suivant différentes lois de distribution sont présentées dans la figure 21.
60
Figure 21: Courbe de probabilité des MES à la sortie de la station de Khenchela suivant différents lois de distribution distribution.
61
IV.6 EVALUATION DE LA FIABILITE GLOBALE DE LA STATION
DE KHENCHELA
La station est considéré comme fiable si la concentration des paramètres de pollution (MES,
DCO, et la DBO5) des eaux traités rejetés respectent les normes de rejet (concentration
inférieur à la limite décrite par la législation).
Dans cette section, nous évaluerons la fiabilité de différents paramètres basée sur les données
rassemblées et pertinentes durant la période 2009-2012.
100
Normes de rejet Inf.
90
Normes de rejet Sup.
80
Concentration des MES (mg/l)
70
60
50
40
30
20
10
0
03-01-2009
03-04-2009
03-07-2009
03-10-2009
03-01-2010
03-04-2010
03-07-2010
03-10-2010
03-01-2011
03-04-2011
03-07-2011
03-10-2011
03-01-2012
03-04-2012
03-07-2012
03-10-2012
Jours
Figure 22: Courbe de concentration des MES à la sortie de la station de Khenchela (2009-2012).
62
Sur la base des données pris en considérations soit 784 jours de données disponibles, la
station a respecté la réglementation en 662 jours. Pour un total de 122 jours sur la période
d'observation, la station n'a pas respecté la réglementation.
On constate que pour ce paramètre de qualité des eaux usées traitées rejetés, la station affiche
un taux de fiabilité relatif estimé à 84,43 %.
Sur la base du même diagnostic et durant les quatre dernières années d'exploitations (4 ans =
1460 jours), la concentration des MES des eaux traités rejetées ont respecté la législation
durant 662 jours, soit un taux global de fiabilité de 45,34%. Ce taux de fiabilité globale est
médiocre du principalement à l'absence des données de plusieurs mois d'exploitations.
180
120
100
80
60
40
20
0
06-01-2009
06-04-2009
06-07-2009
06-10-2009
06-01-2010
06-04-2010
06-07-2010
06-10-2010
06-01-2011
06-04-2011
06-07-2011
06-10-2011
06-01-2012
06-04-2012
06-07-2012
06-10-2012
Jours
Khenchela (2009-2012).
On prenant en considération les données disponible sur une période de 300 jours
d'observation, l'analyse statistique montre que la station a respecté la réglementation durant
288 jours, la station a enregistré un dépassement des normes de rejet seulement durant 14
jours sur la période d'observation, ainsi la station affiche un taux de fiabilité relatif estimé à
96 %.
63
Ce constat n'est que relatif, puisque sur la durée des quatre dernières années d'exploitations (4
ans = 1460 jours), la concentration de la DCO des eaux traités rejetées ont respecté la
législation que durant 288 jours, soit un taux de fiabilité globale estimé à 19,72 %. Un taux
insuffisant due principalement à l'absence des données puisque la station fonctionnée durant
des mois sans enregistré les données de la concentration de la DCO des eaux usées traitées.
140
100
80
60
40
20
0
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Jours
Khenchela (2009-2012).
Les données pris en considération ne sont disponible que sur 214 jours d'observation,
l'analyse statistique montre que la station a respecté la réglementation durant 191 jours, mais
sur la même période d'observation, la station a enregistré un dépassement de la norme de rejet
de la DBO5 durant 14 jours. La station affiche un taux relatif de fiabilité estimé à 89,25 %.
Le taux globale de fiabilité sur la durée des quatre années d'exploitations (4 ans = 1460 jours)
est estimé à 13,08 %. L'absence des données à la sortie de la station est la principale cause de
ce taux médiocre.
64
IV.7 DETERMINATION DU TAUX DE FIABILITE PAR MODELE
PROBABILISTE
La loi de distribution des données à la sortie de la station de traitement des eaux usées de la
ville de Khenchela suivent une loi de distribution type log-normale.
65
Tableau 19: Exemple de détermination du taux de fiabilité de la dégradation de la DBO5 par
modèle probabiliste, station d'épuration de Khenchela (2012).
66
IV.7.1 Evaluation du taux de fiabilité de la dégradation de la DBO5
Les calculs des taux de fiabilité du procédé de traitement de la station d'épuration de
Khenchela pour la dégradation de la DBO5 sont schématisés sur la figure 25.
100.00
90.00
80.00
70.00
Taux de Fiabilité (%)
60.00
50.00
40.00
10.00
0.00
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Jours
67
IV.7.2 Evaluation du taux de fiabilité de l'élimination de la DCO
Les calculs des taux de fiabilité du procédé de traitement de la station d'épuration de
Khenchela pour l'élimination de la DCO sont schématisés sur la figure 26.
100.00
90.00
80.00
Taux de Fiabilité (%)
70.00
60.00
50.00
40.00
30.00
20.00
Taux de fiabilité du procédé
10.00 d'élimination de la DCO
0.00
06-01-2009
06-04-2009
06-07-2009
06-10-2009
06-01-2010
06-04-2010
06-07-2010
06-10-2010
06-01-2011
06-04-2011
06-07-2011
06-10-2011
06-01-2012
06-04-2012
06-07-2012
06-10-2012
Jours
Figure 26: Courbe de la variation du taux de fiabilité de l'élimination de la DCO dans la station
d'épuration de Khenchela (2009-2012).
La variabilité du taux de fiabilité est influencé par la variation qualitative et quantitative des
eaux usées brutes à l'entrée de la station, la présence d'une pollution chimique (réseau
d'assainissement unitaire), lors et après des phénomènes pluvieux (lessivage des sols) rendant
ainsi la tâche très difficile aux exploitants combinés a cela une conception inadéquate de la
station.
68
Taux de fiabilité du procédé d'élimination
des MES
100.00
90.00
80.00
Taux de Fiabilité (%)
70.00
60.00
50.00
40.00
30.00
20.00
10.00
0.00
03-01-2009
03-04-2009
03-07-2009
03-10-2009
03-01-2010
03-04-2010
03-07-2010
03-10-2010
03-01-2011
03-04-2011
03-07-2011
03-10-2011
03-01-2012
03-04-2012
03-07-2012
03-10-2012
Jours
Figure 27: Courbe de la variation du taux de fiabilité du procédé d'élimination des MES dans la
station d'épuration de Khenchela (2009-2012).
On constate la variabilité des taux de fiabilité, cette variabilité est due principalement à la
variabilité qualitative et quantitative des eaux usées brutes à l'entrée de la station.
Les paramètres suivants peuvent influencer la fiabilité du procédé d'élimination des MES:
• Temps de séjours dans le bassin de dessablage insuffisant;
• Injection de l'air dans le bassin de dessablage inadéquate;
• Performances médiocre du dégrilleur fin;
• Conception inadéquate.
69
IV.8.1 Evaluation du taux de défaillance de la dégradation de la DBO5
Les calculs du taux de défaillance du procédé de dégradation de la DBO5 sont schématisés
sur la figure 28.
100.00
70.00
Taux de défaillance (%)
60.00
50.00
40.00
30.00
20.00
10.00
0.00
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Jours
70
100.00
90.00
Taux de défaillance du procédé
80.00 d'élimination de la DCO
Taux de défaillance (%)
70.00
60.00
50.00
40.00
30.00
20.00
10.00
0.00
06-01-2009
06-04-2009
06-07-2009
06-10-2009
06-01-2010
06-04-2010
06-07-2010
06-10-2010
06-01-2011
06-04-2011
06-07-2011
06-10-2011
06-01-2012
06-04-2012
06-07-2012
06-10-2012
Jours
71
100.00
Taux de défaillance du procédé
90.00 d'élimination des MES
80.00
Taux de Défaillance (%)
70.00
60.00
50.00
40.00
30.00
20.00
10.00
0.00
03-01-2009
03-04-2009
03-07-2009
03-10-2009
03-01-2010
03-04-2010
03-07-2010
03-10-2010
03-01-2011
03-04-2011
03-07-2011
03-10-2011
03-01-2012
03-04-2012
03-07-2012
03-10-2012
Jours
Figure 30: Courbe de la variation du taux de défiallance du procédé d'élimination des MES dans
la station d'épuration de Khenchela (2009-2012).
IV.9 CONCLUSION
L'analyse statistique des données de concentrations des différents paramètres de pollution des
eaux traitées et rejetés montre que durant la période d'observation, le taux de fiabilité de la
station est acceptable. Malheureusement ce constat n'est que relatif, puisque une grande
partie des données est manquantes sur les quatre années d'exploitation ciblé par notre étude.
La variabilité du taux de fiabilité du procédé de traitement de la station de Khenchela est très
variable, cette variabilité quantitatives et surtout qualitatives des eaux usées brutes combiné
avec une conception inadéquate avec des hypothèses de conception qui ne reflète pas la
situation réelle de la station (station à faible charge). Une étude récente a montré que la station
fonctionne à forte charge. Le manque d'expérience des gestionnaires de la station est un
facteur important à prendre en considération.
72
de note de gestion rend toute tentative d'explication de l'instabilité des performances de la
station une tache rude.
73
CHAPITRE V : RESEAUX DE NEURONES ARTIFICIELS
V.1 INTRODUCTION
Grace à leur traitement parallèle de l’information et à leurs mécanismes inspirées des cellules
nerveuses (neurones), ils infèrent des propriétés émergentes permettant de solutionner des
problèmes qualifiées de complexes. Ils ont été développés pour résoudre les problèmes de
contrôle, de la reconnaissance des formes et des mots, de prise de décision, de mémorisation
comme une alternative à l'intelligence artificielle. Les travaux dans le domaine des réseaux de
neurones artificiels ont été motivés par la fascination de l'humanité à la complexité du cerveau
humain
Les neurones possèdent de nombreux points communs dans leur organisation générale et
leur système biochimique avec les autres cellules. Ils présentent cependant des
caractéristiques qui leur sont propres et qui se retrouvent au niveau des cinq fonctions
spécialisées qu’ils assurent, c’est-à-dire, la fonction de recevoir des signaux en provenance de
neurones voisins, de les intégrer, d’engendrer un influx nerveux, de le conduire et le
transmettre à un autre neurone capable de le recevoir.
74
La structure d'un neurone est constituée de trois principales parties qui sont (voir figure 31):
• Le corps cellulaire;
• Les dendrites;
• L’axone.
Le corps de la cellule a un noyau qui contient des informations sur les caractéristiques
héréditaires, et un plasma qui contient le matériel moléculaire utilisée pour produire le
matériau nécessaire par le neurone (Jain et al., 1996).
Les dendrites reçoivent des signaux d'autres neurones et les passer sur le corps de la cellule.
La surface totale de réception des dendrites d'un neurone typique est d'environ 0,25 mm (
Zupan et Gasteiger, 1993 ).
L’axone, qui est à proprement parler la fibre nerveuse, sert de moyen de transport pour les
signaux émis par le neurone. Il se distingue des dendrites par sa forme et par les propriétés de
sa membrane externe. En effet, il est généralement plus long que les dendrites, et se ramifie à
son extrémité, là où il communique avec d’autres neurones, alors que les ramifications des
dendrites se produisent plutôt près du corps cellulaire. La quantité de signal qui passe par un
neurone récepteur dépend de l'intensité du signal issu de chacun des neurones d'alimentation,
leurs forces synaptiques, et le seuil du neurone récepteur (Basheer et Hajmeer, 2000).
Le cerveau humain est composé de dix milliards de neurones et chaque neurone peut interagir
avec aussi peu qu'un mille ou moins de deux cent mille autres neurones. En raison du grand
nombre d'interconnexions, le cerveau est capable de s'adapter à des signaux externes et faire
des réactions raisonnables (Park, 1996).
Le cerveau est capable de réagir aux signaux qu'il n'a jamais connu auparavant en raison des
connexions entre les neurones massives interagissant les uns avec les autres. Les bonnes
réactions sont dues à la capacité de programmation génétique et la capacité d'apprentissage du
cerveau à réagir aux événements. Ce fait est l'objectif principal de l'élaboration d'un réseau de
neurones artificiels (RNA), ou simplement un réseau de neurones (RN) (Zupan et Gasteiger,
1993).
75
Figure 32: Neurone formel (artificiel).
Un neurone est l'unité de traitement de base d'un réseau de neurones. La figure 32 illustre un
neurone d'entrée avec Les entrées x1 à xn constituent le vecteur d’entrée x. La fonction f est
appelée fonction d’activation du neurone. Chaque entrée xi est pondérée par un poids wi, ce
sont les poids des entrées qui vont permettre au neurone d’apprendre et de modifier sa sortie
rr rr
au fur et à mesure de l’apprentissage. La sortie du neurone est y = f( w.x ), où w.x représente le
produit scalaire du vecteur poids par le vecteur des entrées. Le biais b fournit une variable
supplémentaire qui peut être ajusté pour obtenir la performance du réseau désiré. Cette
somme est l'argument de la fonction de transfert f, qui prend l'argument et produit une sortie.
La fonction de transfert qui limite la gamme d'amplitude admissible du signal de sortie à des
valeurs finies dans l'intervalle [-1, 1]. Les poids wi et le biais b sont des paramètres ajustables
qui permettent au réseau de neurones de présenter le comportement désiré (Haykin 1999 ;
Krenker et al., 2011 ; Demuth, Beale et Hagan, 2013).
Un réseau de neurones artificiel (figure 33) est en général composé d'une succession de
couches dont chacune prend ses entrées sur les sorties de la précédente. Chaque couche (i) est
composée de Ni neurones, prenant leurs entrées sur les Ni-1 neurones de la couche précédente.
À chaque synapse est associé un poids synaptique, de sorte que les Ni-1 sont multipliés par ce
poids, puis additionnés par les neurones de niveau i, ce qui est équivalent à multiplier le
vecteur d'entrée par une matrice de transformation. Mettre l'une derrière l'autre les différentes
couches d'un réseau de neurones reviendrait à mettre en cascade plusieurs matrices de
transformation et pourrait se ramener à une seule matrice, produit des autres, s'il n'y avait à
76
chaque couche, la fonction de sortie qui introduit une non linéarité à chaque étape (Touzet,
1992). Ceci montre l'importance du choix judicieux d'une bonne fonction de sortie : un réseau
de neurones dont les sorties seraient linéaires n'aurait aucun intérêt.
Figure 33: Réseau de neurones multicouches (PMC) avec deux couches cachées (Rustum, 2009).
L'histoire des recherches sur les réseaux de neurones peut être retracée par les tentatives des
chercheurs d'essayer de modéliser le neurone biologique. La motivation originale pour le les
réseaux de neurones découle des travaux de McCulloch et Pitts (1943). Le modèle qu'ils ont
créé a deux entrées et une seule sortie. Les poids pour les entrées ont été maintenues égaux et
la sortie était soit logique 1 ou 0 logique. La sortie restera à zéro jusqu'à ce que la somme
pondérée des entrées ait atteint un certain seuil. Le neurone de McCulloch et Pitts est connu
comme un circuit logique.
Figure 34: Structure d'un neurone artificiel qui calcule la somme de ses entrées puis cette valeur
passe à travers la fonction d'activation pour produire sa sortie (Kriger, 2007).
77
La sortie du neurone est donné par:
m
y k = f ( wk 0 x0 + ∑ wkj x j ) …..(V.1)
j =1
où:
yk est la sortie du neurone, et wk0 x0 est le poids de sollicitation et de l'ampleur, xj est le signal
d'entrée et wkj sont les poids. Φ est la fonction d'activation calculée au niveau du nœud de
sommation.
Donald Hebb (1949) a été préoccupé par les lois d'adaptation impliquée dans les systèmes
neuronaux, et en 1949 a conçu une règle d'apprentissage pour adapter les connexions au sein
de neurones artificiels.
Le Perceptron fut le modèle de neurone suivant développé par Rosenblatt (1958). Les
perceptrons sont particulièrement adaptés pour des problèmes simples dans la classification
des modèles.
Rosenblatt a interconnecté au hasard les perceptrons et procéder à des essais pour changer
aléatoirement les poids pour parvenir à un "apprentissage". Le neurone de McCulloch et Pitts
est cependant un meilleur modèle pour simuler le processus électrochimique qui se passe à
l'intérieur d'un neurone biologique, à l'inverse du perceptron, qui est la base des réseaux de
neurones des temps modernes (Anderson, Rosenfeld et Pellionisz, 1993). Malheureusement,
l'inconvénient majeur du perceptron est qu'il est seulement capable de classer les problèmes
qui sont linéairement séparables à la sortie (Masters 1993 ; Demuth, Beale et Hagan, 2013).
Vers 1954, Minsky introduit l'apprentissage par renforcement .L'une des évolutions majeures
a été la formulation de nouvelles règles d'apprentissage par Widrow et Hoff (1960) dans leur
application à une simple adaptation linéaire neurone (Adaline) (Widrow et Hoff, 1960). La
règle était aussi connue sous le nom d'algorithme des moindres carrés (LMS).
Une percée importante dans les réseaux de neurones a été faite en 1967 avec l'introduction de
la fonction d'activation sigmoïde lisse par Cowan. Cette fonction a la capacité
d'approximativement une fonction non linéaire. Au lieu de passage ou hors comme le
perceptron, cette fonction d'activation active la sortie progressive lorsqu'il est activé.
Minsky et Papert (1969) publièrent un livre dans lequel ils ont montré les lacunes des modèles
de perceptron, ayant pour effet l'orientation des fonds de recherches sur les réseaux de
neurones vers d'autres domaines de recherches, ce qui a conduit de nombreux chercheurs à
changer de domaine de recherche. Seuls quelques chercheurs ont continué notamment Teuvo
Kohonen, Stephen Grossberg, James Anderson et Kunihiko Fukushima (Kröse and van der
Smagt, 1996). L'intérêt pour les réseaux de neurones artificiels a connu une résurrection après
quelques résultats théoriques importants dans les années 1980 (notamment l'algorithme de
retro propagation).
78
Werbos (1974) présente la méthode d'apprentissage par rétro-propagation, mais cela n'a pas
reçu beaucoup de publicité. Cette méthode d'apprentissage traite la propagation de
l'information sur les erreurs ont la réinjectant dans la couche cachée.
Le réseau neuronal direct a été le premier et le plus simple type de réseau de neurones
artificiels imaginés. Dans ce réseau, l'information se déplace dans une seule direction, vers
l'avant, à partir des nœuds d'entrée, par l'intermédiaire des nœuds cachés (le cas échéant) et de
nœuds de sortie. Il n'y a pas de cycles ou des boucles dans le réseau.
Figure 35: Réseau de neurones artificiels directs (par alimentation avant) (Feed-Forward)
(Kriger, 2007).
79
V.4.2 Réseau de neurones artificiels récurrent
Un réseau de neurones artificiels récurrent (RNAR) est une classe de réseau de neurones, où
les connexions entre les unités forment un cycle dirigé. Ceci crée un état interne du réseau qui
lui permet un comportement temporel dynamique. Contrairement aux réseaux de neurones
directs (feed-forward), les RNAR peuvent utiliser leur mémoire interne pour traiter les
séquences arbitraires d'intrants. Cela les rend applicable à des tâches telles que la
reconnaissance de l'écriture manuscrite connecté non segmenté, où ils ont obtenu les meilleurs
résultats connus (Graves et al., 2009).
Il existe un grand nombre de topologies de réseau neuronal différent. Pour une liste plus
complète des différentes topologies de réseau neuronal avec les sources consultées voir
l'annexe A. Cette liste est loin d'être les seuls types de réseaux neuronaux qui sont
disponibles.
Trouver une configuration optimale du réseau est l'un des problèmes les plus importants dans
la conception d'un réseau de neurones artificiels. Les paramètres du réseau de neurones
suivants doivent être sélectionnés:
Ces paramètres doivent être choisis avec soin particulier pour éviter les phénomènes de sur-
apprentissage et sous-apprentissage et réaliser une phase d'apprentissage convergent (Khan et
Ondrůšek 2000). En raison d'un manque d'informations sur les variables représentées dans la
couche cachée, les réseaux de neurones artificiels sont considérés par la plupart des
chercheurs comme un modèle « boîte noire» (Hu, 1997 ; Moshiri et Cameron, 2000 ; Olden et
Jackson, 2002).
80
V.4.3 Fonction de transfert
La sortie du neurone est déterminé par l''activation (ou transfert) en fonction du neurone. Le
but de la fonction d'activation est d'introduire une non-linéarité dans le réseau. Cette non-
linéarité associée aux interconnexions des neurones accomplit une cartographie des données
propre à partir de signaux d'entrée pour les activités de sortie correspondants (Zupan et
Gasteiger, 1993). Sans cette non-linéarité du perceptron multicouche ne serait pas fonctionnel
différent d'un filtre linéaire et ne serait pas en mesure d'effectuer la séparation non linéaire et
la trajectoire d'apprentissage pour les signaux non linéaires et non stationnaires (Mandic et
Chambers, 2001).
La fonction de transfert peut être aussi simple comme la fonction binaire appelé aussi limiteur
dur ou la fonction par étage. Le signal de sortie dépend du fait que le produit est positif ou
négatif. La sortie est à '1' pour un produit positif et '0' pour un produit négatif. La sortie peut
également être bipolaire entre [-1 , +1]. Les principales fonctions de transfert sont présentées
dans le tableau 20 ci-dessous.
81
Tableau 20: Les principales fonctions de transfert
Il existe d'autres fonctions d'activation moins populaires tels que la fonction satlins (linéaire
saturée symétrique), la fonction poslin (linéaire positive), et la fonction Softmax (Burton,
2006). Le succès ou l'échec du processus d'apprentissage dépend du fait que la fonction
d'activation est dérivable ou non Sur la base de cette exigence, la fonction non-linéaire la plus
populaire est la fonction sigmoïde pour la couche cachée en raison de son dérivé facilement
calculé (Rustum, 2009). Parmi les fonctions non-linaires les plus populaires, la fonction
logistique et la fonction tangente hyperbolique (Demuth, Beale et Hagan, 2013).
82
V.5 ENTRAINEMENT ET APPRENTISSAGE DU RESEAU DE
NEURONES
• L'apprentissage supervisé ;
• L'apprentissage non supervisé ;
• Apprentissage par renforcement.
1. La formation des lots est l'endroit où les modifications apportées aux poids et les
préjugés sont prises en fonction de l'application de l'ensemble ensemble d'entrée de
vecteurs de données sur le réseau.
2. Formation progressive est l'endroit où les modifications apportées aux poids et les
préjugés sont effectués après l'application de chaque vecteur de données d'entrée
individuel. Formation incrémentielle est également considérée comme une formation
en ligne ou de formation adaptative.
83
Un paradigme classique pour présenter les problèmes d'apprentissage par renforcement
consiste à considérer un agent autonome, plongé au sein d'un environnement, et qui doit
prendre des décisions en fonction de son état courant. En retour, l'environnement procure à
l'agent une récompense, qui peut être positive ou négative.
L'agent cherche, au travers d'expériences itérées, un comportement décisionnel appelé
"stratégie", et qui est une fonction associant à l'état courant l'action à exécuter) optimal, en ce
sens qu'il maximise la somme des récompenses au cours du temps.
Des algorithmes de formation utilisent des données historiques (ensemble de données
d'apprentissage) pour régler automatiquement les coefficients de pondération et des seuils afin
de minimiser l'erreur de prédiction. La méthode utilisée pour rajuster les poids sur les
connexions s'appelle une règle d'apprentissage. Il ya beaucoup de règles d'apprentissage
couramment utilisés, mais il ya certains qui se sont révélés être efficaces dans la résolution de
certains types de problèmes (Haykin, 1999 ; Krenker, 2011).
1- Initialisation
Mettre les poids initiaux w1, w2, …, wn ainsi que le seuil θ à des valeurs aléatoires de
l’intervalle [-0,5 , 0,5]. Mettre le taux d’apprentissage α à un petite valeur positive
2- Activation
Activer le perceptron en appliquant les intrants x1(p), x2(p). …, xn(p) et l’extrant désiré
Yd(p). Calculer l’extrant actuel à l’itération p = 1.
n
Y ( p) = étage ∑ xi ( p) wi ( p) − θ
i =1
où n est le nombre de signaux intrants, et étage est la fonction d’activation par étage.
84
wi ( p + 1) = wi + ∆wi
∆wi = α × xi ( p) × e( p)
4- Itération
L'algorithme d'apprentissage des moindres carrés (LMS) est parfois connu comme la règle
delta ou la règle d'apprentissage Widrow-Hoff. La correction des coefficients de pondération
est déterminé par:
β .E . x
∆w = 2
…..(V.2)
x
E = yd - ym..........(V.3)
Où:
e j ( k ) = Odj ( k ) − S j ( k ) …..(V.4)
La somme linéaire des entrées S est passée à travers une fonction tangente qui produit la
sortie "+1" ou "-1" en fonction de la polarité de la somme.
L'algorithme LMS est basé sur les valeurs instantanées de la fonction de coût (Haykin, 1999):
1 2
ς ( w) = e ( n) …….…..(V.5)
2
85
Différencier ς(w) par rapport au rendement du vecteur de poids w.
∂ς ( w) ∂e ( n )
= e( n) ………(V.6)
∂w ∂w
Le terme se rapporte à rétro-propagation de la manière dont le gradient est calculé pour les
réseaux multicouches non linéaires. La généralisation de la règle d'apprentissage Widrow-
Hoff aux réseaux multicouches et des fonctions de transfert non linéaires différentiables créé
l'algorithme de rétro propagation.
L'algorithme est basé sur la plus grande pente (descente de gradient) techniques accordés à
chacune des couches du réseau par la règle de la chaîne (Ng, 1997). La dérivée partielle de la
fonction d'erreur par rapport aux poids est calculée en tant que:
∂E ( k )
∇E ( k ) = …………….(V.7)
∂W ( k − 1)
avec:
1
E (k ) =
2
[ ] 2
y p ( k ) − y m ( k ) …… (V.8)
86
1
La constante est choisie pour faciliter le calcul d'une dérivée de la fonction de coût qui est
2
essentiel dans l'estimation des paramètres.
L'objectif est de minimiser la fonction d'erreur E(k) en prenant le gradient d'erreur par rapport
au vecteur des poids, W doit être adapté Les pondérations sont mises à jour à l'aide:
∂E ( k )
W ( k ) = W ( k − 1) + η ……………..(V.9)
∂W ( k − 1)
avec:
∂E ( k ) ∂y m ( k ) ∂OO ( k )
= −em ( k ) = −em ( k ) ……(V.10)
∂W ( k − 1) ∂W ( k − 1) ∂W ( k − 1)
87
• Des temps d'entrainement long, donc une vitesse de convergence relativement lente;
• Si l'ensemble des données d'entrainement et la stratégie d'apprentissage inadéquate
aura pour résultat la paralysie du réseau. Si les poids deviennent trop grands, les
changements dans les poids deviennent minimes (le dérivé de la fonction sigmoïde est
très faible);
• Aucune garantie pour la convergence vers un minimum global; parfois la méthode
peut rester coincé dans un minimum local (voir figure 37 ci-dessous);
• Il n'existe pas de règle précise pour définir le nombre de neurones, et le nombre de
couches pour une meilleure performance;
• Présence du phénomène d'instabilité si le taux d'apprentissage est trop grand.
Malgré les limites ci-dessus à l'algorithme de rétro-propagation, il est toujours très populaire,
en particulier dans le milieu du contrôle des systèmes. Il existe cependant de nombreuses
améliorations à l'algorithme de rétro propagation commun. Une amélioration est l'ajout d'un
terme du moment (Rustum, 2009, Kriger, 2007).
Le terme de moment est une modification de la règle delta généralisée en incluant un terme de
mise à jour dans l'équation des poids (équation V.11). L'ajout de ce terme peut réduire le
temps d'entrainement du réseau et accélérer sa convergence.
88
∂E (k )
W (k ) = W (k − 1) + ( −η ) + α∆W (k − 1) …...(V.11)
∂W (k − 1)
Le paramètre α (terme de moment) est choisi entre 0 <α< 1. Si le terme de moment est réglé
sur 0, le changement de poids est uniquement basé sur le gradient. Si le terme de moment est
mis à 1, le nouveau changement de poids est égal à la dernière modification du poids, alors
que le gradient est ignoré. La pente est calculée en faisant la somme des gradients calculés
après chaque exemple d'entraînement.
Une telle modification de la loi d'apprentissage agit comme un filtre passe-bas pour le lissage
de la trajectoire d'erreur. En conséquence, il est possible d'appliquer un taux d'apprentissage
(η) plus élevé,
Nagata et al. (1990) ont proposé une modification de l'équation (V.11), où β est une constante
décidée par l'utilisateur.
∂E (k )
W (k ) = W (k − 1) + (−η ) + α∆W (k − 1) + β∆W (k − 2) …….(V.12)
∂W (k − 1)
Toutefois, il s'agit d'une répétition du rôle de α et l'avantage d'ajouter β n'est pas très clair
(Ng, 1997).
V.7 GENERALISATION
Il est rarement utile d'avoir un simple réseau de neurones artificiels qui mémorise un
ensemble de données (approximation de fonction), puisque de nombreux algorithmes pour
consultation peuvent faire la mémorisation beaucoup plus efficacement.
En règle générale, il est nécessaire que l'RNA soit capable d'effectuer avec précision une
généralisation sur de nouvelles données.
La généralisation peut être définie comme la capacité du réseau à faire une réponse
hypothétique à une entrée qui n'a pas été vu avant, et de faire une réponse raisonnable (Park,
1996).
89
V.7.1 Sur-apprentissage et sous-apprentissage
Sur-apprentissage ou sous-apprentissage est essentiellement la façon dont le réseau de
neurones artificiels réalise des prédictions pour les cas qui ne sont pas dans le jeu de données
d'entrainement, comme d'autres méthodes d'estimation non linéaire.
En règle générale, le but de l'entrainement est de faire des prédictions pour données de sortie à
venir dans lequel seules les entrées du réseau sont connues. Le résultat de la formation du
réseau conventionnel est un ensemble unique de poids qui peuvent être utilisés pour faire de
telles prédictions (Kriger, 2007).
La compréhension de ces deux phénomènes permet d'aller dans l'espace entre les deux
extrêmes. C'est dans cet intervalle lorsque le modèle a un pouvoir prédictif de l'ensemble des
données de validation (Parizeau, 2006).
90
Figure 39 : Exemple du phénomène de sous-apprentissage (Parizeau, 2006).
Une solution à ce problème consiste à utiliser un autre critère d’arrêt et basée sur une
technique dite de validation croisée (en anglais «cross-validation»). Cette technique consiste à
utiliser deux ensembles indépendants de données pour entrainer le réseau : un pour
l’apprentissage (l’ajustement des poids) et l’autre pour la validation, c’est-à-dire le calcul d’un
indice de performance (Parizeau, 2006).
91
Figure 40 : Illustration du critère de la validation croisée (Parizeau, 2006)
Il ya aussi beaucoup d'autres problèmes importants qui sont si difficiles qu'un réseau de
neurones est incapable de les apprendre sans avoir à mémoriser l'ensemble de la formation,
tels que:
V.7.3 Régularisation
La régularisation est une méthode pour améliorer la capacité de généralisation d'un RNA. Les
statisticiens utilisent cette technique pour trouver l'équilibre entre le nombre de paramètres et
la bonté de l'ajustement en pénalisant les gros modèles. La fonction de performance est
modifiée de telle sorte que l'algorithme élague le réseau par la conduite estimations non
pertinents à zéro (Rech, 2002). Cela entraîne une modification de la fonction de performance
telle que la somme des carrés (erreur quadratique moyenne) de l'erreur du réseau sur la base
d'apprentissage.
1 N
F = mse = ∑
N i =1
(ei ) 2 …..(V.13)
Où:
γ : Indice de performance,
92
1 n 2
msw = ∑ w j ……………(V.15)
n j =1
Grâce à cette fonction de performance provoque le réseau d'avoir moins de poids et les biais,
et cela force la réponse du réseau pour être plus lisse et moins susceptibles de sur ajustement.
Le principal avantage de l'utilisation de la régularisation, c'est que même si le RNA est sur-
paramétré, les estimations des paramètres pertinents sont susceptibles d'être proche de zéro et
le RNA se comporte comme un petit réseau (Rech, 2002).
93
V.8 AVANTAGES DES RESEAUX DE NEURONES ARTIFICIELS
Les réseaux de neurones sont caractérisés par les capacités positives suivantes:
1. Pour résoudre des tâches où il est avantageux d'utiliser une machine, mais où il est
impossible de réponses du programme à toutes les issues possibles.
2. Apprendre des exemples limités «les réseaux de neurones artificiels sont
particulièrement adaptés à des problèmes où la solution est complexe et difficile à
définir, mais fournit une abondance de données à partir de laquelle une réponse peut
être apprise (Tarassenko, 1998).
3. Capacité à généraliser, à savoir la carte entrées semblables aux sorties similaires:, les
réseaux de neurones sont capables d'interpoler à partir d'une expérience
d'apprentissage précédent. Avec une conception soignée, un RNA peut être formé
pour donner la bonne réponse à des données qu'il n'a pas préalablement rencontré
(Tarassenko, 1998).
4. Possibilité de cartographier les fonctions linéaires et non linéaires : la cartographie non
linéaire donne souvent aux réseaux de neurones artificiels l'avantage de traiter les
problèmes complexes du monde réel.
5. Efficacité de calcul : la formation d'un RNA pour un calcul intensif peuvent être
modeste (Tarassenko, 1998), mais les exigences de calcul d'un RNA entièrement
formés peuvent être amélioré pour des problèmes plus importants, grâce à un
traitement parallèle (Haykin, 1999).
6. Robuste en présence de bruit.
7. Capacités multi variables.
Les prédictions de séries chronologiques les plus élémentaires sont faites en utilisant des
décalages à partir d'une seule série chronologique de toutes les variables (Masters 1993).
Les perceptrons multicouches (PMC) ont d’abord été introduits pour résoudre des problèmes
complexes de classification. Mais en raison de leur propriété d’approximateur universel
(Hornik, Stinchombe et White, 1990 ; Funahashi, Bruce et Rakic, 1989), ils ont été
rapidement utilisés comme modèles de régression non linéaire, et ensuite pour la modélisation
des séries temporelles et la prévision. (Gershenfeld et Weigend, 1993).
94
Cependant, l’estimation et l’identification de ces modèles utilisent des techniques
sophistiquées et il n’est pas facile de déterminer l’architecture adéquate. En effet, ces modèles
sont par définition sur-paramétrés, les fonctions d’erreur à minimiser ont de nombreux
minima locaux, et la mise en œuvre s’avère souvent délicate.
De nombreux articles portent sur les techniques d’élagage des paramètres inutiles, en
particulier dans le cadre des modèles de régression, appliquées aux séries temporelles (Moody
et Daken, 1989 ; Reed et Marks, 1999).
La prédiction des séries temporelles à traditionnellement été réalisée par l'utilisation des
modèles autorégressif (AR), des modèles autorégressif à moyenne mobile (ARMA, modèle de
Box-Jenkins), ou des modèle à moyenne mobile (MA). Un réseau de neurones artificiels
constitué de perceptrons multicouches (PMC) est un réseau statique, car elle n'a pas de lien de
retour physique. Pour le transformer en un réseau dynamique, une temporisation (mémoire)
dans les données d'entrée est introduite (Elman, 1990). La structure d'un RNA pour la
prédiction est illustrée à la figure 41
Elman (1990) présente une nouvelle approche de la manière suivante. Supposons un réseau
est augmentée au niveau d'entrée par des unités supplémentaires; appeler "unités de contexte".
Ces unités sont également "caché" dans le sens où ils interagissent exclusivement avec les
autres nœuds internes au réseau, et non pas à l'extérieur. Imaginer qu'il existe une entrée
séquentielle à traiter, et une horloge qui règle la présentation de l'entrée sur le réseau. Le
traitement consisterait alors à la séquence d'événements suivante. Au moment t, les unités
d'entrée reçoivent la première entrée dans la séquence. Chaque entrée peut être une valeur
scalaire unique ou un vecteur, selon la nature du problème. Les unités de contexte sont
initialement configurées pour 0,5.
La structure du réseau de neurones artificiels pour la prédiction est illustrée sur la figure 42,
où la variable à prédire est temporisé par un nombre fini d'étapes et utilisé à l'entrée. Il n'y a
pas de chemins physiques de rétroaction de la sortie vers l'entrée dans cette structure, mais il a
été appliqué avec succès dans de nombreuses applications telles que la prédiction de séries
temporelles (Anava, Hazan et Mannor, 2013), la prévision des inondations (Chang, Liang et
95
Chen, 2001), prévisions à court terme de charge (Khan et Ondrůöek, 2000), et la prévision des
séries chronologiques (Malasri et Malasri, 2002).
Figure 42 : Réseau de neurones artificiels pour des applications de prédiction avec des entrées
temporisés
Le réseau de neurones artificiels est entrainer pour prédire y(t+1) à partir de l'un ou plus
connu précédemment observations historiques (par exemple, y(t-n), y(t-2), y(t-1), y(t-1), et
y(t) ou t est le pas de temps).
Un fonctionnement plus sûr et un contrôle adéquat d'une station d'épuration peuvent être
atteints par le développement d'un outil de modélisation pour prédire la performance de la
station sur la base des observations passées de certains paramètres clés des eaux usées. Une
station de traitement des eaux usées impliquent plusieurs physiques complexes, biologique et
chimique procédés.
Souvent, ces procédés présentent des comportements non linéaires qui sont difficiles à décrire
par des modèles mathématiques linéaires (Plazl et al., 1999) . En outre, la variabilité des
caractéristiques influentes, en termes de taux composition, de débit, pourrait influencer les
paramètres du modèle, et du contrôle opérationnel de façon significative (Hamoda et al.,
1999). Par conséquent, la modélisation d'une station d'épuration est une tâche difficile et la
plupart des modèles disponibles ne sont que des approximations basées sur des hypothèses
(Lee et Park, 1999 ; Cote et al , 1995. ; Hamoda et al , 1999. ; Plazl et al, 1999 ; Bhat et al. ,
1990).
Les techniques employant les réseaux de neurones artificiels peuvent être utilisées pour
modéliser ces processus de stations d'épuration. Il peut être utilisé pour une meilleure
prédiction de la performance processus en raison de leur grande précision, d'adéquation et
d'applications très prometteurs en génie (Govindaraju, 2000 ; Maier et Dandy, 2000 ;
Neelakantan, Brion et Lingireddy, 2001). Elles s’appuient normalement sur des données
historiques représentatives du processus. Dans une station d'épuration, il y’a certaines
variables explicatives clés qui peuvent être utilisées pour évaluer le rendement de la station.
96
Ces variables comprennent la demande biologique en oxygène (DBO), la demande chimique
en oxygène (DCO), et matières en suspension (MES).
La plupart des études disponibles sur l'application des RNA dans les stations d'épuration ont
pour but la modélisation de ces variables. On constate que les modèles à base de RNA
constituent un outil efficace et robuste dans la prédiction de la performance d'une station
d'épuration.
Häck et Köhne (1996) dans leurs travaux pour la prédiction permettant le calcul approximatif
ou l'estimation des paramètres du processus de traitement qui sont temporairement non
disponible en cas de la rupture d'un analyseur en ligne dans la station de traitement des eaux
usées municipales de Siegen (Allemagne). Les résultats de la prédiction présente des
coefficients de corrélation de 0,92 pour la prévision de la DCO et de 0,82 pour la prévision de
l'ammonium (NH+4).
Zhu et al. (1998) ont proposé un réseau de neurones retard temporisé (TDNN) pour prédire
l'efficacité d'un procédé de traitement biologique en termes de mesures de DBO. Les résultats
de la simulation des auteurs à partir des données de processus réels ont montré que la
performance du modèle réseau de neurones à retard temporisé (coefficient de corrélation) est
améliorée à 0,845 contre 0,80 pour un réseau PMC initiale.
Belanche et al. (1999) proposent deux modèle RNA à retard temporisé pour la prédiction de
la DBO et la DCO de la station de traitement des eaux usées de la Costa Brava (Espagne), Les
résultats de prédiction ont trouvé un indice de corrélation de 0,504 pour la prédiction de la
demande chimique en oxygène (DCO). Ils mentionnent qu'un modèle hybride RNA-Logique
flou améliore considérablement la précision de la prédiction.
Choi et Park (2001) proposent un modèle RNA associé à une analyse en composantes
principales (ACP) pour extraire les données d'une station de traitement des eaux usées
industrielles. Sur les onze paramètres de qualités des eaux usées industrielles sont réduits à
seulement cinq principaux composants. Ces composants principaux sont devenus des entrées
du modèle RNA.
Les dispositifs d'extractions sont alors employés pour prévoir l'azote total kjeldahl (NTK) des
eaux usées industrielles à l'entrée de la station on utilisant un RNA. Le système hybride
montre un perfectionnement en matière de prédiction et réduit le problème du sur-
apprentissage.
97
Oliveira-Esquerre et al. (2002) ont obtenu des prédictions satisfaisantes de la concentration
de la DBO à la sortie d'une station de traitement des eaux usées industrielles au Brésil. Les
résultats de la simulation des auteurs à partir des données de processus réels ont montré que la
performance du modèle RNA associé à une analyse en composantes principales (coefficient
de corrélation) c'est améliorée à 0,80 contre 0,74 pour un modèle RNA initiale.
Chen et al. (2003) développent un modèle réseau de neurones artificiels pour prédire la
concentration de l'azote dans les effluents traités qui pourront être réutilisé pour la recharge
des nappes souterraines. L'exactitude de ce modèle était supérieure à 90%. Par contre dans ce
travail, aucune mention n'est faite sur la qualité des données.
Hamed et al. (2004) appliquent un modèle de réseau de neurones artificiels pour la prédiction
des performances d'une station de traitement des eaux usées résiduaires avec un procédé de
traitement conventionnelle importante dans la grande zone du Caire (Egypte). Les résultats
obtenus à partir de cette étude ont indiqué que les valeurs R2 varie de 0,63 à 0,81 pour la
DBO5 et de 0,45 à 0,65 pour les MES. Les auteurs ont conclus que le modèle RNA a été gêné
par la limitation des données, les données corrompu, et la restriction du modèle basée
uniquement sur deux paramètres.
Mjalli et al. (2007) ont employé un modèle RNA pour prévoir la qualité des effluents traités
et rejetés (DBO5, DCO et MES) à la sortie de la station de traitement des eaux résiduaires de
Doha, (Qatar). Ils ont employé les données brutes des paramètres de pollutions qui
caractérisaient la qualité d'eaux usées à savoir DBO5, DCO et les MES.
Les auteurs ont employé les données sur un an qui ont été prélevées tous les 5 jours. Ils ont
obtenu un coefficient de corrélation supérieur à 0,7, mais ils n'ont pas distingué si ces résultats
étaient obtenus de l'apprentissage, de la validation ou du test de l'ensemble des données.
Vyas et al. (2011) appliquent deux modèles de réseau de neurones artificiels pour la
prédiction des performances d'une station de traitement des eaux usées industrielles dans la
zone industrielle de Bhopal (Inde). La prédiction donne des résultats très satisfaisants pour les
deux modèles. Pour le premier modèle, la valeur de R est de 0,90 ce qui montre une bonne
corrélation entre DBOeq réelles et prévues avec une précision de 90%. De même le deuxième
montre de meilleurs résultats, la valeur de R est de 0,73 et une précision de 88%.
Nasr et al., (2012) proposent un modèle RNA pour prédire le rendement, construire une base
de données pour effectuer un contrôle du fonctionnement du processus de traitement de la
station d'épurations des eaux usées d'El-Agamy (Egypt). L'étude indique que le model RNA
98
peut prédire le rendement de la station entre les variables de sortie observées et prédites avec
un coefficient de corrélation (R) jusqu'à 0,90. En outre, le model RNA fournit une analyse
efficace et peut être considéré comme un outil de diagnostic pour comprendre et simuler le
comportement non linéaire de la station.
V.11. CONCLUSION
Ce chapitre fournit une brève introduction théorique aux réseaux neuronaux et commence par
examiner les différences et les similitudes entre le neurone biologique et artificiel.
Les réseaux de neurones artificiels possèdent une propriété remarquable qui est à l'origine de
leur intérêt pratique dans des domaines très divers.
Les RNA sont des approximateurs universels (Funahashi, Bruce et Rakic, 1989 ; Hornik,
Stinchombe et White, 1990 ; Haykin, 1999). La propriété d'approximation peut être énoncée
de la manière suivante : toute fonction bornée suffisamment régulière peut être approchée
avec une précision arbitraire, dans un domaine fini de l’espace de ses variables, par un réseau
de neurones comportant une couche de neurones cachés en nombre fini, possédant tous la
même fonction d’activation, et un neurone de sortie linéaire. Cette propriété de parcimonie est
précieuse dans les applications industrielles.
Les réseaux de neurones artificiels (RNA) sont des structures mathématiques non linéaires qui
sont capables de représenter le rapport fonctionnel non linéaire arbitraire et complexe entre les
données d'entrée et les données de sortie de n'importe quel système. Les RNA ont été
employés avec succès pour modéliser les rapports non linéaires complexes de séries
chronologiques d'entrée-sortie dans une large variété de domaines.
99
CHAPITRE VI : PREDICTION DU TAUX DE FIABILITE PAR RESEAUX
DE NEURONES ARTIFICIELS (Cas d’étude : station d’épuration de
Khenchela)
VI.1 INTRODUCTION
Les réseaux de neurones offrent la possibilité de modéliser des données arbitraires d'entrée au
moyen de l'ajustement des connexions internes au réseau, de sorte que pour une entrée donnée
de la différence entre la sortie du réseau et la réponse souhaitée, l'erreur est minimisée. C'est
le processus de l'entraînement du réseau au moyen d'un apprentissage supervisé, de sorte que
l'erreur du réseau est réduit de manière itérative sur un ensemble de vecteurs correspondant à
des entrées-sorties d'entrainement. Pourvu que l'ensemble des données d'entrainement soit
représentatif du processus, le modèle RNA résultant saisit la relation inhérente entre l'entrée et
la sortie et la possibilité de généraliser pour les entrées invisibles futures (Garvey, 1997).
L'objectif principal de cette recherche est de trouver des modèles RNA pouvant prédire les
taux de fiabilité des principaux paramètres de contrôles des eaux usées traités dans une station
d'épuration (DBO5, DCO et les MES).
L'un des défis est de trouver une topologie de réseau optimale en faisant varier les types
d'entrées du réseau et ainsi de résoudre le problème particulier de la cartographie d'entrée-
sortie. L'architecture du réseau approprié pour une application donnée est fortement
dépendante du problème, de la diversité de l'ensemble d'apprentissage et de la complexité de
la fonction sous-jacente (Garvey, 1997).
La partie "Cascade" qui se réfère à l'architecture et son mode de construction qui implique
l'ajout de couches cachées (nœuds de réseau située entre l'entrée et la sortie), une à la fois, et
toujours reliant toutes les unités précédentes de l'unité en cours. La deuxième partie
"corrélation" fait référence à la façon dont les unités cachées ont été formés en essayant de
100
maximiser la corrélation entre la sortie de la couche cachée et la sortie désirée du réseau de
neurones artificiels à travers les données de formation.
Le logiciel Predict offre un choix de deux règles d'apprentissage. La première est la règle
d'apprentissage du gradient adaptative. La deuxième règle d'apprentissage est la règle de
Kalman qui est applicable à des problèmes de type de régression dans lequel le nombre
d'entrées n'est pas trop grand.
Dans notre étude, le choix s’est porté sur la première règle d'apprentissage qui est largement
applicable (Lecun et al., 1998 ; User guide, 2009).
Le principe général du fonctionnement d’un algorithme génétique est représenté sur la figure
43: on commence par générer une population d’individus de façon aléatoire. Pour passer
d’une génération k a la génération k+1, les trois opérations suivantes sont répétées pour tous
les éléments de la population k. Des couples de parents P1 et P2 sont sélectionnées en
fonction de leurs adaptations. L’opérateur de croisement leur est appliquée avec une
probabilité Pc (généralement autour de 0,6) et génère des couples d’enfants C1 et C2.
D’autres éléments P sont sélectionnés en fonction de leur adaptation. L’opérateur de mutation
leur est appliquée avec la probabilité Pm (Pm est généralement très inférieur à Pc) et génère
des individus mutées P'. Le niveau d’adaptation des enfants (C1,C2) et des individus mutées
P' sont ensuite évaluées avant insertion dans la nouvelle population. Différents critères d’arrêt
de l’algorithme peuvent être choisis (Alliot et Durand, 2005)
101
Figure 43: Principe général des algorithmes génétiques (Alliot et Durand, 2005)
Le nombre d'entrées du modèle RNA diffère souvent du nombre des données choisies au
départ en raison du processus de transformation des données pour la construction du modèle
de prédiction (User guide, 2009). Cette technique fera l’objet de futures études de recherches.
Le choix s’est porté dans cette étude sur la nécessité de prendre en considérations tous les
paramètres jugés pouvoir modéliser les performances du procédé de traitement.
Les modèles RNA proposés dans cette étude n’incluent pas les propositions fournis par
l’algorithme génétique.
Dans le cas de notre étude, on a choisi d'utiliser l'ensemble des données des paramètres DCO
DBO5 et MES (à savoir 123 données), pour les modèles simples et les modèles complets des
paramètres DBO5 et DCO. Par contre pour les modèle complet du paramètres MES,
l’ensemble des données utilisées dans cette études est constitué d’un premier groupe de 374
données (2009-2010), et le deuxième groupe de 410 données (2011-2012).
Cependant, la non-linéarité (c'est-à-la capacité de représenter des fonctions non linéaires) qui
rend les réseaux multicouches puissant. Pour l'apprentissage de rétro-propagation, la fonction
d'activation doit être différentiables, et ça aide si la fonction est limitée, les fonctions
sigmoïdes telles que la logistique, la fonction tangente hyperbolique (tanh), et la fonction de
Gauss sont les choix les plus courants. Pour les couches cachées, les fonctions d'activation
sigmoïde sont généralement préférables (LeCun, 1998 ; Mjalli, 2007 ; User guide, 2009 ; faqs,
2012).
Lors de la conception des réseaux de neurones artificiels, la fonction de transfert initiale est
appliquée à chacune des couches du réseau. Pour la plupart des réseaux. La fonction
d'activation la plus couramment utilisée dans les modèle RNA à base Perceptron Multi couche
(PMC) est la fonction d'activation sigmoïde et donne généralement de bons résultats (Joarder
et aziz, 2002 ; Piekniewski et Tybicki, 2004). La fonction d'activation sigmoïde est limitée
dans l'intervalle [0 , 1], qui sont les valeurs utilisées pour indiquer l'appartenance à une classe
103
de sortie . L'entrée pour cette fonction varie de - ∞ à + ∞ mais généralement limitée à certaine
valeur (Isa et al., 2010).
Dans cette étude notre choix c'est orienté pour la fonction d'activation tanh pour les neurones
de la couche cachés, et pour la couche de sortie la fonction sigmoïde pour modéliser le
comportement non linéaires du procédé de traitement.
La phase d'apprentissage ou de formation d'un RNA peut être interrompue à trois conditions:
1. Coefficient de corrélation linéaire (R) entre les valeurs cibles et les valeurs de sortie
prédites correspondantes.
∧ ∧
N ∑ y − (∑ y )(∑ y )
R=
∧2 ∧
( N ∑ y 2 − ( ∑ y ) 2 ) × ( N ∑ y − (∑ y ) 2 )
2. Coefficient de détermination (R2) entre les valeurs cibles et les valeurs de sortie
correspondantes (valeurs de sortie prédites).
104
3. L'erreur moyenne absolue (EMA) entre les valeurs cibles et les valeurs de sortie
correspondantes (valeurs de sortie prédites).
1 N ∧
EMA = ∑ yi − yi
N i =1
1. L'erreur quadratique moyenne (EQM) entre les valeurs de sortie prédites et les valeurs
cibles correspondantes.
2
1 N ∧
EQM = ∑ yi − yi
N i =1
105
par la construction de modèle simple à utiliser et basé sur des données quotidiennes et faciles
à mesurer.
Dans la quête de construire des modèles RNA, chaque paramètre de qualité étudié est
modéliser par une combinaison de paramètres d’entrées, chaque paramètre de qualité étudié
est modéliser par la concentration à la sortie de la station, ainsi que les taux de fiabilité estimé
par la méthode probabiliste de Niku et al. (1979) qui serviront de données cibles utilisées par
le modèle RNA lors de la phase d’apprentissage et de validation.
De nombreux problèmes dans des compartiments spécifiques sont rencontrés dans la station
d’épuration de Khenchela. Suite aux différents discussions avec les exploitants, un intérêt
c’est dégagé pour l’étude et l’analyse des performances de l’élimination des MES dans la
station. Concernant ce paramètre, les données sont devisés en deux parties vue le nombre
106
important (784 données), et due au faite que le nombre maximale des données acceptées par
ce logiciel est limité à 512 données.
107
Tableau 22: Données entrées-sortie des différents modèles complets RNA.
DCOentrée DCOsortie
DCOentrée DCOsortie
Tous les modèles de réseaux de neurones artificiels dans le présent travail sont mises en
œuvre en utilisant la version gratuite (Limited version) du logiciel NeuralWorks Predict®
(Vyas et al., 2011).
108
VI.4 PREDICTION DU TAUX DE FAIBILITE DES PARAMETRES DE
QUALITE DES EAUX TRAITEES PAR MODELE SIMPLE
Tableau 23: Données d’entrées-sortie du modèle simple MS-RNADBO5 pour la prédiction du taux
de fiabilité de la dégradation de la DBO5.
Entrées Sortie
Débitentrée
DBO5entrée Réseau de
Neurones
DCOentrée Fiabilité-DBO5
Artificiels
DBO5sortie
(4-3-1)
Figure 44: Schéma générale du modèle simple RNADBO5 (4-3-1) pour la prédiction du taux de
fiabilité de la dégradation de la DBO5.
109
Table 24: Performances de la prédiction du taux de fiabilité de la dégradation de la DBO5 par
modèle simple MS-RNADBO5.
70
60
50
40
30
20
10
0
1
5
9
101
105
109
113
117
121
13
17
21
25
29
33
37
41
45
49
53
57
61
65
69
73
77
81
85
89
93
97
Epoques (Jours)
Figure 45: taux de fiabilité de la dégradation de la DBO5 prédite par modèle simple MS-
RNADBO5 (4-3-1) versus fiabilité par modèle probabiliste (valeur cible).
110
L’application du modèle simple RNADBO5 pour la prédiction du taux de fiabilité de la
dégradation de la DBO5 dans la station d’épuration de Khenchela durant la période d’étude de
4 ans (2009-2012) est présenté sur la figure 46.
70
60
50
40
30
20
10
0
Mois
Figure 46: Taux de fiabilité de la dégradation de la DBO5 prédit par réseau de neurones
artificiels simple (4-3-1), station d’épuration de Khenchela (2009-2012).
Tableau 25: Données d’entrées-sortie du modèle simple MS-RNADCO pour la prédiction du taux
de fiabilité d’élimination de la DCO.
Entrées Sortie
111
Le modèle construit pour prédire le taux de fiabilité de l’élimination de la DCO du procédé de
traitement de la station d’épuration de Khenchela est constitué de 4 neurones dans la couche
d’entrées, 2 neurones dans la couche cachée, et 1 neurone dans la couche de sortie.
Débitentrée
Réseau de
DCOentrée
Neurones
DBO5entrée Fiabilité-DCO
Artificiels
DCOsortie
(4-2-1)
Figure 47: Schéma générale du modèle simple MS-RNADCO (4-2-1) pour la prédiction du taux de
fiabilité d’élimination de la DCO.
112
Fiabilité par modèle probabiliste (valeur cible)
Fiabilité prédite par MS-RNA_DCO
100
90
80
Taux de fiabilité (%)
70
60
50
40
30
20
10
0
1
5
9
101
105
109
113
117
121
13
17
21
25
29
33
37
41
45
49
53
57
61
65
69
73
77
81
85
89
93
97
Epoques (Jours)
Figure 48: Taux de fiabilité d’élimination de la DCO prédit par modèle simple MS-RNADCO
113
Fiabilité par modèle probabiliste
Fiabilité prédite par MS-RNA_MES
100
90
80
Taux de fiabilité (%)
70
60
50
40
30
20
10
0
Mois
Figure 49: Taux de fiabilité de la dégradation de la DBO5 prédit par réseau de neurones
artificiels simple (4-2-1), station d’épuration de Khenchela (2009-2012)
Tableau 27: Données d’entrées-sortie du modèle simple MS-RNAMES pour la prédiction du taux
de fiabilité d’élimination des MES.
Entrées Sortie
Le modèle construit pour prédire le taux de fiabilité de l’élimination des MES de la station
d’épuration de Khenchela est constitué de 4 neurones dans la couche d’entrées, 4 neurones
dans la couche cachée, et 1 neurone dans la couche de sortie.
114
Débitentrée
Réseau de
Débitsortie
Neurones
MESentrée Fiabilité-MES
Artificiels
MESsortie
(4-4-1)
Figure 50: Schéma générale du modèle simple MS-RNAMES (4-4-1) pour la prédiction du taux de
fiabilité d’élimination des MES.
Les performances de la prédiction du taux de fiabilité d’élimination des MES sont présentées
dans le tableau 28.
Tableau 28: Performances de la prédiction du taux de fiabilité d’élimination des MES par
modèle simple MS-RNAMES.
115
Fiabilité par modèle probabiliste (valeur cible)
Fiabilité prédite par MS-RNA_MES
100
90
80
Taux de fiabilité (%)
70
60
50
40
30
20
10
0
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101106111116121
Epoques (Jours)
Figure 51: Taux de fiabilité d’élimination des MES prédit par modèle simple MS-RNAMES
116
Fiabilité par modèle probabiliste
Fiabilité prédite par MS-RNA_MES
100
90
80
Taux de fiabilité (%)
70
60
50
40
30
20
10
0
Mois
Figure 52: Taux de fiabilité d’élimination des MES prédit par réseau de neurones artificiels
simple (4-4-1), station d’épuration de Khenchela (2009-2012)
Entrées Sortie
117
Le modèle complet construit pour prédire le taux de fiabilité de la dégradation de la DBO5 de
la station d’épuration de Khenchela est constitué de 14 neurones dans la couche d’entrée, 3
neurones dans la couche cachée, et 1 neurone dans la couche de sortie.
Débitentrée
DBO5entrée
MESentrée
DCOentrée
Réseau de
Débitsortie, Neurones
DBO5sortie Artificiels
MESsortie Fiabilité-DBO5
DCOsortie (14-3-1)
pHentrée
Températureentrée
Conductivitéentrée
pHsortie,
Températuresortie,
Conductivitésortie
118
Tableau 30: Performances de la prédiction du taux de fiabilité de la dégradation de la DBO5 par
le modèle complet MC-RNADBO5.
70
60
50
40
30
20
10
0
1
6
11
16
21
26
31
36
41
46
51
56
61
66
71
76
81
86
91
96
101
106
111
116
121
Epoque (Jours)
Figure 54: Fiabilité de la dégradation de la DBO5 prédite par modèle complet MC-RNADBO5
119
L’application du modèle complet RNADBO5 pour la prédiction du taux de fiabilité de la
dégradation de la DBO5 dans la station d’épuration de Khenchela durant la période d’étude de
4 ans (2009-2012) est présenté sur la figure 55.
70
60
50
40
30
20
10
0
01-01-2009
01-03-2009
01-05-2009
01-07-2009
01-09-2009
01-11-2009
01-01-2010
01-03-2010
01-05-2010
01-07-2010
01-09-2010
01-11-2010
01-01-2011
01-03-2011
01-05-2011
01-07-2011
01-09-2011
01-11-2011
01-01-2012
01-03-2012
01-05-2012
01-07-2012
01-09-2012
01-11-2012
Mois
Figure 55: Taux de fiabilité de la dégradation de la DBO5 prédit par réseau de neurones
artificiels complet (14-3-1), station d’épuration de Khenchela (2009-2012)
Entrées Sortie
120
Le modèle construit pour prédire le taux de fiabilité de la dégradation de la DCO de la station
d’épuration de Khenchela est constitué de 14 neurones dans la couche d’entrée, 8 neurones
dans la couche cachée, et 1 neurone dans la couche de sortie.
Débitentrée
DBO5entrée
MESentrée
DCOentrée Réseau de
Neurones
Débitsortie,
DBO5sortie
Artificiels
MESsortie
DCOsortie
(14-8-1) Fiabilité-DCO
pHentrée
Températureentrée
Conductivitéentrée
pHsortie,
Températuresortie,
Conductivitésortie
Figure 56: Schéma générale du modèle complet MC-RNADCO (14-8-1) pour la prédiction du taux
de fiabilité d’élimination de la DCO.
121
La prédiction de la fiabilité de l’élimination de la DCO du procédé de traitement de la station
d’épuration de Khenchela est représentée sur la figure 57.
70
60
50
40
30
20
10
0
101
105
109
113
117
121
1
5
9
13
17
21
25
29
33
37
41
45
49
53
57
61
65
69
73
77
81
85
89
93
97
Epoques (Jours)
Figure 57: Taux de fiabilité d’élimination de la DCO prédit par modèle complet MC-RNADCO
122
Fiabilité par modèle probabiliste
Fiabilité prédite par MC-RNA_DCO
100
90
80
Taux de fiabilité (%)
70
60
50
40
30
20
10
0
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Mois
Figure 58: Taux de fiabilité d’élimination de la DCO prédit par réseau de neurones artificiels
complet (14-8-1), station d’épuration de Khenchela (2009-2012)
Tableau 33: Données d’entrées-sortie des modèles complets MC-RNAMES1 et MC-RNAMES2 pour
la prédiction du taux de fiabilité d’élimination des MES.
Entrées Sortie
123
• Le premier modèle construit pour prédire le taux de fiabilité de l’élimination des
MES de la station d’épuration de Khenchela est constitué de 10 neurones dans la
couche d’entrées, 3 neurones dans la couche cachée, et 1 neurone dans la couche de
sortie.
Débitentrée
MESentrée Réseau de
Neurones
Débitsortie,
Artificiels
MESsortie
(10-3-1) Fiabilité-MES1
pHentrée
Températureentrée
Conductivitéentrée
pHsortie,
Températuresortie,
Conductivitésortie
Figure 59: Schéma générale du modèle complet MC-RNAMES1 (10-3-1) pour la prédiction du
taux de fiabilité d’élimination des MES.
Les performances de la prédiction du modèle RNAMES1 sont présentées dans le tableau 34.
Tableau 34: Performances de la prédiction du taux de fiabilité d’élimination des MES par
modèle complet MC-RNAMES1.
124
La prédiction de la fiabilité d’élimination des MES du procédé de traitement de la station
d’épuration de Khenchela est représentée sur la figure 60.
70
60
50
40
30
20
10
0
106
121
136
151
166
181
196
211
226
241
256
271
286
301
316
331
346
361
376
391
406
421
436
1
16
31
46
61
76
91
Epoques (Jours)
Figure 60: Taux de fiabilité d’élimination des MES prédit par modèle complet RNAMES1 (10-3-1)
versus fiabilité par modèle probabiliste (valeur cible).
125
Fiabilité par modèle probabiliste
Fiabilité prédite par MC-RNA_MES1
100
90
80
Taux de fiabilité (%)
70
60
50
40
30
20
10
0
Mois
Figure 61: Taux de fiabilité d’élimination des MES prédit par réseau de neurones artificiels
complet (10-3-1), station d’épuration de Khenchela (2009-2010).
• Le deuxième modèle construit pour prédire le taux de fiabilité d’élimination des MES
de la station d’épuration de Khenchela est constitué de 10 neurones dans la couche
d’entrées, 6 neurones dans la couche cachée, et 1 neurone dans la couche de sortie.
Débitentrée
MESentrée Réseau de
Neurones
Débitsortie,
Artificiels
MESsortie
(10-6-1) Fiabilité-MES2
pHentrée
Températureentrée
Conductivitéentrée
pHsortie,
Températuresortie,
Conductivitésortie
Figure 62: Schéma générale du modèle complet MC-RNAMES2 (10-6-1) pour la prédiction du
taux de fiabilité d’élimination des MES.
Les performances de la prédiction du modèle RNAMES2 sont présentées dans le tableau 35.
126
Tableau 35: Performances de la prédiction du taux de fiabilité d’élimination des MES par
modèle complet MC-RNAMES2.
70.00
60.00
50.00
40.00
30.00
20.00
10.00
0.00
1
12
23
34
45
56
67
78
89
100
111
122
133
144
155
166
177
188
199
210
221
232
243
254
265
276
287
298
309
320
331
342
Epoques (Jours)
Figure 63: Taux de fiabilité d’élimination des MES prédit par modèle complet RNAMES2 (10-6-1)
versus taux de fiabilité par modèle probabiliste (valeur cible).
127
L’application du modèle complet RNAMES2 pour la prédiction du taux de fiabilité
d’élimination des MES dans la station d’épuration de Khenchela durant une période d’étude
de 2 ans (2011-2012) est présenté sur la figure 64.
70
60
50
40
30
20
10
0
Mois
Figure 64: Taux de fiabilité d’élimination des MES prédit par réseau de neurones artificiels par
modèle complet RNAMES2 (10-6-1), station d’épuration de Khenchela (2011-2012)
Six modèles sont présentées ou les entrées sont modifiées pour inclure des combinaisons de
différents paramètres pour tenter de modéliser l'effet de la variation de la quantité et les
qualités des eaux usées brutes à l'entrée et la sortie de la station d'épuration. Dans cette étude
une approche originale a été choisie pour tenter d'inclure l'effet de la température sur la
fiabilité du procédé de traitement dans les modèles complets.
La topologie étudiée est Perceptron multicouche PMC un réseau de type Alimentation Avant
(en anglais Feedforward Neual Network), avec comme règle d'apprentissage l'algorithme de
rétro propagation du gradient d'erreur.
La structure physique de tous les réseaux de neurones artificiels considérés dans cette étude
dispose d'une seule couche cachée. La fonction d'activation de la couche cachée est la
128
tangente hyperbolique (tanh), et la fonction d'activation de la couche de sortie est la fonction
sigmoïde.
Dans la figure 45, une comparaison graphique entre les taux de fiabilités prédites par le
modèle simple RNADBO5 et les taux de fiabilités cible (par modèle probabiliste). En fin une
application des taux de fiabilités prédites est représentée pour la période d'études de 4 ans est
représenté dans la figure 46.
Les résultats du modèle simple MS-RNADBO5 montrent que lors de la première étape (phase
d'apprentissage), l'erreur moyenne absolue de l'apprentissage est de 4,17%, l'erreur
quadratique moyenne est de 7,52%. Le coefficient de régression R= 0,94, et le coefficient de
détermination R2= 0,88. Ces paramètres indique que le modèle simple RNADBO5 est en
mesure de bien répondre aux données d'apprentissage et capable de les rapprochés. Le modèle
simple RNADBO5 est donc en mesure de résoudre le problème particulier de cartographie les
données entrée-sortie.
Lors de la deuxième étape (phase de test), les résultats du modèle simple RNADBO5 montrent
que l'erreur moyenne absolue de la validation est de 4,37%, l'erreur quadratique moyenne est
de 7,835%. Le coefficient de régression R= 0,93, et le coefficient de détermination R2= 0,86.
Ces résultats indiquent que les performances de généralisation du modèle simple RNADBO5
sont bonnes. Le modèle simple MS-RNADBO5 est en mesure de faire des prédictions précises.
Dans la figure 54, une comparaison graphique entre les taux de fiabilités prédites par le
modèle complet MC-RNADBO5 et les taux de fiabilités cible (par modèle probabiliste). En fin
une application des taux de fiabilités prédites est représentée pour la période d'études de 4 ans
est représentée dans la figure 55.
Les résultats du modèle complet RNADBO5 montrent que lors de la première étape (phase
d'apprentissage), l'erreur moyenne absolue de l'apprentissage est de 4,61%, et l'erreur
129
quadratique moyenne est de 7,42%. Le coefficient de régression R= 0,93, et le coefficient de
détermination R2= 0,86. Ces paramètres indique que le modèle complet RNADBO5 à bien
répondu aux données d'apprentissage et qu'il est capable de les rapprochées.
Lors de la deuxième étape (phase de test), les résultats du modèle complet RNADBO5 montrent
que l'erreur moyenne absolue de la validation est de 5,54%, l'erreur quadratique moyenne est
de 10,24%. Le coefficient de régression R= 0,87, et le coefficient de détermination R2= 0,76.
Ces résultats indiquent que le modèle complet RNADBO5 trouve des difficultés de
généralisation due à la croissance des données d'entrée et du degré de complexité de
l'interaction des paramètres d'entrée ce qui rend la tâche de modéliser la fiabilité du procédé
encore plus difficile, malgré cet effet de croissance de la complexité de l'interconnexion entre
les données d'entrée, le modèle MC-RNADBO5 est en mesure de faire des prédictions de bonne
qualité.
Dans la figure 48, une comparaison graphique entre les taux de fiabilités prédites par le
modèle simple RNADBO5 et les taux de fiabilités cible (par modèle probabiliste). En fin une
application des taux de fiabilités prédites est représentée pour la période d'études de 4 ans est
représenté dans la figure 49.
Lors de la première étape (phase d’apprentissage) les résultats du modèle simple MS-RNADCO
montrent que l'erreur moyenne absolue de l'apprentissage est de 1,63%, et l'erreur quadratique
moyenne est de 3,77%. Le coefficient de régression R= 0,95, et le coefficient de
détermination R2= 0,90. Ces paramètres indique que le modèle simple RNADCO a bien
répondu aux données d'apprentissage et qu’il capable de les rapprochés. Le modèle simple
RNADCO est en mesure de cartographier les données entrée-sortie.
Les résultats du modèle MS-simple MS-RNADCO lors de la deuxième étape (phase de test)
montrent une légère croissance de l'erreur moyenne absolue de la validation estimée à 1,92%,
ainsi que celle de l'erreur quadratique moyenne avoisinant les 5%. Le coefficient de
régression R= 0,93, et le coefficient de détermination R2= 0,86. Cette légère détérioration de
la performance du modèle est due au faite que les données du set de validation sont trop
étendues (l’écart types des données de validation DCOentrée et DCOsortie sont plus importants
que ceux des données d’apprentissage). Malgré cet effet, les performances de généralisation
du modèle simple sont bonnes, et le modèle MS-RNADCO est en mesure de faire des
prédictions précises.
130
VI.6.2.2 Prédiction du taux de fiabilité par modèle complet MC-RNADCO (14-8-1)
Le modèle complet MC-RNADBO5 est présenté dans la sous-section VI.5.2. Les données
d'entrées-sortie sont présentées dans le tableau 31. Les performances de prédiction du modèle
complet sont présentées dans le tableau 32.
Une étude comparative entre les taux de fiabilités prédites par le modèle complet MC-
RNADCO et les taux de fiabilités cible (par modèle probabiliste) est représentée sur la figure
57. La figure 58 représente une application du modèle de prédiction des taux de fiabilité
durant une période d’études de 4 ans.
Les résultats du modèle complet MC-RNADCO montrent que lors de la première étape (phase
d'apprentissage), l'erreur moyenne absolue de l'apprentissage est minimal estimé à 2,83%,
alors que l'erreur quadratique moyenne est proche de 7,5%. Le coefficient de régression R=
0,90, et le coefficient de détermination R2= 0,81. Ces paramètres indique que le modèle
complet RNADCO est capable de les rapprochés les données d'apprentissage.
Par contre, lors de la deuxième étape (phase de test), les résultats du modèle complet RNADCO
on constate que l’erreur moyenne absolue de la validation a évolué. L'erreur quadratique
moyenne dépasse les 8%. Le coefficient de régression R= 0,69, et la valeur du coefficient de
détermination décroit considérablement à 0,47 ce qui signifie que l’ajustement entre les
valeurs prédites et les valeurs cibles est médiocre. Ces résultats indiquent que le modèle
complet MC-RNADCO trouve des difficultés de généralisation due à la difficulté de modéliser
l'interaction entre les différentes données d’entrée. Malgré l’effet de la complexité de
l'interconnexion entre les données d'entrée et la croissance des données d’entrée, le modèle
MC-RNADBO5 fourni des prédictions de qualité acceptable.
Une comparaison entre les taux de fiabilités prédites par le modèle simple MS-RNAMES et les
taux de fiabilités cibles (par modèle probabiliste) est présentée dans la figure 51. En fin sur la
figure 52 une présentation graphique a pour objet la prédiction des taux de fiabilités comparés
aux taux de fiabilité par modèle probabiliste durant une période de 4 ans.
Lors de son apprentissage le modèle simple RNAMES affiche une erreur moyenne absolue de
l’ordre de 2,5%, et d’une erreur quadratique moyenne inférieur à 5%.
Les résultats du modèle simple MS-RNAMES en phase de validation montrent que les
performances de généralisation du modèle simple sont très bonnes, et que ce modèle est en
mesure de fournir des prédictions précises.
Les deux modèles complets MC-RNAMES1 et MC-RNAMES2 sont présentés dans la sous-
section VI.5.3. Les données d'entrées-sortie sont présentées dans le tableau 33. Les
performances de prédiction des deux modèles complets sont présentées dans les tableaux 34
et 35. Une étude comparative entre les taux de fiabilités prédites par les modèles complets
MC-RNAMES1,2 et les taux de fiabilités cibles (par modèle probabiliste) sont représentées sur
les figure 60 et 63.
Les figures 61 et 64 englobent une application des deux modèles de prédiction des taux de
fiabilité d’élimination des MES en comparaison avec les taux de fiabilités déterminé par
modèle probabiliste durant une période d’études de 4 ans.
Les résultats des modèles complets MC-RNAMES1,2 montrent que lors de la phase
d'apprentissage, l'erreur moyenne absolue est minimal estimé à 2,53% pour le deuxième
modèle2,831%, alors qu’elle est inférieur à 2% pour le premier modèle. L’erreur quadratique
moyenne des deux modèles est inférieure à 5%. Les deux modèles ont presque le même
coefficient de régression R proche de 0,98, quant au coefficient de détermination des deux
modèles, il est proche de 0,95. Ces paramètres indiquent que le modèle complet RNADCO est
capable de les rapprochés les données d'apprentissage.
Les résultats des deux modèles complets MC-RNAMES1,2 durant la étape de validation
affichent des erreurs moyennes absolues inférieur à 3%. Par contre les erreurs quadratiques
moyennes sont légèrement supérieures à 5%. Les coefficients de régression R sont de l’ordre
de 0,97, et les coefficients de détermination proche de 0,95 ce qui signifie que les ajustements
entre les valeurs prédites et les valeurs cibles sont de très bonne qualité. Ces résultats
indiquent que les deux modèles arrivent à généraliser, et sont en mesure de réaliser des
prédictions précises.
132
VI.7. CONCLUSION
L’application des modèles simples pour la prédiction des performances d’une station
d’épuration présentent un intérêt spécial vue leurs simplicité et leurs facilité d’utilisation pour
l’estimation des taux de fiabilité quotidienne du procédé de traitement. Ces résultats peuvent
être un très bon indicateur aux exploitants pour servir de support d’aide à la gestion et
l’exploitation des différents compartiments du procédé de traitement.
L’application des modèles complets pour la prédiction des taux de fiabilités représente un
intérêt scientifique et académique pour tenter de modéliser des phénomènes non linéaires très
complexes qui mettent en contribution un grand nombre de paramètres.
Globalement, les résultats montrent que les modèles RNA sont des alternatives prometteuses
pour l’estimation des performances d’une station d’épuration qui peuvent substituer aux
méthodes d’estimation des performances traditionnelle basés sur des modèles probabiliste
nécessitant une maitrise des outils statistiques. Toutefois, des améliorations supplémentaires
aux structures RNA doivent être étudiées.
133
CHAPITRE VII : PREDICTION DU TAUX DE DEFAILLANCES PAR
LES RESEAUX DE NEURONES ARTIFICIELS (Cas d’étude : station
d’épuration de Khenchela)
VII.1 INTRODUCTION
Un dysfonctionnement d'une installation de traitement des eaux usées est un problème social
et biologique délicat. Une eau usée mal traitée peut engendrer des conséquences dangereuses
pour la santé des êtres humains ainsi que le milieu récepteur (Blanche et al., 1992).
Les réseaux de neurones offrent la possibilité de modéliser des données arbitraires d'entrée au
moyen de l'ajustement des connexions internes au réseau, de sorte que pour une entrée donnée
de la différence entre la sortie du réseau et la réponse souhaitée, l'erreur est minimisée. C'est
le processus de l'entraînement du réseau au moyen d'un apprentissage supervisé, de sorte que
l'erreur du réseau est réduit de manière itérative sur un ensemble de vecteurs correspondant à
des entrées-sorties d'entrainement. Pourvu que l'ensemble des données d'entrainement soit
représentatif du processus, le modèle RNA résultant saisit la relation inhérente entre l'entrée et
la sortie et la possibilité de généraliser pour les entrées invisibles futures (Garvey, 1997).
L'objectif principal de cette recherche est de trouver des modèles RNA pouvant prédire les
taux de fiabilité, ainsi que les taux de défaillances des principaux paramètres de contrôles des
eaux usées traités dans une station d'épuration (MES, DCO et DBO5).
L'un des défis est de trouver une topologie de réseau optimale en faisant varier les types
d'entrées du réseau et ainsi de résoudre le problème particulier de la cartographie d'entrée-
sortie. L'architecture du réseau approprié pour une application donnée est fortement
dépendante du problème, de la diversité de l'ensemble d'apprentissage et de la complexité de
la fonction sous-jacente (Garvey, 1997).
134
Les données d’auto-surveillances journalières serviront pour prédite les différents taux de
défaillance du procédé de traitement.
Tableau 36: Données entrées-sortie des différents modèles simples RNA (prédiction du taux de
défaillance).
La construction des modèles RNA est basé sur une combinaison de paramètres d’entrée,
chaque paramètre de qualité étudié est modéliser par la concentration à la sortie de la station,
ainsi que les taux de défaillance estimé par la méthode probabiliste de Niku et al. (1979) qui
serviront de données cibles utilisées lors de la phase d’apprentissage et de validation du
modèle RNA.
135
Tableau 37: Données entrées-sortie des différents modèles complets RNA (prédiction du taux de
défaillance).
MESentrée DCOsortie
DCOentrée pHentrée
DBO5entrée DCOsortie
MESentrée pHentrée
pHentrée
pHsortie
136
Tableau 38: Données d’entrées-sortie du modèle simple MS-RNADBO5 pour la prédiction du taux
de défaillance de la dégradation de la DBO5.
Entrées Sortie
Débitentrée
Réseau de
DBO5entrée
Neurones Taux de
DCOentrée
Artificiels défaillance-DBO5
MESentrée
(5-2-1)
DBO5sortie
Figure 65: Schéma générale du modèle simple MS-RNADBO5 (5-2-1) pour la prédiction du taux
de défaillance de la dégradation de la DBO5.
137
Tableau 39 : Performances de la prédiction du taux de défaillance de la dégradation de la DBO5
par le modèle simple MS-RNADBO5.
70
60
50
40
30
20
10
0
101
105
109
113
117
121
1
5
9
13
17
21
25
29
33
37
41
45
49
53
57
61
65
69
73
77
81
85
89
93
97
Epoques (Jours)
Figure 66 : Taux de défaillance de la dégradation de la DBO5 prédit par modèle simple MS-
RNADBO5 (5-2-1) versus taux de défaillance par modèle probabiliste (valeur cible).
138
L’application du modèle simple RNADBO5 pour la prédiction du taux de défaillance de la
dégradation de la DBO5 dans la station d’épuration de Khenchela durant la période d’étude de
4 ans (2009-2012) est présenté sur la figure 67.
80
Taux de défaillance (%)
70
60
50
40
30
20
10
0
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Mois
Entrées Sortie
139
Le modèle construit pour la prédiction du taux de défaillance de l’élimination de la DCO du
procédé de traitement de la station d’épuration de Khenchela est constitué de 5 neurones dans
la couche d’entrées, 8 neurones dans la couche cachée, et 1 neurone dans la couche de sortie.
Débitentrée
Réseau de
DCOentrée Neurones Taux de
Artificiels défaillance-
DBO5entrée
DCO
(5-8-1)
MESentrée
DCOsortie
Figure 68 : Schéma générale du modèle simple MS-RNADCO (5-8-1) pour la prédiction du taux
de défaillance d’élimination de la DCO.
Les performances de la prédiction du modèle simple RNADCO sont présentées dans le tableau
ci-dessous.
140
La prédiction du taux de défaillance de l’élimination de la DCO du procédé de traitement de
la station d’épuration de Khenchela est représentée sur la figure 69.
100
Taux de défaillance par modèle probabiliste (valeur cible)
90
Taux de défaillance prédit par MS-RNA_DCO
80
Taux de défaillance (%)
70
60
50
40
30
20
10
0
1
5
9
13
17
21
25
29
33
37
41
45
49
53
57
61
65
69
73
77
81
85
89
93
97
101
105
109
113
117
121
Epoques (Jours)
Figure 69 : Taux de défaillance d’élimination de la DCO prédit par modèle simple MS-RNADCO
141
100
90 Taux de défaillance par modèle probabiliste
80 Taux de défaillance prédit par MS-RNA_DCO
Taux de défaillance (%)
70
60
50
40
30
20
10
0
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Mois
Entrées Sortie
Le modèle construit pour prédire le taux de fiabilité de l’élimination des MES de la station
d’épuration de Khenchela est constitué de 4 neurones dans la couche d’entrées, 3 neurones
dans la couche cachée, et 1 neurone dans la couche de sortie.
142
Débitentrée
Réseau de
Débitsortie
Neurones Taux de
MESentrée
Artificiels défaillance-MES
MESsortie
(4-3-1)
Figure 71: Schéma générale du modèle simple MS-RNAMES (4-3-1) pour la prédiction du taux
de défaillance d’élimination des MES.
Les performances de la prédiction du modèle simple RNAMES sont présentées dans le tableau
ci-dessous.
143
100 Taux de défaillance par modèle probabiliste (valeur cible)
Taux de défaillance prédit par MS-RNA_MES
90
80
Taux de défaillance (%)
70
60
50
40
30
20
10
0
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101106111116121
Epoques (Jours)
Figure 72 : Taux de défaillance d’élimination des MES prédit par modèle simple MS-RNAMES
(4-3-1) versus taux de défaillance par modèle probabiliste (valeur cible).
144
Taux de défaillance par modèle probabiliste
100 Taux de défaillance prédit par MS-RNA_MES
90
80
Taux de défaillance (%)
70
60
50
40
30
20
10
0
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Mois
Figure 73 : Taux de défaillance d’élimination des MES prédit par réseau de neurones artificiels
simple (4-3-1), station d’épuration de Khenchela (2009-2012).
Entrées Sortie
145
Le modèle construit pour prédire le taux de fiabilité de la dégradation de la DBO5 de la station
d’épuration de Khenchela est constitué de 10 neurones dans la couche d’entrée, 2 neurones
dans la couche cachée, et 1 neurone dans la couche de sortie.
Débitentrée
DBO5entrée
Réseau de
MESentrée
DCOentrée Neurones
Artificiels Taux de
Débitsortie,
défaillance-DBO5
DBO5sortie (10-2-1)
DCOsortie
pHentrée
Températureentrée
Conductivitéentrée
Les performances de la prédiction par le modèle complet RNADBO5 sont présentées dans le
tableau 45.
1
: Ensemble de données (123 données)
2
: Données d’apprentissage (86 données)
3
: Données de validation (37 données)
146
Taux de défaillance par modèle probabiliste (valeur cible)
100 Taux de défaillance prédit par MC-RNA_DBO5
90
Taux de défaillance (%)
80
70
60
50
40
30
20
10
0
1
5
9
13
17
21
25
29
33
37
41
45
49
53
57
61
65
69
73
77
81
85
89
93
97
101
105
109
113
117
121
Epoques (Jours)
Figure 75 : Taux de défaillance de la dégradation de la DBO5 prédit par modèle complet MC-
RNADBO5 (10-2-1) versus taux de défaillance par modèle probabiliste (valeur cible).
147
Taux de défaillance par modèle probabiliste
100
Taux de défaillance prédit par MC-RNA_DBO5
90
Taux de défaillance (%)
80
70
60
50
40
30
20
10
0
01-01-2009
01-03-2009
01-05-2009
01-07-2009
01-09-2009
01-11-2009
01-01-2010
01-03-2010
01-05-2010
01-07-2010
01-09-2010
01-11-2010
01-01-2011
01-03-2011
01-05-2011
01-07-2011
01-09-2011
01-11-2011
01-01-2012
01-03-2012
01-05-2012
01-07-2012
01-09-2012
01-11-2012
Mois
Entrées Sortie
148
Le modèle construit pour prédire le taux de fiabilité de la dégradation de la DCO de la station
d’épuration de Khenchela est constitué de 10 neurones dans la couche d’entrée, 4 neurones
dans la couche cachée, et 1 neurone dans la couche de sortie.
Débitentrée
DBO5entrée
MESentrée
Réseau de
DCOentrée Neurones
Artificiels Taux de
Débitsortie,
DBO5sortie défaillance-DCO
(10-4-1)
DCOsortie
pHentrée
Températureentrée
Conductivitéentrée
Les performances de la prédiction par le modèle complet RNADCO sont présentées dans le
tableau 47 ci-dessous.
149
La prédiction du taux de défaillance de l’élimination de la DCO du procédé de traitement de
la station de Khenchela est représentée sur la figure 78.
70
60
50
40
30
20
10
101
105
109
113
117
121
1
5
9
13
17
21
25
29
33
37
41
45
49
53
57
61
65
69
73
77
81
85
89
93
97
Epoques (Jours)
Figure 78 : Taux de défaillance d’élimination de la DCO prédit par modèle complet MC-
RNADCO (10-4-1) versus taux de défaillance par modèle probabiliste (valeur cible).
150
100 Fiabilité par modèle probabiliste
Fiabilité prédite par MC-RNA_DCO
90
80
Taux de défaillance (%)
70
60
50
40
30
20
10
0
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Mois
Entrées Sortie
151
Le modèle construit pour prédire le taux de fiabilité de l’élimination des MES de la station
d’épuration de Khenchela est constitué de 14 neurones dans la couche d’entrées, 3 neurones
dans la couche cachée, et 1 neurone dans la couche de sortie.
Débitentrée
DBO5entrée
MESentrée
DCOentrée Réseau de
Neurones
Débitsortie, Artificiels
DBO5sortie Taux de
MESsortie (14-5-1) défaillance-MES
DCOsortie
pHentrée
Températureentrée
Conductivitéentrée
pHsortie,
Températuresortie,
Conductivitésortie
Les performances de la prédiction du modèle complet RNAMES sont présentées dans le tableau
ci-dessous.
152
La prédiction du taux de défaillance de l’élimination des MES du procédé de traitement de la
station de Khenchela est représentée sur la figure 81.
80
Taux de défaillance (%)
70
60
50
40
30
20
10
101
106
111
116
121
1
6
11
16
21
26
31
36
41
46
51
56
61
66
71
76
81
86
91
96
Epoques (Jours)
Figure 81 : Taux de défaillance d’élimination des MES prédit par modèle complet MC-RNAMES
(14-5-1) versus taux de défaillance par modèle probabiliste (valeur cible).
153
100 Taux de défaillance par modèle probabiliste
90 Taux de défaillance prédit par MC-RNA_MES
80
Taux de défaillance (%)
70
60
50
40
30
20
10
0
06-01-2009
06-03-2009
06-05-2009
06-07-2009
06-09-2009
06-11-2009
06-01-2010
06-03-2010
06-05-2010
06-07-2010
06-09-2010
06-11-2010
06-01-2011
06-03-2011
06-05-2011
06-07-2011
06-09-2011
06-11-2011
06-01-2012
06-03-2012
06-05-2012
06-07-2012
06-09-2012
06-11-2012
Mois
Figure 82 : Taux de défaillance d’élimination des MES prédit par réseau de neurones artificiels
simple (14-5-1), station d’épuration de Khenchela (2009-2012).
Six modèles partagés en deux groupes (3 modèles simples et 3 modèles complets) sont
présentés dans cette section, ou les entrées sont modifiées pour inclure des combinaisons de
différents paramètres dans le but de modéliser les variations quantitatives et qualitatives des
eaux usées brutes à l'entrée et la sortie de la station d'épuration.
La topologie choisie est le Perceptron multicouche PMC un réseau de type alimentation avant,
et avec comme règle d'apprentissage l'algorithme de rétro propagation du gradient d'erreur.
La structure physique tous les réseaux de neurones artificiels construits pour cette étude
dispose d'une seule couche cachée. La fonction d'activation de la couche cachée est la
tangente hyperbolique (tanh), et la fonction d'activation de la couche de sortie est la fonction
sigmoïde.
154
VII.4.1 Résultats des modèles RNADBO5
Dans la figure 66, une comparaison graphique entre les taux de défaillances prédites par le
modèle simple MS-RNADBO5 et les taux de défaillances cible (par modèle probabiliste). En fin
une représentation graphique des taux de défaillances fournis par le modèle simple durant une
période de 4 ans est illustrée dans la figure 67.
Lors de la deuxième étape (phase de test), les résultats du modèle simple RNADBO5 montrent
que l'erreur moyenne absolue de la validation est de 4,37%, l'erreur quadratique moyenne est
de 7,835%. Le coefficient de régression R= 0,93, et le coefficient de détermination R2= 0,86.
Ces résultats indiquent que les performances de généralisation du modèle simple RNADBO5
sont bonnes. Le modèle simple MS-RNADBO5 est en mesure de faire des prédictions précises.
Dans la figure 75, une comparaison graphique entre les taux de fiabilités prédites par le
modèle complet MC-RNADBO5 et les taux de fiabilités cible (par modèle probabiliste). En fin
une application des taux de fiabilités prédites est représentée pour la période d'études de 4 ans
est représentée dans la figure 76.
Les résultats du modèle complet RNADBO5 montrent que lors de la première étape (phase
d'apprentissage), l'erreur moyenne absolue de l'apprentissage est de 4,61%, et l'erreur
quadratique moyenne est de 7,42%. Le coefficient de régression R= 0,93, et le coefficient de
155
détermination R2= 0,86. Ces paramètres indique que le modèle complet RNADBO5 à bien
répondu aux données d'apprentissage et qu'il est capable de les rapprochées.
Lors de la deuxième étape (phase de test), les résultats du modèle complet RNADBO5 montrent
que l'erreur moyenne absolue de la validation est de 5,54%, l'erreur quadratique moyenne est
de 10,24%. Le coefficient de régression R= 0,87, et le coefficient de détermination R2= 0,76.
Ces résultats indiquent que le modèle complet RNADBO5 trouve des difficultés de
généralisation due à la croissance des données d'entrée et du degré de complexité de
l'interaction des paramètres d'entrée ce qui rend la tâche de modéliser la fiabilité du procédé
encore plus difficile, malgré cet effet de croissance de la complexité de l'interconnexion entre
les données d'entrée, le modèle MC-RNADBO5 est en mesure de faire des prédictions de bonne
qualité.
Dans la figure 69, une comparaison graphique entre les taux de fiabilités prédites par le
modèle simple RNADBO5 et les taux de fiabilités cible (par modèle probabiliste). En fin une
application des taux de fiabilités prédites est représentée pour la période d'études de 4 ans est
représenté dans la figure 70.
Lors de la première étape (phase d’apprentissage) les résultats du modèle simple MS-RNADCO
montrent que l'erreur moyenne absolue de l'apprentissage est de 1,63%, et l'erreur quadratique
moyenne est de 3,77%. Le coefficient de régression R= 0,95, et le coefficient de
détermination R2= 0,90. Ces paramètres indique que le modèle simple RNADCO a bien
répondu aux données d'apprentissage et qu’il capable de les rapprochés. Le modèle simple
RNADCO est en mesure de cartographier les données entrée-sortie.
Les résultats du modèle MS-simple MS-RNADCO lors de la deuxième étape (phase de test)
montrent une légère croissance de l'erreur moyenne absolue de la validation estimée à 1,92%,
ainsi que celle de l'erreur quadratique moyenne avoisinant les 5%.
156
VII.4.2.2 Prédiction du taux de défaillance par modèle complet MC-RNADCO (10-4-1)
Le modèle complet MC-RNADBO5 est présenté dans la sous-section VII.3.2. Les données
d'entrées-sortie sont présentées dans le tableau 46. Les performances de prédiction du modèle
complet sont présentées dans le tableau 47.
Une étude comparative entre les taux de fiabilités prédites par le modèle complet MC-
RNADCO et les taux de fiabilités cible (par modèle probabiliste) est représentée sur la figure
78. La figure 79 représente une application du modèle de prédiction des taux de fiabilité
durant une période d’études de 4 ans.
Les résultats du modèle complet MC-RNADCO montrent que lors de la première étape (phase
d'apprentissage), l'erreur moyenne absolue de l'apprentissage est minimal estimé à 2,83%,
alors que l'erreur quadratique moyenne est proche de 7,5%. Le coefficient de régression R=
0,90, et le coefficient de détermination R2= 0,81. Ces paramètres indique que le modèle
complet RNADCO est capable de les rapprochés les données d'apprentissage.
Par contre, lors de la deuxième étape (phase de test), les résultats du modèle complet RNADCO
on constate que l’erreur moyenne absolue de la validation a évolué. L'erreur quadratique
moyenne dépasse les 8%. Le coefficient de régression R= 0,69, et la valeur du coefficient de
détermination (R2) décroit considérablement à 0,47 ce qui signifie que l’ajustement entre les
valeurs prédites et les valeurs cibles est médiocre. Ces résultats indiquent que le modèle
complet MC-RNADCO trouve des difficultés de généralisation due à la difficulté de modéliser
l'interaction entre les différentes données d’entrée. Malgré l’effet de la complexité de
l'interconnexion entre les données d'entrée et la croissance des données d’entrée, le modèle
MC-RNADBO5 fourni des prédictions de qualité acceptable.
Une comparaison entre les taux de fiabilités prédites par le modèle simple MS-RNAMES et les
taux de fiabilités cibles (par modèle probabiliste) est présentée dans la figure 72. En fin sur la
figure 73 une présentation graphique a pour objet la prédiction des taux de fiabilités comparés
aux taux de fiabilité par modèle probabiliste durant une période de 4 ans.
Lors de son apprentissage le modèle simple RNAMES affiche une erreur moyenne absolue de
l’ordre de 2,5%, et d’une erreur quadratique moyenne inférieur à 5%.
Les résultats du modèle simple MS-RNAMES en phase de validation montrent que les
performances de généralisation du modèle simple sont très bonnes, et que ce modèle est en
mesure de fournir des prédictions précises.
La figure 82 est la représentation graphique des données fournies par le modèle complet de
prédiction durant une période de 4 ans, comparés avec les taux de fiabilités déterminé par
modèle probabiliste durant la même durée.
Les résultats des deux modèles complets MC-RNAMES1,2 durant la étape de validation
affichent des erreurs moyennes absolues inférieur à 3%. Par contre les erreurs quadratiques
moyennes sont légèrement supérieures à 5%. Les coefficients de régression R sont de l’ordre
de 0,97, et les coefficients de détermination (R2) proche de 0,95 ce qui signifie que les
ajustements entre les valeurs prédites et les valeurs cibles sont de très bonne qualité. Ces
résultats indiquent que les deux modèles arrivent à généraliser, et sont en mesure de réaliser
des prédictions précises.
158
VII.5 CONCLUSION
L’application des modèles simples pour la prédiction des performances d’une station
d’épuration présentent un intérêt spécial vue leurs simplicité et leurs facilité d’utilisation pour
l’estimation des taux de fiabilité quotidienne du procédé de traitement. Ces résultats peuvent
être un très bon indicateur aux exploitants pour servir de support d’aide à la gestion et
l’exploitation des différents compartiments du procédé de traitement.
L’application des modèles complets pour la prédiction des taux de défaillances dans le cas de
la station de Khenchela présentent des résultats encourageant et constituent une alternative au
modèle probabiliste basés sur l'analyse des statistiques des données historiques d'auto-
surveillances.
Ces modèles complets sont des outils de modélisation prenant en charge tous les paramètres
susceptibles d’influencer par leurs variations qualitatives et quantitatives le fonctionnement
du procédé de traitement de la station d'épuration.
159
CONCLUSION GENERALE ET ORIENTATIONS FUTURES DE LA
RECHERCHE
Conclusion
L’analyse statistique des données rassemblées montre que les valeurs des paramètres de
pollution différent de manière significative pour les eaux usées à l’entrée de la station s’étend
entre 33-1650 mg/l pour la DCO, 70-1332 mg/l pour la DBO5, 33-1162 mg/l pour les MES.
A la sortie les moyennes des concentrations des paramètres de pollution s’étend entre 13-165
mg/l pour la DCO, 10-128 mg/l pour la DBO5, 10-452 mg/l pour les MES.
Une approche simple consisté à évaluer les niveaux de performances globale de la station
d’épuration de la ville de Khenchela on se basant sur une comparaison des concentrations des
différents paramètres et leurs conformités avec la législation en vigueur, on constate que
durant la période considéré la station d’épuration présente des taux de fiabilité acceptable.
Ce constat positif est entaché par l'absence des données, ce qui rend ces taux de fiabilité
relatif à la période considéré seulement, en générale sur les quatre années d'étude (2009-2012)
les taux de fiabilité se dégrade et deviennent obsolète, due à la non maitrise du procédé de
traitement, ce manque de performance est le résultat de l'interférence de plusieurs facteurs qui
feront l'objet d'autres études complémentaires.
Les fluctuations des taux de fiabilité du procédé de traitement de la station d'épuration est très
importante, influencé par la variabilité quantitatives et surtout qualitatives des eaux usées
brutes combiné avec une conception inadéquate avec des hypothèses de conception qui ne
reflète pas la situation réelle de la station (station à faible charge). Une étude récente à
160
montrer que la station fonctionne à forte charge. Le manque d'expérience des gestionnaires de
la station est un facteur important à prendre en considération.
La nécessité d'un contrôle efficace d'une station de traitement des eaux usées utilisant le
procédé de boues activées est primordiale pour assurer son efficacité dans la protection de
l'environnement.
Le recourt à l’application des réseaux de neurones artificiels qui sont une forme d’intelligence
artificielle pour tenter de modéliser le comportement d’un procédé de traitement des eaux
usées par l’utilisation d’un un ensemble d'équations non linéaires pour imiter les connexions
neuronales des systèmes biologiques pour la prédictions des performances d’une station de
traitement des eaux usées.
Les entrées des différents modèles RNA sont modifiées pour inclure l'effet des différents
paramètres sur les performances du procédé de traitement et tenter de modéliser les différents
facteurs influençant le fonctionnement de la station.
Le premier ensemble des résultats présentés dans les sous-sections VI.4.1 et VI.5.1
concernent les deux modèles pour la prédiction du taux de fiabilité de la dégradation de la
DBO5 montrent qu'en phase d'apprentissage, les coefficients de régression (R) varie
sélectivement de 0,94 à 0,93, et que les coefficients de détermination (R2) varie de 0,88 à
0,86. Ces paramètres indique que les deux modèles RNADBO5 sont en mesure de bien répondre
aux données d'apprentissage et capable de les rapprochés. En phase de validation les deux
modèles ont des coefficients de régression (R) varie sélectivement de 0,93 à 0,87, et que les
coefficients de détermination (R2) varie de 0,886 à 0,76, des résultats qui indiquent que les
161
performances de généralisation des deux modèles sont bonnes, et qu'ils sont en mesures de
faire respectivement des prédictions précises et de bonne qualité.
Le deuxième ensemble des résultats présentés dans les sous-sections VI.4.2 et VI.5.2
concernent les deux modèles pour la prédiction du taux de fiabilité de l'élimination de la DCO
montrent qu'en phase d'apprentissage, les coefficients de régression (R) varie sélectivement de
0,95 à 0,90, et que les coefficients de détermination (R2) varie de 0,90 à 0,81. Ces paramètres
indiquent que les deux modèles RNADCO sont en mesure de bien répondre aux données
d'apprentissage et sont en mesure de cartographier les données entrée-sortie. En phase de
validation les deux modèles ont des coefficients de régression (R) varie sélectivement de 0,93
à 0,69, et que les coefficients de détermination (R2) varie de 0,86 à 0,47, des résultats qui
indiquent que les performances de généralisation du modèle simple sont bonnes, par contre
celle su modèle complet sont moins bonnes.
Ces deux raisons selon Masters (1993) sont les deux seuls à son avis, responsable du non
succès d'un RNA. La première raison est l'option la plus probable et l'expérience de nombreux
praticiens des RNA que les applications du monde réel sont les plus difficiles à résoudre.
En outre, la qualité des données de l'installation de traitement des eaux usées peut être un
autre facteur à considérer. L'expérience de nombreux exploitants de stations d’épurations et
d'ingénieurs a été que, souvent, le matériel de la station échoue, et que les données sur les
temps de fonctionnement sont ensuite rapportées à tort, parfois sans le savoir.
Le troisième ensemble des résultats présentés dans les sous-sections VI.4.3 et VI.5.3
concernent les deux modèles RNAMES pour la prédiction du taux de fiabilité de l'élimination
des MES montrent que les deux modèles sont en mesure de cartographier les données entrée-
sortie et que les performances de généralisation des deux modèles sont très bonnes, et sont en
mesure de faire des prédictions précises. Améliorer le système de surveillance et de contrôle
d'automatisation de la station de traitement des eaux usées de Khenchela peut apporter une
contribution positive à la détection précoce de panne et peut diminuer l'incidence de
l'équipement défectueux et le manque de données fiables par rapport aux données rapportées.
162
L’application des modèles simples pour la prédiction des performances d’une station
d’épuration présentent un intérêt spécial vue leurs simplicité et leurs facilité d’utilisation pour
l’estimation des taux de défaillances quotidiennes du procédé de traitement. Ces résultats
peuvent être un très bon indicateur aux exploitants pour servir de support d’aide à la gestion et
l’exploitation des différents compartiments du procédé de traitement. Par contre, l’application
des modèles complets pour la prédiction des taux de défaillance représente un intérêt
scientifique et académique pour tenter de modéliser des phénomènes non linéaires très
complexes qui mettent en contribution un grand nombre de paramètres.
Les modèles RNA développés pour la prédiction des taux de fiabilité et taux de
défaillances ont les caractéristiques positives suivantes :
- Les structures des RNA sont simples, avec une couche cachée et ne nécessitent pas de
calculs complexes;
- Il est capable de résoudre des problèmes non linéaires dans le monde réel.
Les modèles RNA développées peuvent être appliqués dans les directions suivantes :
1. En tant que base pour le développement ultérieur de la théorie pour la prévision des
variables influentes sur le fonctionnement de la station d'épuration ;
2. Comme un système expert pour les conseils des opérateurs dans la station de traiteent
des eaux usées municipales;
3. Comme une boîte à outils en temps réel des systèmes d'auto-surveillances existants
dans les stations d'épuration.
La recherche a montré que les réseaux neuronaux sont une option fiable à envisager pour la
prédiction des performances d'une station de traitement des eaux usées. Toutefois, la mise en
œuvre effective peut justifier des recherches supplémentaires. La recherche de la littérature et
de l'avis des autres praticiens de réseaux de neurones les plus expérimentés ont indiqué qu'un
réseau hybride pourrait être une meilleure solution. Cela pourrait inclure d'autres options de
calcul comme un réseau de neurones artificiels à logique floue ou un réseau de neurones
artificiels combiné avec un algorithme génétique, qui feront l’objet de futures travaux de
recherches, et une continuité du présent travail pour optimiser les modèles construits.
163
Publications relatives à la thèse
164
REFERENCES BIBLIOGRAPHIQUES
Albrecht A. E. (1967), "Aerated Grit Operation, Design and Chamber", Water and Sewage
Works, vol. 114, no. 9, pp. 331–335.
Anava O., Hazan E. et Mannor S. (2013), "Online Learning for Time Series
Prediction",JMLR: Workshop and Conference Proceedings vol, pp.: 1-13.
Asano T. (1998), "Wastewater Reclamation and Reuse", Water Quality Management Library,
Vol. 10, CRC Press LLC, New York, USA, 1528 pages.
Asano, T. et Levine, A.D. (1995), "Wastewater Reuse: A Valuable Link in Water Resources
Management", Water Quality International, No. 4, pp.: 20-24.
AWWA (2012), "Water Treatment Plant Design", American Water Works association and
American Society of Civil Engineers, Fifth edition, McGraw-Hill, New York, USA, 1376
pages.
Barlow R. E. et Proschan F. (1996), "Mathematical Theory of Reliability", CLASSICS In
Applied Mathematics, SIAM Society for Industrial and Applied Mathematics, Philadelphia,
USA, 277 pages.
Belanche L.B., Valdés J.J., Comas J., Ignasi R Rodab I.R. et Poch M. (1999), "Towards a
model of input–output behaviour of wastewater treatment plants using soft computing
techniques", Environmental Modelling & Software Volume 14, Issue 5, pp.: 409-419.
Baxter C., Lence. B., et Coffey B. (2003), "Analyzing Operational Risk in Potable Water
Supply Using Conditional Reliability. World Water & Environmental Resources Congress
2003: pp. 1-10.
165
"Analyzing Operational Risk in Potable Water Supply Using Conditional Reliability", World
Water Congress, Pennsylvania, USA.
Berthouex P. M., and fan, Richard, (1986), "Evaluation of Treatment Plant Performance:
Causes, Frequency, and Duration of Upsets", Journal Water Pollution Control Federation,
Vol. 58, No. 5, pp. 368-375.
Bhat N.V., Minderman P.A., Mcavoy T., et Wang N.S. (1990), "Modeling chemical
process systems via neural computation", IEEE Control Systems Magazine 10, Issue 3, pp.:
24 - 30.
Bishop C. M. (1995), "Neural Networks for Pattern Recognition", Oxford University Press,
Oxford, UK, 482 pages.
Blumenthal U. J., (1989), "Generalized model of the effect of different control measures in
reducing health risks from waste reuse", Water Sci. Tech. 21:567-577.
Burmaster D. E. et Hull D. A., (1997), "Using Lognormal distributions and Lognormal
Probability Plots In Probabilistic Risk Assessments", Human and Ecological Risk
assessment, Vol. 3, No. 2, pp. 235-255.
Burton M. (2006), "Neural Networks, Course Notes", Rhodes University, RAS, 64 pages.
Carlsson B. et Lindberg C.F. (2004), "Some control strategies for the activated sludge
process" Systems and Control Group Uppsala University, Sweden, 22 pages.
Chang F. Liang J., et Chen Y. (2001), "Flood forecasting using Radial Basis Function
Neural Networks", IEEE Transactions on Systems, Man and Cybernetics, Part C Applications
and Reviews, Volume 31 No. 4, pp.: 530 – 535.
Choi D. J. et Park H. (2001), "A hybrid artificial neural network as a software sensor for
optimal control of a wastewater treatment process", Water Research Volume 35, Issue 16, pp.:
3959-3967.
Cohen A. I., Bar-Shalom Y. W., et al., (1975), "A Quantitative Method for Effluent
Compliance Monitoring Recourses Allocation", EPA-600/5-75-015, U.S. Environmental
Protection Agency, Washington, USA, 47 pages. Disponible sur le site:
http://yosemite.epa.gov/ee/epa/eerm.nsf/vwAN/EE-0378_01.pdf/$file/EE-0378_01.pdf
Coley D. A. (1999), "An Introduction to Genetic Algorithms for Scientists and Engineers",
World Scientific Publishing Co. Pte. Ltd., Singapore, 244 pages.
166
Converse J. C. et Nordheim E. V. (2004), "Sampling Protocol for Evaluating Aeration
Systems for Their Ability to Consistently Produce an Effluent to a prescribed Parameter
Value",10th, National symposium on individual and small community sewage systems; On-
site wastewater treatment X, pp.: 343-348.
Cote M., Grandijean B. P., Lessard P. et Yhibault J. (1995), "Dynamic modeling of the
activated sludge process: improving prediction using neural networks", Water Research, 29,
pp.: 995-1004.
Culp G., Wesner G., Williams, R. et al., (1980), "Wastewater Reuse and Recycling
Technology", Noyes Data Corporation, New Jersey, USA, 838 pages.
D'Agostino R. B., and Stephens M A., (1986), "Goodness-of-fit Techniques", MARCEL
DEKKER, Inc, New York, USA, 576 pages.
Daukss P. (2006), "Design Considerations for Screening", Presented at Michigan Water
Environment Association Process Seminar, GrandRapids, Michigan, 12 pages.
Dawkins R. (1986), "The Blind Watchmaker", W. W. Norton & Company, USA, 345 pages.
Demuth H., Beale M. et Hagan M. (2013). Neural Network Toolbox For Use with
MATLAB, Users Guid, R2013, 430 pages.
Dhillon B. S., (1999), "Design Reliability: Fundamentals and Applications", CRC press, New
York, USA, 480 pages.
Drakatos P. A., Lyon R. H., Chyssolouris G., et al., (1992), "Reliability and Exploitation
of Wastewater Treatment Plants Using Diagnostic Methods", International Journal of
Environmental Studies, Vol. 40, pp. 267-280.
Dufournet R. (1974), "Traitement des eaux usées", Techniques de l'ingénieur, C670, Editions
T. I., Paris, France, 38 pages.
Eisenberge D., Soller J., Sakaji R., et al., (2001), "A Methodology to Evaluate Water and
Wastewater Treatment Plant Reliability", Water Science and Technology, Vol. 43, No. 10,
pp. 91-99.
Ellis G. W., Grasso D., et Ge X., (1993), "ARMA Processes and Reliability-Based Design
of Wastewater-Treatment Facilities", Journal of Environmental Engineering, Vol. 119, No.
3, pp. 463-477.
Elman J. L. (1990), "Finding Structure in Time", Cognitive Science, Vol. 14, Issue 3, pp.:
179-211.
Etnier C., Willetts J., Mitchell C. A. et al., (2005), "Decentralized Wastewater System
Reliability Analysis Handbook". Project No. WU-HT-03-57. Prepared for the National
Decentralized Water Resources Capacity Development Project, Washington University, St.
Louis, MO, by Stone Environmental, Inc., Montpelier, VT, USA, 181 pages.
Faby J. A. et Brissaud F., (1997), "L’utilisation des eaux usées épurées en irrigation",
Office International de l’Eau, France, 76 pages.
167
Fahlman S. E. et Lebiere C. (1989), "The Cascade-Correlation learning architecture",
Computer Science Department.Paper 1938, 17 pages. Disponible sur le site:
Fair, G. M. et Geyer J. C. (1954), "Water Supply and Waste-Water Disposal", John Wiley&
Sons, New York, USA, 611 pages.
Gaïd A. (1993), "Traitement des eaux usées urbaines", Techniques de l'ingénieur, C5220,
Editions T. I., Paris, France, 28 pages.
Garvey E.B. (1997), "On-line Quality Control of Injection Molding Using Neural Networks.
Minor Thesis Department of Computer Science, Royal Melbourne Institute of Technology,
Melbourne, Australia, 82 pages
Gershenfeld N. A. et Andreas S. Weigend S., (1993), "The Future of Time Series", SFI
WORKING PAPER: 1993-08-053, Santa Fe Institute, USA, 89 pages.
Goldberg D.E. (1989), "Genetic Algorithms in Search, Optimization and Machine Learning",
Addison-Wesley Publishing Compagny, Inc, USA, 412 pages.
Graupe D. (2007), "Principal of Artificial Neural Networks, Advanced Seris In Circuits And
Systems", Vol. 6, World Scientific Publishing Co. Pte. Ltd., 2nd Edition, Singapore,
Thailande, 320 pages.
Graves A., Liwicki M., Fernandez S., et al., (2009), "A Novel Connectionist System for
Improved Unconstrained Handwriting Recognition.", IEEE Transactions on Pattern Analysis
and Machine Intelligence, Vol. 31, N° 5, pp.: 855-868.
Groves T. W., Bowers F., Corriveau J., et al., (2005), "Variability and Reliability of Test
Center and Field Data: Definition of Proven Technology from a Regulatory Viewpoint,
Project No. WU-HT-03-35. Prepared for the National Decentralized Water Resources
Capacity Development Project, Washington University, St. Louis, MO, by the New England
Interstate Water Pollution Control Commission, Lowell, MA, USA, 175 pages.
Guilloteau J. A., (1992), "Traitement des eaux résiduaires par infiltration percolation",
Thèse de doctorat, Université Louis Pastur, Strasbourg, France, 170 pages.
168
Häck M. et Köhne M. (1996), "Estimation of wastewater process parameters using neural
networks", Water Science and Technology Volume 33, Issue 1, pp.: 101-115
Hamoda M.F., Al-Gusain I.A. et Hassan A.H. (1999), "Integrated wastewater treatment
plant performance evaluation using artificial neural network, Water Science and Technology,
40, pp.:55-69.
Heaton J. (2008), "Introduction to Neural Networks for C#", 2nd Edition, Heaton Research,
Inc., Saint Louis, USA, 430 pages.
Holland J. H. (1992), "Adaptation in Natural and Artificial Systems", The Mit Press, USA,
245 pages.
Hu J. (1997), "Research on Hybrid Black-Box Modeling for Nonlinear Systems and Its
Applications", thèse de Doctorat, Waseda university, Japan, 139 pages.
Hudson J. (1986), "Forecasting Onsite Soil Absorption System Failure Rates", EPA/600/S2-
86-060, OH, USA, 2 pages.
http://nepis.epa.gov/Exe/ZyPDF.cgi/2000TL6K.PDF?Dockey=2000TL6K.PDF
Hydro Projet Est, (2005)," Etude de la station d’épuration des eaux usées de la ville de
khenchela wilaya de Khenchela. Phase IІI. Avant projet détaillé", 100 pages.
Imhoff, K. et Imhoff K. R. (2007), "Taschbuch der stadtentwasserung", [Measurement of
Liquid Flow in Open Channels—Parshall and Sanitary Flumes], Ooldenbourg industrie verlag
München, Germany, 508 pages.
Isa I S., Saad Z., Omar S. et al., (2010), "Suitable MLP Network Activation Functions for
Breast Cancer and Thyroid Disease Detection", Second International Conference on
Computational Intelligence, Modelling and Simulation, IEEE Computer Society, pp.: 39-44.
Jain A.K., Mao J. et Mohiuddin K.M. (1996), "Artificial Neural Networks: A Tutorial",
IEEE Computer, pp.: 31-44.
169
JORA (2006), Décret exécutif n°06-141 du 19 avril 2006 définissant les valeurs limites
des rejets d'effluents liquides industriels, Journal Officielle de la République Algérienne
N°26 du 23 avril 2006.
Kahn H. D., et Marvin B. R., (1989), "Use of Statistical Methods in Industrial Water
Pollution Control Regulations in The United States", Environmental Monitoring and
Assessment, Vol. 12, No. 2-3, pp.: 129-148.
Khan, R et Ondrůöek Č. (2000), "Peak electric load forecasting using an artificial neural
network", submitted for publishing in Engineering Mechanics International Journal of
Theoretical and Applied Mechanics, Technical University of Brno, Czech Republic.
Kottegoda N. T., et Rosso R., (2009), "Statistic, Probability, and Reliability for Civil and
Environmental Engineers", John Wiley & Sons, New York, USA, 736 pages.
Krenker A., Bešter J. et Kos A. (2011), "Artificial Neural Networks-Methodological
Advances and Biomedical Applications", Publisher InTech, Shanghai, China, 362 pages.
Kriger C. (2007), "Prediction of the influent wastewater variables Using Neural Network
theory", thèse de Doctorat, Cape Peninsula University of Technology, RSA, 331 pages.
Kröse B. et Van Der Smagt P. (1996), "An Introduction to Neural Networks", 8th edition,
The University of Amsterdam, Netherland, 135 pages.
LeCun Y., Bottou L., Orr G. B., et Müller K. R. (1998), "Neural networks: tricks of the
trade", Springer Lecture Notes in Computer Sciences, Springer Heidelberg, pp.: 5-50.
Lee D.S. et Park J.M. (1999), "Neural network modeling for on-line estimation of nutrient
dynamics in a sequentially-operated batch reactor", Journal of Biotechnology 75, pp.: 229-
239.
Leitao R. C., Haandel, A. C., Zeeman G., et al., (2006), "The Effects of Operational and
Environmental Variations on Anaerobic Wastewater Treatment Systems: A review",
Bioresource Technology, Vol. 79, pp.: 1105-1118.
Levin R. I., (1984), "Statistics for Management," 2nd editions, Prentice-Hall Inc. New Jersey,
USA, 866 pages.
Loftis J. C., Ward R. C., et Smilli G. M., (1983), "Statistical Models for Water Quality
Regulation", Journal Water Pollution Control Federation, Vol. 55, No. 8, pp.: 1098-1104.
170
Maier H.R. et Dandy G.C. (2000), "Neural networks for prediction and forecasting of water
resources variables: a review of modeling issues and applications", Water Resources
Research 15, pp.:101-124.
Malasri K. et Malasri S. (2002), "Back propagation Networks for Time Series Forecasting:
Case Studies in Data Modeling", Christian Brothers University, Texas, USA, Proceedings of
the MAESC 2002 Conference, 9 pages. http://www.maesc.org/maesc02/FullPapers/a2-1-
doc.pdf
Masters T. (1993), "Practical Neural Network Recipes in C++", San Diego Academic Press,
USA, 493 pages.
Medkour M. (2003), "Réutilisation des eaux usées épurées", Séminaire sur le secteur de l’eau
en Algérie. Ministère des Ressources en eau, Alger, Algérie. 12 pages.
Mjalli F., Alasheh S. , et Alfadala H.E. (2007), "Use of artificial neural network black-box
modelling for the prediction of wastewater treatment plants performance", Journal Of
Environment Management, 83, pp.: 329-338.
Modarres R., Gastwirth J. L., et Ewens W., (2004), "A Cautionary Note on the Use of
Non-parametric Tests in the Analysis of Environmental Data", Environmetrics, Vol. 16, Issue
4, pp. 319-326.
Moody J. et Darken C. J. (1989), "Fast learning in networks of locally-tuned processing
units," Neural Computation, 1, pp.: 281-294.
171
Moubray J. (1997), "Reliability-Centered Maintenance". 2nd ed. Industrial Press, New York,
USA, 448 pages.
Nasr M. S., Medhat A.E. Moustafa M. A. E., Seif H. A. E., El Kobrosy G., (2012), "Application
of Artificial Neural Network (ANN) for the prediction of EL-AGAMY wastewater treatment plant
performance-EGYPT, Alexandria Engineering Journal, 51, pp: 37-43
Niku S., e t Schroeder, E. D., (1981), "Stability of Activated Sludge Processes Based on
Statistical Measures", Journal Water Pollution Control Federation, Vol. 53, No. 4, pp.:
129-143.
Niku S., Schroeder, E. D., et Haugh. R. S., (1982), "Reliability and Stability of Trickling
Filter Processes", Journal Water Pollution Control Federation, Vol. 54, No. 2, pp.: 457-470.
Niku S., Schroeder, E. D., e t Samango F. J., (1979), "Performance of Activated Sludge
Processes and Reliability-Based Design", Journal Water Pollution Control Federation,
Vol.51, No. 12, pp. 2841-2857.
Olden J. D. et Jackson D. A. (2002), "Illuminating the ‘‘black box’’: a randomization
approach for understanding variable contributions in artificial neural networks", Ecological
Modelling, 154, pp.: 135-150.
172
Papliński, A. P. (2004), "Lecture notes for Course 5301, Neural Networks and Fuzzy
Systems (Neuro-Fuzzy Computing), Clayton School of Information Technology, Monash
University, Australia. http://www.csse.monash.edu.au/courseware/cse5301/2006/
Parker D. (1985), "Learning Logic", Technical Report TR-87, Center for Computational
Resesarch in Economics and Management Science MIT, Cambridge, MA, USA, 47 pages.
Plazl I., Pipus G., Drolka M. et Koloini T. (1999),"Parametric sensitivity and evaluation of
a dynamic model for single-stage wastewater treatment plant. Acta Chimica Slovenica 42,
pp.:289-300.
Racault Y. et al., (1997), "Le lagunage naturel, Les leçons tirées de 15 ans de pratique en
France", CEMAGREF éditions, Agence de l'eau Loire-Bretagne, France, 64 pages.
Radoux, M., (1989), "Epuration des eaux usées par Hydrosère reconstituée". Tribune de
l'eau, Vol.42, N°8, pp.: 62-68.
Rech, G. (2002), "Forecasting with artificial neural networks", SSE/EFI Working Paper
Series in Economics and Finance, No 49, 38 pages.
Rose J. B, Farrah S. R., Friedman D. et al., (1999), "Public evaluation of advanced water
for potable application", Water Science and Technology, 40, pp.: 247- 252.
Rosenblatt F. (1958), "The Perceptron: A probabilistic model for information storage and
organization in the brain", Psychological Review, 65, pp.:386-408.
173
Rui, Y. et El-Keib A. A. (1995), "A Review of ANN-Based Short-Term Load Forecasting
Models", Proceeding of 27th IEEE Southeastern Symposium on System Theory, MS, USA,
pp.: 78-82.
Sadiq R. H., Tahir A., A. M., Sheikh A. K., et al., (2003), "Secondary Effluent Treatment
by Slow Sand Filters: Performance and Risk analysis", Water, Air, and Soil Pollution, Vol.
143, pp. 41–63.
Sadowski A. (2002), "Traitement des eaux usées urbaines", CIRSEE, ENGEES, Strasbourg,
France, 418 pages.
Saporta G. (2006), "Analyse des données et statistique", 2ème Edition, Editions TECHNIP,
Paris, FRance, 631 pages.
Sellers G. R., Vaderman S. B., et Hackert. A. F., (1992), "A first Course in Statistics", 3rd
editions, HarperCollins Publishers Inc, New Work, USA, 831 pages.
Spangler, J. (2006), "The Grit of the Nitty Gritty", Presented at Michigan Water
Environment Association Process Seminar, Grand Rapids, Michigan, USA, 2 pages.
Steel, E. W. et McGhee T. J. (1979), "Water Supply and Sewerage", 5th ed., McGraw-Hill,
New York, pp.: 456–467.
174
Tarassenko L. (1998), "A Guide to Neural Computing Applications", John Wiley and Sons,
New York, USA, 151 pages.
Theilliol D., Ponsart J. C., Harmand J., Join C. et al., (2003), "One-line estimation of
unmeasured inputs for anaerobic wastewater treatment processes", Control Engineering
Practice, vol. 11, pp. :1007-1019.
USEPA, (1991), "Technical Support Document for Water Quality-based Toxics Control",
EPA 505/2690-001, U.S. Environmental Protection Agency, Washington, USA.
User guide (2009), "NeuralWorks Predict® The Complete Solution for Neural Data
Modeling User Guide", NeuralWare, PA, USA, 402 pages
Vyas M., Modhera B., Vyas V., et A. K. Sharma A. K. (2011), "Performance Forecasting
of Common Effluet Treatment Plant Parameters by Artificial Neural Network", ARPN
Journal of Engineering and Applied Sciences, Vol. 6, N°1, pp.: 38-42.
Werbos, P.J. (1974/1994), "The Roots of Backpropagation", John Wiley and Sons, New
York, USA, 319 pages.
Wilson, G., Tchobanoglous G., et Griffiths J. (2007a), "The Nitty Gritty: Grit Sampling
and Analysis", Water Environment & Technology, pp.: 64–68.
Zhu J., Zurcher J., Rao, M. et al. (1998), "An on-line wastewater quality prediction system
based on a time-delay neural network", Engineering Application of Artificial Intelligence 11,
pp.: 747-758.
175