« Home « Kết quả tìm kiếm

Application des méthodes d’intelligence artificielle à l’analyse de la production d’eau des puits de stockage de gaz


Tóm tắt Xem thử

- artificielle à l’analyse de la production d’eau des puits de stockage de gaz.
- L’exploitation de ces données par méthode d’apprentissage devrait améliorer la gestion des puits et des débits imposés.
- 1.3 Présentation de la Direction Exploration Production ...6.
- 1.3.1 Organisation de la Direction Exploration Production...6.
- et outil de gestion des bouchons d’eau ...10.
- III RÉSEAU DE NEURONES ...12.
- 3.3.4 Règles d’apprentissage...20.
- 3.3.5 Règle d’apprentissage de perceptron ...21.
- 3.4 Algorithme d’apprentissage de « Backpropagation » ...22.
- 7.2 Script d’apprentissage avec Filtre Adaptatif ...57.
- 1.3 Présentation de la Direction Exploration Production.
- Au cours de mon stage, j’ai travaillé au sein de la Direction Exploration Production (DEP) de Gaz de France.
- Cette équipe a le rôle de la gestion de contrôle dans la division de production d’exploration..
- • fournir des outils de prédiction de la production d’eau et de ses impacts en fonction des conditions d’exploitation et de l’état du stockage.
- • fournir des règles de conception de la chaîne de l’eau de production (technologie, configuration et dimensionnement).
- Ils ont permis de réaliser une observation complète de la production d’eau et de fournir des données fiables de venue d’eau.
- Figure 2-2 : profil de la collecte du puits VA27.
- (Level Indicator Transmission) qui fournit en temps réel et en continu le niveau d’eau de la cuve du séparateur.
- Figure 2-3 : comptage de l’eau au séparateur.
- Mise en évidence d’un bouchon d’eau.
- et outil de gestion des bouchons d’eau.
- méthodes d’apprentissage paraît pertinente.
- Le stage s’inscrit dans la partie qui cherche à « fournir des outils de prédiction de la production d’eau.
- • Tester différentes métho Tester différentes méthodes d’apprentissage pour prévoir les quantités d’eau Tester différentes métho Tester différentes métho des d’apprentissage pour prévoir les quantités d’eau des d’apprentissage pour prévoir les quantités d’eau des d’apprentissage pour prévoir les quantités d’eau produites.
- J’ai utilisé le logiciel MATLAB au cours de mon stage, c’est un logiciel très puissant et il dispose en plus d’une boîte à outils dédiée à l’apprentissage et la simulation des réseaux de neurones (Neural Network Toolbox) dont je me suis servi pour réaliser mes tests..
- 3 RÉSEAU DE NEURONES.
- Les méthodes d’apprentissage automatique ont montré leur utilité dans de nombreux domaines et ont permis de résoudre un grand nombre de problèmes industriels, c’est pourquoi le projet MODEAU a décidé de faire appel à ce type de technologie pour résoudre le problème des bouchons d’eau..
- En général, l’apprentissage des réseaux de neurones est effectué de sorte que pour une entrée particulière présentée au réseau corresponde une cible spécifique.
- On utilise pour ce type d’apprentissage dit.
- Figure 3-1 : principe de l’apprentissage des réseaux de neurones.
- Ici l’entrée poids wp est le seul argument de la fonction de transfert f, qui produit la sortie scalaire a.
- Cette somme, n, est l’argument de la fonction f..
- S= nombre de neurones dans la couche.
- Figure 3-5 : Une couche de neurones.
- Par conséquent, on peut lui présenter les données en entrée dans n’importe quel ordre, cela n’influencera pas l’évolution de ses poids lors de la phase d’apprentissage.
- Il est alors préférable de lui donner tout le jeu de donnée en un seul coup lors de la phase d’apprentissage.
- On parle alors d’apprentissage par paquet.
- On parle alors d’apprentissage séquentiel..
- Ce type d’apprentissage est souvent qualifié d’apprentissage « en ligne.
- La méthode d’apprentissage dite « supervisé » est souvent utilisée mais des techniques d’apprentissage non supervisées existent pour des réseaux de neurones spécifiques.
- Figure 3-7 : Exemples des réseaux de neurones.
- La technique d’apprentissage utilisée s’appelle la règle d’étude de perceptron.
- Le vecteur d’entrée au-dessus et à la gauche de la linge L aura un net d’entrée plus grand que 0, et produira le neurone de dur-limite 1.
- 3.3.4 Règles d’apprentissage Règles d’apprentissage Règles d’apprentissage Règles d’apprentissage.
- Une règle d’apprentissage est définie comme procédure pour modifier les poids et les biais d’un réseau (cette procédure est utilisée comme un algorithme d’apprentissage).
- La règle d’apprentissage est appliquée pour entraîner le réseau afin d’exécuter une certaine tâche particulière.
- Il y a deux types d’apprentissage : l’apprentissage supervisé et l’apprentissage non-supervisé..
- Dans l’apprentissage supervisé, la règle d’apprentissage est équipée d’ensemble d’exemples de comportements propres de réseaux..
- La règle d’apprentissage est employée pour ajuster les poids et les biais du réseau afin de déplacer les sorties de réseau plus près des cibles.
- La règle d’apprentissage du perceptron est dans la catégorie de l’apprentissage supervisé..
- Dans l’apprentissage non-supervisé, les poids et les biais sont modifiés en réponse aux entrées de réseau seulement.
- 3.3.5 Règle d’apprentissage de Règle d’apprentissage de perceptron Règle d’apprentissage de Règle d’apprentissage de perceptron perceptron perceptron.
- Si le rendement de reurone est 0 et la cible est 1 (a = 0,t = 1, et e = t – a = 1), le vecteur d’entrée est ajouté au vecteur de poids w.
- La règle d’apprentissage de perceptron peut être écrite plus succinctement en terme d’erreur e = t – a et le changement à faire au vecteur de poids ∆w:.
- La règle d’apprentissage de perceptron peut être récapitulée comme suit.
- 3.4 Algorithme d’apprentissage de « Backpropagation ».
- L’algorithme d’apprentissage de Backpropagation a été créé en généralisant la loi d’apprentissage de Widrow-Hoff à des réseaux de neurones multicouches constitués de fonctions de transfert différentiables.
- Le backpropagation standard est un algorithme de descente du gradient, comme la loi d’apprentissage de Widrow-Hoff, dans lequel les poids du réseaux sont ajustés dans le sens du gradient négatif de la fonction coût.
- le taux d’apprentissage (learning rate)..
- Comme la règle d’apprentissage de perceptron, LMS est un exemple d’apprentissage supervisé, dans lequel la règle d’apprentissage est équipée d’ensemble d’exemples du comportement désiré de réseau..
- La sortie est calculée directement à partir de l’entrée par la propagation en avant – le feedforward.
- On a discuté des systèmes d’apprentissage basés sur les réseaux de neurones.
- – Le niveau d’eau dans le séparateur – Le débit du gaz,.
- Figure 4-2 : Graphe de données d’eau.
- Graphe de données d’eau.
- Mais tous les résultats qui vont être montrés portent uniquement sur le puits 27 et ceci parce que le puits 27 est le seul à avoir suffisamment de données et d’événements importants pour faire l’apprentissage..
- L’objectif de mon test était la prévision de la quantité d’eau à la date t+1 t+1 en utilisant les données d’eau, de gaz, de pression et de t+1 t+1 température à la date tttt...
- Ordre Fonction d’apprentissage.
- Nombre de Neurones.
- Figure 4-5 : Graphe d’apprentissage du puits 27 avec 4 neurones.
- Figure 4-6 : Graphe d’apprentissage du puits avec 4 neurones 27-zoom.
- Figure 4-7 : Graphe d’apprentissage du puits avec 4 neurones 27-zoom2 Traingd avec 15 neurones (erreur 0.2486).
- Figure 4-8 : Graphe d’apprentissage du puits 27 avec 15 neurones.
- Figure 4-9 : Graphe d’apprentissage du puits 27 avec 15 neurones -zoom1.
- Figure 4-10 : Graphe d’apprentissage du puits 27 avec 15 neurones -zoom2.
- Ensuite, j’ai réalisé de d’autres tests sur tous les algorithmes d’apprentissage présents dans la boîte à outils Neural Networks de Matlab.
- Les résultats de l’apprentissage sont résumés dans les tableaux suivants.
- On voit sur le graphique des résultats d’apprentissage que le résultat de la prévision et la donnée réelle sont pratiquement identiques..
- Figure 4-12 : Graphe d’apprentissage trainlm du puits 27 avec 4 neurones.
- Figure 4-13 : Graphe d’apprentissage trainlm du puits 27 avec 4 neurones – zoom.
- Ordre Evénement Nombre de Neurones.
- Figure 4-16 : Graphe d’apprentissage de la prédiction les événements après par trainlm Avec 20 événements après.
- Figure 4-17 : Graphe d’apprentissage de la prédiction 20 événements après par trainlm - zoom Avec 50 événements après.
- Figure 4-18 : Graphe d’apprentissage de la prédiction 50 événements après par trainlm - zoom Avec 100 événements après.
- Figure 4-19 : Graphe d’apprentissage de la prédiction 100 événements après par trainlm - zoom J’ai conclu que plus l’événement à prédire est lointain dans le temps, plus il y a de décalage entre la date à laquelle il est prévu et la date à laquelle il a réellement lieu.
- Figure 4-20 : Graphe d’apprentissage de la prédiction 1 événement après par réduire les données 1/10.
- Figure 4-21 : Graphe d’apprentissage de la prédiction 1 événement après par réduire les données 1/10 zoom1.
- Figure 4-22 : Graphe d’apprentissage de la prédiction 1 événement après par réduire les données 1/10 zoom2.
- Figure 4-23 : Graphe d’apprentissage de la prédiction 1 événement après par réduire les données 1/20.
- Figure 4-24 : Graphe d’apprentissage de la prédiction 1 événement après par réduire les données 1/20 zoom1.
- Figure 4-25 : Graphe d’apprentissage de la prédiction 1 événement après par réduire les données 1/20 zoom2.
- Figure 4-26 : Graphe d’apprentissage de la prédiction 1 événement après par réduire les données 1/40.
- Figure 4-27 : Graphe d’apprentissage de la prédiction 1 événement après par réduire les données 1/40 - zoom.
- Figure 4-28 : La modèle de la prédiction d’événement du filtre adaptatif.
- Le signal pour être prévu, p(t), entre de la gauche dans le tapped delay line.
- Le résultat du filtre adaptatif dépend beaucoup de la longueur du tapped delay line.
- J’ai mis en place deux modèles d’apprentissage: Backpropagation et Filtre adaptataif pour prévoir l’arrivée des bouchons d’eau.
- données eau4 : données d’eau.
- f=10;%nombre d'événements après s=4;%nombre de neurones.
- 7.2 Script d’apprentissage avec Filtre Adaptatif