OPTIMIZING CONTROL ACTIONS OF A CONTROL SYSTEM VIA AUTOMATIC DIMENSIONALITY REDUCTION OF A MATHEMATICAL REPRESENTATION OF THE CONTROL SYSTEM
A method for automatically reducing the dimensionality of a mathematical representation of a controlled application system is provided. The method includes receiving, at a control system, data corresponding to control action and system state variables relating to the controlled application system, f...
Gespeichert in:
1. Verfasser: | |
---|---|
Format: | Patent |
Sprache: | eng ; fre |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | A method for automatically reducing the dimensionality of a mathematical representation of a controlled application system is provided. The method includes receiving, at a control system, data corresponding to control action and system state variables relating to the controlled application system, fitting a constrained reinforcement learning (CRL) model to the controlled application system based on the data, and automatically identifying a subset of the system state variables by selecting control action variables of interest and identifying system state variables that drive the CRL model to recommend each control action variable of interest. The method also includes automatically performing state space dimensionality reduction of the CRL model using the subset of system state variables, estimating a transition probability matrix for a constrained Markov decision process (CMDP) model of the controlled application system, and formulating the CMDP model as a linear programming (LP) problem using the transition probability matrix and several costs.
L'invention concerne un procédé de réduction de dimensionnalité automatique d'une représentation mathématique d'un système d'application commandé. Le procédé consiste à recevoir, au niveau d'un système de commande, des données correspondant à une action de commande et à des variables d'état de système se rapportant au système d'application commandé, ajuster un modèle d'apprentissage par renforcement contraint (CRL) au système d'application commandé en fonction des données, et identifier automatiquement un sous-ensemble des variables d'état de système en sélectionnant des variables d'action de commande d'intérêt et en identifiant des variables d'état de système qui influencent le modèle de CRL pour recommander chaque variable d'action de commande d'intérêt. Le procédé consiste également à réaliser automatiquement une réduction de dimensionnalité d'espace d'états du modèle de CRL en utilisant le sous-ensemble de variables d'état de système, estimer une matrice de probabilités de transition pour un modèle de processus de décision de Markov contraint (CMDP) du système d'application commandé, et formuler le modèle de CMDP en tant que problème de programmation linéaire (LP) en utilisant la matrice de probabilités de transition et plusieurs coûts. |
---|