De Wikipedia, la enciclopedia libre
  (Redirigido desde Controller (teoría de control) )
Saltar a navegación Saltar a búsqueda

La teoría del control se ocupa del control de sistemas dinámicos en procesos y máquinas diseñados. El objetivo es desarrollar un modelo o algoritmo que gobierne la aplicación de entradas del sistema para conducir el sistema a un estado deseado, minimizando al mismo tiempo cualquier retraso , sobreimpulso o error de estado estable y asegurando un nivel de estabilidad de control ; a menudo con el objetivo de lograr un grado de optimización .

Para hacer esto, se requiere un controlador con el comportamiento correctivo requerido. Este controlador monitorea la variable de proceso controlada (PV) y la compara con la referencia o punto de ajuste (SP). La diferencia entre el valor real y deseado de la variable de proceso, llamada señal de error o error SP-PV, se aplica como retroalimentación para generar una acción de control para llevar la variable de proceso controlada al mismo valor que el punto de ajuste. Otros aspectos que también se estudian son la controlabilidad y la observabilidad . Ésta es la base del tipo avanzado de automatización que revolucionó la fabricación, la aviación, las comunicaciones y otras industrias. Este es el control de retroalimentación, que implica tomar medidas utilizando un sensor y realizar ajustes calculados para mantener la variable medida dentro de un rango establecido por medio de un "elemento de control final", como una válvula de control . [1]

Por lo general, se hace un uso extensivo de un estilo de diagrama conocido como diagrama de bloques . En él, la función de transferencia , también conocida como función de sistema o función de red, es un modelo matemático de la relación entre la entrada y la salida basado en las ecuaciones diferenciales que describen el sistema.

La teoría del control data del siglo XIX, cuando James Clerk Maxwell describió por primera vez la base teórica del funcionamiento de los gobernadores . [2] La teoría del control fue más avanzada por Edward Routh en 1874, Charles Sturm y en 1895, Adolf Hurwitz , quienes contribuyeron al establecimiento de criterios de estabilidad del control; ya partir de 1922, el desarrollo de la teoría del control PID por Nicolas Minorsky . [3] Aunque una de las principales aplicaciones de la teoría de control matemático es la ingeniería de sistemas de control , que se ocupa del diseño del control de procesossistemas para la industria, otras aplicaciones van mucho más allá de esto. Como teoría general de los sistemas de retroalimentación, la teoría de control es útil dondequiera que se produzca la retroalimentación; por lo tanto, la teoría de control también tiene aplicaciones en las ciencias biológicas, la ingeniería informática, la sociología y la investigación operativa. [4]

Historia [ editar ]

Gobernador centrífugo en un motor Boulton & Watt de 1788

Aunque los sistemas de control de varios tipos se remontan a la antigüedad, un análisis más formal del campo comenzó con un análisis de la dinámica del gobernador centrífugo , realizado por el físico James Clerk Maxwell en 1868, titulado Sobre los gobernadores . [5] Ya se utilizaba un gobernador centrífugo para regular la velocidad de los molinos de viento. [6] Maxwell describió y analizó el fenómeno de la autooscilación , en el que los retrasos en el sistema pueden conducir a una compensación excesiva y un comportamiento inestable. Esto generó una oleada de interés en el tema, durante el cual el compañero de clase de Maxwell, Edward John Routh , resumió los resultados de Maxwell para la clase general de sistemas lineales. [7]Independientemente, Adolf Hurwitz analizó la estabilidad del sistema utilizando ecuaciones diferenciales en 1877, lo que dio como resultado lo que ahora se conoce como el teorema de Routh-Hurwitz . [8] [9]

Una aplicación notable de control dinámico fue en el área de vuelo tripulado. Los hermanos Wright realizaron sus primeros vuelos de prueba con éxito el 17 de diciembre de 1903 y se distinguieron por su capacidad para controlar sus vuelos durante períodos sustanciales (más que la capacidad de producir sustentación desde un perfil aerodinámico, que se conocía). El control continuo y confiable del avión era necesario para vuelos que duraban más de unos pocos segundos.

Para la Segunda Guerra Mundial , la teoría del control se estaba convirtiendo en un área importante de investigación. Irmgard Flügge-Lotz desarrolló la teoría de los sistemas de control automático discontinuos y aplicó el principio bang-bang al desarrollo de equipos de control de vuelo automático para aeronaves. [10] [11] Otras áreas de aplicación para los controles discontinuos incluyen sistemas de control de incendios , sistemas de guía y de la electrónica .

A veces, se utilizan métodos mecánicos para mejorar la estabilidad de los sistemas. Por ejemplo, los estabilizadores de barcos son aletas montadas debajo de la línea de flotación y que emergen lateralmente. En los buques contemporáneos, pueden ser aletas activas controladas giroscópicamente, que tienen la capacidad de cambiar su ángulo de ataque para contrarrestar el balanceo causado por el viento o las olas que actúan sobre el barco.

La carrera espacial también dependía del control preciso de las naves espaciales, y la teoría del control también se ha visto cada vez más utilizada en campos como la economía y la inteligencia artificial. Aquí, se podría decir que el objetivo es encontrar un modelo interno que obedezca al teorema del buen regulador.. Así, por ejemplo, en economía, cuanto más exactamente representa un modelo de negociación (de acciones o materias primas) las acciones del mercado, más fácilmente puede controlar ese mercado (y extraer "trabajo útil" (ganancias) de él). En IA, un ejemplo podría ser un chatbot que modela el estado del discurso de los humanos: cuanto más exactamente pueda modelar el estado humano (por ejemplo, en una línea telefónica de asistencia telefónica), mejor podrá manipular al humano (por ejemplo, para realizar las acciones correctivas para resolver el problema que causó la llamada telefónica a la línea de ayuda). Estos dos últimos ejemplos toman la interpretación histórica estrecha de la teoría del control como un conjunto de ecuaciones diferenciales que modelan y regulan el movimiento cinético, y la amplían en una vasta generalización de un regulador que interactúa con una planta .

Control de bucle abierto y de bucle cerrado (retroalimentación) [ editar ]

Un diagrama de bloques de un sistema de control de retroalimentación negativa que usa un circuito de retroalimentación para controlar la variable del proceso comparándola con un valor deseado y aplicando la diferencia como una señal de error para generar una salida de control para reducir o eliminar el error.
Ejemplo de un solo lazo de control industrial; mostrando un control continuamente modulado del flujo del proceso.

Básicamente, existen dos tipos de bucles de control: control de bucle abierto y control de bucle cerrado (retroalimentación).

En el control de lazo abierto, la acción de control del controlador es independiente de la "salida del proceso" (o "variable de proceso controlada" - PV). Un buen ejemplo de esto es una caldera de calefacción central controlada solo por un temporizador, de modo que el calor se aplica durante un tiempo constante, independientemente de la temperatura del edificio. La acción de control es el encendido / apagado temporizado de la caldera, la variable del proceso es la temperatura del edificio, pero ninguna está vinculada.

En el control de bucle cerrado, la acción de control del controlador depende de la retroalimentación del proceso en forma del valor de la variable de proceso (PV). En el caso de la analogía de la caldera, un circuito cerrado incluiría un termostato para comparar la temperatura del edificio (PV) con la temperatura establecida en el termostato (el punto de ajuste - SP). Esto genera una salida de controlador para mantener el edificio a la temperatura deseada encendiendo y apagando la caldera. Un controlador de circuito cerrado, por lo tanto, tiene un circuito de retroalimentación que asegura que el controlador ejerce una acción de control para manipular la variable de proceso para que sea la misma que la "Entrada de referencia" o el "punto de ajuste". Por esta razón, los controladores de circuito cerrado también se denominan controladores de retroalimentación. [12]

La definición de un sistema de control de circuito cerrado según la British Standard Institution es "un sistema de control que posee retroalimentación de monitoreo, la señal de desviación formada como resultado de esta retroalimentación se utiliza para controlar la acción de un elemento de control final de tal manera que tienden a reducir la desviación a cero ". [13]

Igualmente; "Un sistema de control de retroalimentación es un sistema que tiende a mantener una relación prescrita de una variable del sistema a otra comparando funciones de estas variables y usando la diferencia como medio de control". [14]

Otros ejemplos [ editar ]

Un ejemplo de un sistema de control es el control de crucero de un automóvil , que es un dispositivo diseñado para mantener la velocidad del vehículo a una velocidad constante deseada o de referencia proporcionada por el conductor. El controlador es el control de crucero, la planta es el automóvil y el sistema es el automóvil y el control de crucero. La salida del sistema es la velocidad del automóvil y el control en sí es la posición del acelerador del motor que determina cuánta potencia entrega el motor.

Una forma primitiva de implementar el control de crucero es simplemente bloquear la posición del acelerador cuando el conductor activa el control de crucero. Sin embargo, si el control de crucero está activado en un tramo de carretera no plana, el automóvil viajará más lento en la subida y más rápido en la bajada. Este tipo de controlador se denomina controlador de bucle abierto porque no hay retroalimentación ; no se utiliza ninguna medición de la salida del sistema (la velocidad del automóvil) para alterar el control (la posición del acelerador). Como resultado, el controlador no puede compensar los cambios que actúan sobre el automóvil, como un cambio en la pendiente de la carretera.

En un sistema de control de circuito cerrado, los datos de un sensor que monitorea la velocidad del automóvil (la salida del sistema) ingresan a un controlador que compara continuamente la cantidad que representa la velocidad con la cantidad de referencia que representa la velocidad deseada. La diferencia, llamada error, determina la posición del acelerador (el control). El resultado es hacer coincidir la velocidad del automóvil con la velocidad de referencia (mantener la salida del sistema deseada). Ahora, cuando el automóvil va cuesta arriba, la diferencia entre la entrada (la velocidad detectada) y la referencia determina continuamente la posición del acelerador. A medida que la velocidad detectada cae por debajo de la referencia, la diferencia aumenta, el acelerador se abre y la potencia del motor aumenta, acelerando el vehículo. De esta manera, el controlador contrarresta dinámicamente los cambios en la velocidad del automóvil.La idea central de estos sistemas de control es el circuito de retroalimentación, el controlador afecta la salida del sistema, que a su vez se mide y se realimenta al controlador.

Teoría clásica del control [ editar ]

Para superar las limitaciones del controlador de bucle abierto , la teoría de control introduce retroalimentación . Un controlador de circuito cerrado utiliza retroalimentación para controlar estados o salidas de un sistema dinámico . Su nombre proviene de la ruta de información en el sistema: las entradas del proceso (por ejemplo, el voltaje aplicado a un motor eléctrico ) tienen un efecto en las salidas del proceso (por ejemplo, la velocidad o el par del motor), que se mide con sensores y se procesa por el controlador; el resultado (la señal de control) se "retroalimenta" como entrada al proceso, cerrando el bucle.

Los controladores de circuito cerrado tienen las siguientes ventajas sobre los controladores de circuito abierto :

  • rechazo de perturbaciones (como colinas en el ejemplo de control de crucero anterior)
  • Rendimiento garantizado incluso con incertidumbres del modelo , cuando la estructura del modelo no coincide perfectamente con el proceso real y los parámetros del modelo no son exactos.
  • los procesos inestables se pueden estabilizar
  • sensibilidad reducida a variaciones de parámetros
  • rendimiento de seguimiento de referencia mejorado

En algunos sistemas, el control de bucle cerrado y de bucle abierto se utilizan simultáneamente. En tales sistemas, el control de bucle abierto se denomina feedforward y sirve para mejorar aún más el rendimiento del seguimiento de referencias.

Una arquitectura de controlador de circuito cerrado común es el controlador PID .

Función de transferencia de bucle cerrado [ editar ]

La salida del sistema y ( t ) se realimenta a través de una medición de sensor F para una comparación con el valor de referencia r ( t ). El controlador C toma entonces el error e (diferencia) entre la referencia y la salida para cambiar las entradas u al sistema bajo control P . Esto se muestra en la figura. Este tipo de controlador es un controlador de circuito cerrado o un controlador de retroalimentación.

Esto se denomina sistema de control de entrada única y salida única ( SISO ); Los sistemas MIMO (es decir, múltiples entradas y múltiples salidas), con más de una entrada / salida, son comunes. En tales casos, las variables se representan mediante vectores en lugar de valores escalares simples . Para algunos sistemas de parámetros distribuidos, los vectores pueden ser de dimensión infinita (típicamente funciones).

Si asumimos que el controlador C , la planta P y el sensor F son lineales e invariantes en el tiempo (es decir, los elementos de su función de transferencia C ( s ), P ( s ) y F ( s ) no dependen del tiempo) , los sistemas anteriores se pueden analizar utilizando la transformada de Laplace en las variables. Esto da las siguientes relaciones:

Resolver para Y ( s ) en términos de R ( s ) da

La expresión se conoce como función de transferencia de bucle cerrado del sistema. El numerador es la ganancia hacia delante (de bucle abierto) a partir de r a y , y el denominador es uno más la ganancia en ir alrededor del bucle de realimentación, la llamada ganancia de bucle. Si , es decir, tiene una norma grande con cada valor de s , y si , entonces Y ( s ) es aproximadamente igual a R ( s ) y la salida sigue de cerca la entrada de referencia.

Control de retroalimentación PID [ editar ]

Un diagrama de bloques de un controlador PID en un circuito de retroalimentación, r ( t ) es el valor de proceso deseado o "punto de ajuste", e y ( t ) es el valor de proceso medido.

Un controlador proporcional-integral-derivado (controlador PID) es una técnica de control del mecanismo de retroalimentación del lazo de control ampliamente utilizada en los sistemas de control.

Un controlador PID calcula continuamente un valor de error e ( t ) como la diferencia entre un punto de ajuste deseado y una variable de proceso medida y aplica una corrección basada en términos proporcionales , integrales y derivados . PID es un inicialismo de Proporcional-Integral-Derivado , refiriéndose a los tres términos que operan en la señal de error para producir una señal de control.

La comprensión y aplicación teóricas datan de la década de 1920 y se implementan en casi todos los sistemas de control analógicos; originalmente en controladores mecánicos, y luego usando electrónica discreta y más tarde en computadoras de procesos industriales. El controlador PID es probablemente el diseño de control de retroalimentación más utilizado.

Si u ( t ) es la señal de control enviada al sistema, y ( t ) es la salida medida y r ( t ) es la salida deseada, ye ( t ) = r ( t ) - y ( t ) es el seguimiento error, un controlador PID tiene la forma general

La dinámica de bucle cerrado deseada se obtiene ajustando los tres parámetros K P , K I y K D , a menudo de forma iterativa "sintonizando" y sin conocimiento específico de un modelo de planta. La estabilidad a menudo se puede garantizar utilizando solo el término proporcional. El término integral permite el rechazo de una perturbación escalonada (a menudo una especificación sorprendente en el control de procesos ). El término derivado se utiliza para amortiguar o dar forma a la respuesta. Los controladores PID son la clase de sistemas de control mejor establecida; sin embargo, no pueden usarse en varios casos más complicados, especialmente si se consideran los sistemas MIMO .

La aplicación de la transformación de Laplace da como resultado la ecuación del controlador PID transformada

con la función de transferencia del controlador PID

Como ejemplo de ajuste de un controlador PID en el sistema de circuito cerrado H ( s ) , considere una planta de primer orden dada por

donde A y T P son algunas constantes. La salida de la planta se retroalimenta a través de

donde T F también es una constante. Ahora, si establecemos , K D = KT D , y , podemos expresar la función de transferencia del controlador PID en forma de serie como

Conectando P ( s ) , F ( s ) y C ( s ) en la función de transferencia de bucle cerrado H ( s ) , encontramos que al establecer

H ( s ) = 1 . Con esta sintonización en este ejemplo, la salida del sistema sigue exactamente la entrada de referencia.

Sin embargo, en la práctica, un diferenciador puro no es físicamente realizable ni deseable [15] debido a la amplificación del ruido y los modos resonantes en el sistema. Por lo tanto, se utiliza en su lugar un enfoque de tipo compensador de avance de fase o un diferenciador con atenuación de paso bajo.

Teoría de control lineal y no lineal [ editar ]

El campo de la teoría del control se puede dividir en dos ramas:

  • Teoría de control lineal : esto se aplica a sistemas hechos de dispositivos que obedecen al principio de superposición , lo que significa aproximadamente que la salida es proporcional a la entrada. Se rigen por ecuaciones diferenciales lineales . Una subclase importante son los sistemas que además tienen parámetros que no cambian con el tiempo, llamados sistemas invariantes en el tiempo lineal (LTI). Estos sistemas son susceptibles de gran alcance dominio de la frecuencia técnicas matemáticas de gran generalidad, como la transformada de Laplace , transformada de Fourier , transformada Z , diagrama de Bode , lugar de las raíces , y la estabilidad de Nyquist criterio. Estos conducen a una descripción del sistema utilizando términos como ancho de banda , respuesta de frecuencia , valores propios , ganancia , frecuencias resonantes , ceros y polos , que brindan soluciones para la respuesta del sistema y técnicas de diseño para la mayoría de los sistemas de interés.
  • Teoría de control no lineal : cubre una clase más amplia de sistemas que no obedecen al principio de superposición y se aplica a más sistemas del mundo real porque todos los sistemas de control reales son no lineales. Estos sistemas a menudo se rigen por ecuaciones diferenciales no lineales . Las pocas técnicas matemáticas que se han desarrollado para manejarlos son más difíciles y mucho menos generales, y a menudo se aplican solo a categorías limitadas de sistemas. Estos incluyen lateoría del ciclo límite , mapas de Poincaré , el teorema de estabilidad de Lyapunov y funciones descriptivas . Los sistemas no lineales a menudo se analizan utilizando métodos numéricos en computadoras, por ejemplo, simulandosu funcionamiento utilizando un lenguaje de simulación . Si solo son de interés las soluciones cercanas a un punto estable, los sistemas no lineales a menudo se pueden linealizar aproximándolos mediante un sistema lineal usando la teoría de la perturbación , y se pueden usar técnicas lineales. [dieciséis]

Técnicas de análisis: dominio de la frecuencia y dominio del tiempo [ editar ]

Las técnicas matemáticas para analizar y diseñar sistemas de control se dividen en dos categorías diferentes:

  • Dominio de la frecuencia : en este tipo, los valores de las variables de estado , las variables matemáticas que representan la entrada, la salida y la retroalimentación del sistema, se representan como funciones de frecuencia . La señal de entrada y del sistema de función de transferencia se convierten de funciones de tiempo a funciones de la frecuencia por una transformada tal como la transformada de Fourier , transformada de Laplace , o la transformada Z . La ventaja de esta técnica es que resulta en una simplificación de las matemáticas; las ecuaciones diferenciales que representan el sistema son reemplazadas por ecuaciones algebraicasen el dominio de la frecuencia, que es mucho más simple de resolver. Sin embargo, las técnicas en el dominio de la frecuencia solo se pueden utilizar con sistemas lineales, como se mencionó anteriormente.
  • Representación del espacio de estado en el dominio del tiempo : en este tipo, los valores de las variables de estado se representan como funciones del tiempo. Con este modelo, el sistema que se analiza se representa mediante una o más ecuaciones diferenciales . Dado que las técnicas en el dominio de la frecuencia se limitan a lossistemas lineales , el dominio del tiempo se usa ampliamente para analizar sistemas no lineales del mundo real. Aunque son más difíciles de resolver, las técnicas modernas de simulación por ordenador, como los lenguajes de simulación, han convertido su análisis en una rutina.

En contraste con el análisis en el dominio de la frecuencia de la teoría de control clásica, la teoría de control moderna utiliza el espacio de estados en el dominio del tiempo.representación, un modelo matemático de un sistema físico como un conjunto de variables de entrada, salida y estado relacionadas por ecuaciones diferenciales de primer orden. Para abstraer el número de entradas, salidas y estados, las variables se expresan como vectores y las ecuaciones diferenciales y algebraicas se escriben en forma matricial (esta última solo es posible cuando el sistema dinámico es lineal). La representación del espacio de estados (también conocida como "enfoque en el dominio del tiempo") proporciona una forma conveniente y compacta de modelar y analizar sistemas con múltiples entradas y salidas. Con entradas y salidas, tendríamos que anotar las transformadas de Laplace para codificar toda la información sobre un sistema. A diferencia del enfoque en el dominio de la frecuencia,el uso de la representación del espacio de estados no se limita a sistemas con componentes lineales y condiciones iniciales cero. "Espacio de estado" se refiere al espacio cuyos ejes son las variables de estado. El estado del sistema se puede representar como un punto dentro de ese espacio.[17] [18]

Interfaz del sistema: SISO y MIMO [ editar ]

Los sistemas de control se pueden dividir en diferentes categorías según el número de entradas y salidas.

  • Entrada única salida única (SISO): este es el tipo más simple y común, en el que una salida está controlada por una señal de control. Algunos ejemplos son el ejemplo de control de crucero anterior, o un sistema de audio , en el que la entrada de control es la señal de audio de entrada y la salida son las ondas sonoras del altavoz.
  • Múltiples entradas y salidas múltiples (MIMO): se encuentran en sistemas más complicados. Por ejemplo, los grandes telescopios modernos como el Keck y el MMT tienen espejos compuestos por muchos segmentos separados, cada uno controlado por un actuador . La forma de todo el espejo se ajusta constantemente mediante un sistema de control de óptica activa MIMO que utiliza la entrada de múltiples sensores en el plano focal, para compensar los cambios en la forma del espejo debido a la expansión térmica, la contracción, las tensiones al girar y la distorsión del espejo. frente de onda debido a la turbulencia en la atmósfera. Sistemas complicados como reactores nucleares y células humanas. son simulados por una computadora como grandes sistemas de control MIMO.

Temas de la teoría del control [ editar ]

Estabilidad [ editar ]

La estabilidad de un sistema dinámico general sin entrada se puede describir con los criterios de estabilidad de Lyapunov .

  • Un sistema lineal se denomina estable de entrada acotada y salida acotada (BIBO) si su salida permanecerá acotada para cualquier entrada acotada.
  • La estabilidad para los sistemas no lineales que toman una entrada es la estabilidad de entrada a estado (ISS), que combina la estabilidad de Lyapunov y una noción similar a la estabilidad BIBO.

Para simplificar, las siguientes descripciones se centran en sistemas lineales de tiempo continuo y tiempo discreto .

Matemáticamente, esto significa que para que un sistema lineal causal sea estable, todos los polos de su función de transferencia deben tener valores reales negativos, es decir, la parte real de cada polo debe ser menor que cero. Prácticamente hablando, la estabilidad requiere que la función de transferencia resida polos complejos

  • en la mitad izquierda abierta del plano complejo para tiempo continuo, cuando se usa la transformada de Laplace para obtener la función de transferencia.
  • dentro del círculo unitario durante un tiempo discreto, cuando se utiliza la transformada Z.

La diferencia entre los dos casos se debe simplemente al método tradicional de graficar funciones de transferencia de tiempo continuo versus tiempo discreto. La transformada de Laplace continua está en coordenadas cartesianas donde el eje es el eje real y la transformada Z discreta está en coordenadas circulares donde el eje es el eje real.

Cuando se satisfacen las condiciones apropiadas anteriores, se dice que un sistema es asintóticamente estable ; las variables de un sistema de control asintóticamente estable siempre disminuyen desde su valor inicial y no muestran oscilaciones permanentes. Las oscilaciones permanentes ocurren cuando un polo tiene una parte real exactamente igual a cero (en el caso de tiempo continuo) o un módulo igual a uno (en el caso de tiempo discreto). Si una respuesta de sistema simplemente estable no decae ni crece con el tiempo, y no tiene oscilaciones, es marginalmente estable; en este caso, la función de transferencia del sistema tiene polos no repetidos en el origen del plano complejo (es decir, su componente real y complejo es cero en el caso de tiempo continuo). Las oscilaciones están presentes cuando los polos con parte real igual a cero tienen una parte imaginaria diferente de cero.

Si un sistema en cuestión tiene una respuesta impulsiva de

entonces la transformada Z (ver este ejemplo ), viene dada por

que tiene un polo en ( parte imaginaria cero ). Este sistema es BIBO (asintóticamente) estable ya que el polo está dentro del círculo unitario.

Sin embargo, si la respuesta al impulso fue

entonces la transformada Z es

que tiene un polo en y no es BIBO estable ya que el polo tiene un módulo estrictamente mayor que uno.

Existen numerosas herramientas para el análisis de los polos de un sistema. Estos incluyen sistemas gráficos como el lugar de las raíces , los diagramas de Bode o los diagramas de Nyquist .

Los cambios mecánicos pueden hacer que el equipo (y los sistemas de control) sean más estables. Los marineros agregan lastre para mejorar la estabilidad de los barcos. Los cruceros utilizan aletas estabilizadoras que se extienden transversalmente desde el costado del barco durante unos 10 m (30 pies) y giran continuamente sobre sus ejes para desarrollar fuerzas que se oponen al balanceo.

Controlabilidad y observabilidad [ editar ]

La controlabilidad y la observabilidad son cuestiones principales en el análisis de un sistema antes de decidir la mejor estrategia de control a aplicar, o incluso si es posible controlar o estabilizar el sistema. La controlabilidad está relacionada con la posibilidad de forzar el sistema a un estado particular mediante el uso de una señal de control adecuada. Si un estado no es controlable, ninguna señal podrá controlarlo. Si un estado no es controlable, pero su dinámica es estable, entonces el estado se denomina estabilizable . En cambio, la observabilidad está relacionada con la posibilidad de observar, a través de medidas de salida, el estado de un sistema. Si un estado no es observable, el controlador nunca podrá determinar el comportamiento de un estado no observable y, por lo tanto, no podrá utilizarlo para estabilizar el sistema. Sin embargo, de manera similar a la condición de estabilización anterior, si un estado no se puede observar, aún podría ser detectable.

Desde un punto de vista geométrico, mirando los estados de cada variable del sistema a controlar, cada estado "malo" de estas variables debe ser controlable y observable para asegurar un buen comportamiento en el sistema de lazo cerrado. Es decir, si uno de los valores propios del sistema no es controlable y observable, esta parte de la dinámica permanecerá intacta en el sistema de circuito cerrado. Si tal valor propio no es estable, la dinámica de este valor propio estará presente en el sistema de circuito cerrado que, por lo tanto, será inestable. Los polos no observables no están presentes en la realización de la función de transferencia de una representación en el espacio de estados, por lo que a veces se prefiere esta última en el análisis de sistemas dinámicos.

Las soluciones a los problemas de un sistema incontrolable o inobservable incluyen la adición de actuadores y sensores.

Especificación de control [ editar ]

En los últimos años se han ideado varias estrategias de control diferentes. Estos varían desde los extremadamente generales (controlador PID), hasta otros dedicados a clases de sistemas muy particulares (especialmente robótica o control de crucero de aviones).

Un problema de control puede tener varias especificaciones. La estabilidad, por supuesto, siempre está presente. El controlador debe asegurarse de que el sistema de circuito cerrado sea estable, independientemente de la estabilidad de circuito abierto. Una mala elección del controlador puede incluso empeorar la estabilidad del sistema de bucle abierto, lo que normalmente debe evitarse. A veces se desearía obtener una dinámica particular en el circuito cerrado: es decir, que los polos tienen , donde es un valor fijo estrictamente mayor que cero, en lugar de simplemente preguntar eso .

Otra especificación típica es el rechazo de una perturbación escalonada; la inclusión de un integrador en la cadena de bucle abierto (es decir, directamente antes del sistema bajo control) logra fácilmente esto. Otras clases de perturbaciones necesitan que se incluyan diferentes tipos de subsistemas.

Otras especificaciones de la teoría de control "clásica" se refieren a la respuesta en el tiempo del sistema de circuito cerrado. Estos incluyen el tiempo de subida (el tiempo que necesita el sistema de control para alcanzar el valor deseado después de una perturbación), el pico de exceso (el valor más alto alcanzado por la respuesta antes de alcanzar el valor deseado) y otros ( tiempo de estabilización , cuarto de caída). Las especificaciones en el dominio de la frecuencia suelen estar relacionadas con la robustez (véase más adelante).

Las evaluaciones de desempeño modernas utilizan alguna variación del error de seguimiento integrado (IAE, ISA, CQI).

Identificación y robustez del modelo [ editar ]

Un sistema de control siempre debe tener alguna propiedad de robustez. Un controlador robusto es tal que sus propiedades no cambian mucho si se aplica a un sistema ligeramente diferente al matemático utilizado para su síntesis. Este requisito es importante, ya que ningún sistema físico real se comporta realmente como la serie de ecuaciones diferenciales utilizadas para representarlo matemáticamente. Por lo general, se elige un modelo matemático más simple para simplificar los cálculos; de lo contrario, la verdadera dinámica del sistema puede ser tan complicada que un modelo completo es imposible.

Identificación del sistema

El proceso de determinar las ecuaciones que gobiernan la dinámica del modelo se llama identificación del sistema . Esto se puede hacer fuera de línea: por ejemplo, ejecutando una serie de medidas a partir de las cuales calcular un modelo matemático aproximado, típicamente su función de transferencia o matriz. Sin embargo, tal identificación de la salida no puede tener en cuenta la dinámica no observable. A veces, el modelo se construye directamente a partir de ecuaciones físicas conocidas, por ejemplo, en el caso de un sistema masa-resorte-amortiguador sabemos que. Incluso suponiendo que se utilice un modelo "completo" en el diseño del controlador, todos los parámetros incluidos en estas ecuaciones (llamados "parámetros nominales") nunca se conocen con absoluta precisión; el sistema de control tendrá que comportarse correctamente incluso cuando esté conectado a un sistema físico con valores de parámetros reales distintos de los nominales.

Algunas técnicas de control avanzadas incluyen un proceso de identificación "en línea" (ver más adelante). Los parámetros del modelo se calculan ("identifican") mientras el propio controlador está en funcionamiento. De esta forma, si se produce una variación drástica de los parámetros, por ejemplo, si el brazo del robot libera un peso, el controlador se ajustará en consecuencia para asegurar el correcto funcionamiento.

Análisis

El análisis de la robustez de un sistema de control SISO (entrada única salida única) se puede realizar en el dominio de la frecuencia, considerando la función de transferencia del sistema y utilizando diagramas de Nyquist y Bode . Los temas incluyen ganancia y margen de fase y margen de amplitud. Para MIMO (multi-entrada multi-salida) y, en general, sistemas de control más complicados, se deben considerar los resultados teóricos ideados para cada técnica de control (ver siguiente sección). Es decir, si se necesitan cualidades particulares de robustez, el ingeniero debe centrar su atención en una técnica de control incluyendo estas cualidades en sus propiedades.

Restricciones

Un problema de robustez particular es el requisito de que un sistema de control funcione correctamente en presencia de restricciones de entrada y de estado. En el mundo físico, todas las señales son limitadas. Podría suceder que un controlador envíe señales de control que el sistema físico no pueda seguir, por ejemplo, al intentar girar una válvula a una velocidad excesiva. Esto puede producir un comportamiento no deseado del sistema de circuito cerrado, o incluso dañar o romper actuadores u otros subsistemas. Se dispone de técnicas de control específicas para resolver el problema: control predictivo de modelos (ver más adelante) y sistemas anti-enrollamiento . Este último consta de un bloque de control adicional que garantiza que la señal de control nunca supere un umbral determinado.

Clasificaciones del sistema [ editar ]

Control de sistemas lineales [ editar ]

Para los sistemas MIMO, la ubicación de los polos se puede realizar matemáticamente utilizando una representación del espacio de estado del sistema de bucle abierto y calculando una matriz de retroalimentación que asigna los polos en las posiciones deseadas. En sistemas complicados, esto puede requerir capacidades de cálculo asistidas por computadora y no siempre puede garantizar la solidez. Además, todos los estados del sistema no se miden en general, por lo que los observadores deben incluirse e incorporarse en el diseño de la ubicación de los postes.

Control de sistemas no lineales [ editar ]

Los procesos en industrias como la robótica y la industria aeroespacial suelen tener una fuerte dinámica no lineal. En la teoría de control, a veces es posible linealizar tales clases de sistemas y aplicar técnicas lineales, pero en muchos casos puede ser necesario idear desde cero teorías que permitan el control de sistemas no lineales. Estos, por ejemplo, linealización de retroalimentación , retroceso , control de modo deslizante, control de linealización de trayectoria normalmente aprovechan los resultados basados ​​en la teoría de Lyapunov . Geometría diferencialse ha utilizado ampliamente como una herramienta para generalizar conceptos de control lineal bien conocidos al caso no lineal, así como para mostrar las sutilezas que lo convierten en un problema más desafiante. La teoría del control también se ha utilizado para descifrar el mecanismo neuronal que dirige los estados cognitivos. [19]

Control de sistemas descentralizados [ editar ]

Cuando el sistema está controlado por varios controladores, el problema es de control descentralizado. La descentralización es útil de muchas maneras, por ejemplo, ayuda a que los sistemas de control operen en un área geográfica más grande. Los agentes de los sistemas de control descentralizados pueden interactuar utilizando canales de comunicación y coordinar sus acciones.

Control de sistemas deterministas y estocásticos [ editar ]

Un problema de control estocástico es aquel en el que la evolución de las variables de estado está sujeta a choques aleatorios desde fuera del sistema. Un problema de control determinista no está sujeto a choques aleatorios externos.

Principales estrategias de control [ editar ]

Todo sistema de control debe garantizar primero la estabilidad del comportamiento de bucle cerrado. Para sistemas lineales , esto se puede obtener colocando directamente los polos. Los sistemas de control no lineales utilizan teorías específicas (normalmente basadas en la teoría de Aleksandr Lyapunov ) para garantizar la estabilidad sin tener en cuenta la dinámica interna del sistema. La posibilidad de cumplir con diferentes especificaciones varía según el modelo considerado y la estrategia de control elegida.

Lista de las principales técnicas de control
  • El control adaptativo utiliza la identificación en línea de los parámetros del proceso o la modificación de las ganancias del controlador, obteniendo así fuertes propiedades de robustez. Los controles adaptativos se aplicaron por primera vez en la industria aeroespacial en la década de 1950 y han tenido un éxito particular en ese campo.
  • Un sistema de control jerárquico es un tipo de sistema de control en el que un conjunto de dispositivos y software de gobierno se organiza en un árbol jerárquico . Cuando los enlaces en el árbol son implementados por una red de computadoras , entonces ese sistema de control jerárquico es también una forma de sistema de control en red .
  • El control inteligente utiliza varios enfoques informáticos de IA como redes neuronales artificiales , probabilidad bayesiana , lógica difusa , [20] aprendizaje automático , computación evolutiva y algoritmos genéticos o una combinación de estos métodos, como algoritmos neuro-difusos , para controlar un sistema dinámico .
  • El control óptimo es una técnica de control particular en la que la señal de control optimiza un cierto "índice de costo": por ejemplo, en el caso de un satélite, los empujes de chorro necesarios para llevarlo a la trayectoria deseada que consumen la menor cantidad de combustible. Se han utilizado ampliamente dos métodos de diseño de control óptimos en aplicaciones industriales, ya que se ha demostrado que pueden garantizar la estabilidad en bucle cerrado. Estos son el control predictivo de modelos (MPC) y el control lineal-cuadrático-gaussiano(LQG). El primero puede tener en cuenta de manera más explícita las limitaciones de las señales en el sistema, que es una característica importante en muchos procesos industriales. Sin embargo, la estructura de "control óptimo" en MPC es solo un medio para lograr tal resultado, ya que no optimiza un índice de rendimiento real del sistema de control de bucle cerrado. Junto con los controladores PID, los sistemas MPC son la técnica de control más utilizada en el control de procesos .
  • El control robusto se ocupa explícitamente de la incertidumbre en su enfoque del diseño del controlador. Los controladores diseñados con métodos de control robustos tienden a ser capaces de hacer frente a pequeñas diferencias entre el sistema real y el modelo nominal utilizado para el diseño. [21] Los primeros métodos de Bode y otros eran bastante sólidos; A veces se descubrió que los métodos de espacio de estados inventados en las décadas de 1960 y 1970 carecían de robustez. Ejemplos de técnicas modernas de control robusto incluyen la forma de bucle infinito en H desarrollada por Duncan McFarlane y Keith Glover , control de modo deslizante (SMC) desarrollado por Vadim Utkiny protocolos seguros diseñados para el control de grandes poblaciones heterogéneas de cargas eléctricas en aplicaciones de Smart Power Grid. [22] Los métodos robustos tienen como objetivo lograr un rendimiento y / o estabilidad sólidos en presencia de pequeños errores de modelado.
  • El control estocástico se ocupa del diseño de controles con incertidumbre en el modelo. En los problemas típicos de control estocástico, se supone que existen perturbaciones y ruido aleatorio en el modelo y el controlador, y el diseño de control debe tener en cuenta estas desviaciones aleatorias.
  • El control de la criticidad autoorganizado puede definirse como intentos de interferir en los procesos mediante los cuales el sistema autoorganizado disipa energía.

Personas en sistemas y control [ editar ]

Muchas figuras activas e históricas hicieron una contribución significativa a la teoría del control, incluyendo

  • Pierre-Simon Laplace inventó la transformada Z en su trabajo sobre la teoría de la probabilidad , que ahora se utiliza para resolver problemas de teoría de control de tiempo discreto. La transformada Z es un equivalente en tiempo discreto de la transformada de Laplace que lleva su nombre.
  • Irmgard Flugge-Lotz desarrolló la teoría del control automático discontinuo y la aplicó a los sistemas de control automático de aeronaves .
  • Alexander Lyapunov en la década de 1890 marca el comienzo de la teoría de la estabilidad .
  • Harold S. Black inventó el concepto de amplificadores de retroalimentación negativa en 1927. Logró desarrollar amplificadores de retroalimentación negativa estables en la década de 1930.
  • Harry Nyquist desarrolló el criterio de estabilidad de Nyquist para los sistemas de retroalimentación en la década de 1930.
  • Richard Bellman desarrolló la programación dinámica desde la década de 1940. [23]
  • Andrey Kolmogorov co-desarrolló el filtro Wiener – Kolmogorov en 1941.
  • Norbert Wiener co-desarrolló el filtro Wiener-Kolmogorov y acuñó el término cibernética en la década de 1940.
  • John R. Ragazzini introdujo el control digital y el uso de la transformada Z en la teoría de control (inventada por Laplace) en la década de 1950.
  • Lev Pontryagin introdujo el principio máximo y el principio bang-bang .
  • Pierre-Louis Lions desarrolló soluciones de viscosidad en control estocástico y métodos de control óptimos .
  • Rudolf Kalman fue pionero en el enfoque de sistemas y control en el espacio de estados . Introdujo las nociones de controlabilidad y observabilidad . Desarrolló el filtro de Kalman para estimación lineal.
  • Ali H. Nayfeh, quien fue uno de los principales contribuyentes a la teoría del control no lineal y publicó muchos libros sobre métodos de perturbación.
  • Jan C. Willems introdujo el concepto de disipatividad, como una generalización de la función de Lyapunov a los sistemas de entrada / estado / salida. La construcción de la función de almacenamiento, como se llama el análogo de una función de Lyapunov, llevó al estudio de la desigualdad de matriz lineal (LMI) en la teoría de control. Fue pionero en el enfoque conductual de la teoría de sistemas matemáticos.

Ver también [ editar ]

Ejemplos de sistemas de control
  • Automatización
  • Controlador Deadbeat
  • Sistemas de parámetros distribuidos
  • Control de orden fraccional
  • Forma de bucle infinito en H
  • Sistema de control jerárquico
  • Modelo de control predictivo
  • Control optimo
  • Control de procesos
  • Control robusto
  • Servomecanismo
  • Espacio de estado (controles)
  • Control de vectores
Temas de la teoría del control
  • Método de diagrama de coeficientes
  • Control de reconfiguración
  • Teorema de inserción de cortes
  • Realimentación
  • H infinito
  • Valor singular de Hankel
  • Teorema de krener
  • Compensador de adelanto-retraso
  • Retroalimentación de bucle menor
  • Retroalimentación de múltiples bucles
  • Sistemas positivos
  • Funcion de base radial
  • Lugar de las raíces
  • Gráficos de flujo de señales
  • Polinomio estable
  • Representación del espacio de estados
  • Estado estable
  • Respuesta transitoria
  • Estado transitorio
  • Infravaloración
  • Parametrización de Youla – Kucera
  • Método de aproximación de la cadena de Markov
Otros temas relacionados
  • Sistema adaptativo
  • Automatización y control remoto
  • Gráfico de bonos
  • Ingeniería de control
  • Bucle control-retroalimentación-aborto
  • Controlador (teoría de control)
  • Cibernética
  • Control inteligente
  • Teoría del sistema matemático
  • Amplificador de retroalimentación negativa
  • Personas en sistemas y control
  • Teoría del control perceptual
  • Teoría de sistemas
  • Cálculo de escala de tiempo

Referencias [ editar ]

  1. ^ Bennett, Stuart (1992). Una historia de la ingeniería de control, 1930-1955. IET. pag. 48. ISBN  978-0-86341-299-8 .
  2. Maxwell, JC (1868). "Sobre los gobernadores" (PDF) . Actas de la Royal Society . 100 .
  3. Minorsky, Nicolas (1922). "Estabilidad direccional de cuerpos dirigidos automáticamente". Revista de la Sociedad Estadounidense de Ingenieros Navales . 34 (2): 280-309. doi : 10.1111 / j.1559-3584.1922.tb04958.x .
  4. ^ GND. "Katalog der Deutschen Nationalbibliothek (control de la autoridad)" . portal.dnb.de . Consultado el 26 de abril de 2020 .
  5. Maxwell, JC (1868). "Sobre los gobernadores" . Actas de la Royal Society de Londres . 16 : 270-283. doi : 10.1098 / rspl.1867.0055 . JSTOR 112510 . 
  6. ^ Teoría del control: historia, logros matemáticos y perspectivas | E. Fernandez-Cara1 y E. Zuazua
  7. ^ Routh, EJ; Fuller, AT (1975). Estabilidad de movimiento . Taylor y Francis.
  8. Routh, EJ (1877). Un tratado sobre la estabilidad de un estado de movimiento dado, movimiento particularmente estable: movimiento particularmente estable . Macmillan y compañía.
  9. ^ Hurwitz, A. (1964). "Sobre las condiciones en las que una ecuación sólo tiene raíces con partes reales negativas". Artículos seleccionados sobre tendencias matemáticas en la teoría del control .
  10. ^ Flugge-Lotz, Irmgard; Titus, Harold A. (octubre de 1962). "Control óptimo y cuasi-óptimo de sistemas de tercer y cuarto orden" (PDF) . Informe técnico de la Universidad de Stanford (134): 8–12.
  11. ^ Hallion, Richard P. (1980). Sicherman, Barbara; Green, Carol Hurd; Kantrov, Ilene; Walker, Harriette (eds.). Mujeres estadounidenses notables: el período moderno: un diccionario biográfico . Cambridge, Mass .: Belknap Press de Harvard University Press. págs.  241–242 . ISBN 9781849722704.
  12. ^ "Sistemas de control y retroalimentación" - JJ Di Steffano, AR Stubberud, IJ Williams. Serie de esquemas de Schaums, McGraw-Hill 1967
  13. ^ Mayr, Otto (1970). Los orígenes del control de retroalimentación . Clinton, MA Estados Unidos: The Colonial Press, Inc.
  14. ^ Mayr, Otto (1969). Los orígenes del control de retroalimentación . Clinton, MA Estados Unidos: The Colonial Press, Inc.
  15. ^ Ang, KH; Chong, GCY; Li, Y. (2005). "Análisis, diseño y tecnología de sistemas de control PID". Transacciones IEEE sobre tecnología de sistemas de control . 13 (4): 559–576. doi : 10.1109 / TCST.2005.847331 . S2CID 921620 . 
  16. ^ punto de corte
  17. ^ Donald M Wiberg (1971). Espacio de estados y sistemas lineales . Serie de esquemas de Schaum. McGraw Hill. ISBN 978-0-07-070096-3.
  18. ^ Terrell, William (1999). "Alguna teoría de control fundamental I: controlabilidad, observabilidad y dualidad —Y— Alguna teoría de control fundamental II: linealización de retroalimentación de sistemas no lineales de entrada única" . American Mathematical Monthly . 106 (9): 705–719 y 812–828. doi : 10.2307 / 2589614 . JSTOR 2589614 . 
  19. ^ Gu Shi; et al. (2015). "Controlabilidad de las redes cerebrales estructurales (artículo número 8414)" . Comunicaciones de la naturaleza . 6 (6): 8414. arXiv : 1406.5197 . Código Bibliográfico : 2015NatCo ... 6.8414G . doi : 10.1038 / ncomms9414 . PMC 4600713 . PMID 26423222 . Aquí utilizamos herramientas de las teorías de redes y control para ofrecer una explicación mecanicista de cómo el cerebro se mueve entre estados cognitivos extraídos de la organización en red de la microestructura de la materia blanca.  
  20. ^ Liu, Jie; Wilson Wang; Farid Golnaraghi; Eric Kubica (2010). "Un marco difuso novedoso para el control de sistemas no lineales". Conjuntos y sistemas difusos . 161 (21): 2746–2759. doi : 10.1016 / j.fss.2010.04.009 .
  21. ^ Melby, Paul; et., al. (2002). "Robustez de adaptación en sistemas caóticos autoajustables controlados". Letras de fluctuación y ruido . 02 (4): L285 – L292. doi : 10.1142 / S0219477502000919 .
  22. ^ NA Sinitsyn. S. Kundu, S. Backhaus (2013). "Protocolos seguros para la generación de pulsos de potencia con poblaciones heterogéneas de cargas controladas termostáticamente". Conversión y Gestión de Energía . 67 : 297-308. arXiv : 1211.0248 . doi : 10.1016 / j.enconman.2012.11.021 . S2CID 32067734 . 
  23. ^ Richard Bellman (1964). "Teoría del control" (PDF) . Scientific American . Vol. 211 no. 3. págs. 186-200.

Lectura adicional [ editar ]

  • Levine, William S., ed. (1996). El manual de control . Nueva York: CRC Press. ISBN 978-0-8493-8570-4.
  • Karl J. Åström; Richard M. Murray (2008). Sistemas de retroalimentación: una introducción para científicos e ingenieros (PDF) . Prensa de la Universidad de Princeton. ISBN 978-0-691-13576-2.
  • Christopher Kilian (2005). Tecnología de control moderna . Thompson Delmar Learning. ISBN 978-1-4018-5806-3.
  • Vannevar Bush (1929). Análisis de circuito operativo . John Wiley and Sons, Inc.
  • Robert F. Stengel (1994). Control y estimación óptimos . Publicaciones de Dover. ISBN 978-0-486-68200-6.
  • Franklin; et al. (2002). Control de retroalimentación de sistemas dinámicos (4 ed.). Nueva Jersey: Prentice Hall. ISBN 978-0-13-032393-4.
  • Joseph L. Hellerstein; Dawn M. Tilbury ; Sujay Parekh (2004). Control de retroalimentación de sistemas informáticos . John Wiley e hijos. ISBN 978-0-471-26637-2.
  • Diederich Hinrichsen y Anthony J. Pritchard (2005). Teoría de sistemas matemáticos I - Modelado, análisis del espacio de estados, estabilidad y robustez . Saltador. ISBN 978-3-540-44125-0.
  • Andrei, Neculai (2005). "Teoría del control moderno - una perspectiva histórica" (PDF) . Consultado el 10 de octubre de 2007 . Cite journal requires |journal= (help)
  • Sontag, Eduardo (1998). Teoría del control matemático: sistemas deterministas de dimensión finita. Segunda edición (PDF) . Saltador. ISBN 978-0-387-98489-6.
  • Goodwin, Graham (2001). Diseño de sistemas de control . Prentice Hall. ISBN 978-0-13-958653-8.
  • Christophe Basso (2012). Diseño de lazos de control para fuentes de alimentación lineales y conmutadas: guía de tutoriales . Casa Artech. ISBN 978-1608075577.
  • Boris J. Lurie; Paul J. Enright (2019). Control de retroalimentación clásico con sistemas no lineales de bucles múltiples (3 ed.). Prensa CRC. ISBN 978-1-1385-4114-6.
Para Ingeniería Química
  • Luyben, William (1989). Modelado, simulación y control de procesos para ingenieros químicos . McGraw Hill. ISBN 978-0-07-039159-8.

Enlaces externos [ editar ]

  • Tutoriales de control para Matlab , un conjunto de ejemplos de control resueltos mediante varios métodos diferentes.
  • Control Tuning y mejores prácticas
  • Estructuras de control avanzadas, simuladores en línea gratuitos que explican la teoría del control
  • The Dark Side of Loop Control Theory , un seminario profesional impartido en APEC en 2012 (Orlando, FL).