Document Details

ExquisiteBay

Uploaded by ExquisiteBay

Universidad Pública de Navarra

2022

Gabriel Lera

Tags

digital control control systems signal processing engineering

Summary

These are lecture notes on digital control, covering topics such as digital control direct, digital control loops, and digital controller implementation. They were written by Gabriel Lera in May 2022 and are from the Universidad Pública de Navarra.

Full Transcript

Apuntes de Control Digital {xk } δ x∗(t) Gzoh(s) x(t) CDA Gabriel Lera 12 de mayo de 2022 Departamento de Ingenierı́a Universidad Pública de Navarra 2 Índice general Índice general 3 1. El control por ordenador I 11 1.1. Control digital directo . . . . . . . . . . . . . . . . ....

Apuntes de Control Digital {xk } δ x∗(t) Gzoh(s) x(t) CDA Gabriel Lera 12 de mayo de 2022 Departamento de Ingenierı́a Universidad Pública de Navarra 2 Índice general Índice general 3 1. El control por ordenador I 11 1.1. Control digital directo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2. Lazo simple de control digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3. Implementación de un controlador digital . . . . . . . . . . . . . . . . . . . . . . . 13 1.4. Ventajas e inconvenientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.5. Tipos de señales, cuantización y retención . . . . . . . . . . . . . . . . . . . . . . . 15 1.5.1. Cuantización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.5.2. Retención . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.6. Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.7. Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.7.1. Señales sinusoidales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.7.2. Combinación lineal de sinusoides . . . . . . . . . . . . . . . . . . . . . . . . 25 1.7.3. Señales periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.7.4. Señales aperiódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.7.5. Efecto del filtro antialiasing . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1.8. Ejercicios y cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.9. Soluciones a algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Señales y sistemas 41 2. Ecuaciones en diferencias y Transformada Z 43 2.1. Transformada Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 2.1.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.1.2. Métodos de cálculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 2.2. Transformada inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.2.1. Métodos de cálculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.2.2. Ejemplo: polos reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3 4 ÍNDICE GENERAL 2.2.3. Ejemplo: polos complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Transformada Z modificada∗ 57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 2.3.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.3.2. Cálculo por el método de los resı́duos . . . . . . . . . . . . . . . . . . . . . 62 2.3.3. Comportamiento entre instantes de muestreo . . . . . . . . . . . . . . . . . 63 2.4. Ejercicios y cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.5. Soluciones a algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 3. Sistemas discretos y muestreados 77 3.1. Sistemas discretos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 3.1.1. Modelado y evolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 3.1.2. Ejemplo: Modelo de Keynes . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.1.3. Ejemplo: Espacio de estados . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 3.1.4. Ejemplo: Controlador digital . . . . . . . . . . . . . . . . . . . . . . . . . . 85 3.2. Sistemas muestreados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 3.2.1. Función de transferencia pulso . . . . . . . . . . . . . . . . . . . . . . . . . 87 3.2.2. Sistemas en serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 3.3. Ejercicios y cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.4. Soluciones a algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 4. Sistemas hı́bridos 105 4.1. Caracterización de los elementos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.1.1. Planta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.1.2. Controlador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.1.3. Señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.1.4. Conversor digital-analógico . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.1.5. Conversor analógico-digital . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.2. Representación discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 4.2.1. Cálculo de G(z) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 4.2.2. Obtención de la representación discreta . . . . . . . . . . . . . . . . . . . . 113 4.3. Representación continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 4.3.1. Señales impulsionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 4.3.2. Cálculo de D∗ (s) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 4.4. Diagramas de bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 4.4.1. Configuraciones tı́picas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 4.5. ¿Qué ocurre entre muestras?* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 4.5.1. Transformada inversa de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 125 4.5.2. Transformada Z modificada . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 ÍNDICE GENERAL 5 4.5.3. Muestreo rápido ficticio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 4.5.4. Descomposición del muestreador . . . . . . . . . . . . . . . . . . . . . . . . 131 4.6. Ejercicios y cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 4.7. Soluciones a algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 II Análisis 5. Régimen permanente 137 139 5.1. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 5.1.1. Sistemas discretos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 5.1.2. Sistemas muestreados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 5.2. Análisis de la estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 5.2.1. Transformación bilineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 5.2.2. Test de Jury . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 5.3. Precisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 5.3.1. Secuencias y transmitancias de error . . . . . . . . . . . . . . . . . . . . . . 149 5.3.2. Tipo del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 5.3.3. Error actuante ante cambios en la referencia . . . . . . . . . . . . . . . . . . 152 5.3.4. Constantes de error de la planta y su sistema muestreado . . . . . . . . . . 154 5.3.5. Sobre los coeficientes estáticos de error . . . . . . . . . . . . . . . . . . . . . 156 5.4. Principio de modelo interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 5.6. Soluciones a algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 6. Régimen transitorio 181 6.1. Representación y caracterización . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 6.1.1. Representación de las funciones de transferencia . . . . . . . . . . . . . . . 182 6.1.2. Realizabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 6.1.3. Polinomio recı́proco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 6.1.4. Respuesta impulsional de tiempo finito . . . . . . . . . . . . . . . . . . . . . 185 6.1.5. Clasificación de los Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 6.2. Sistemas de primer y segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . 186 6.2.1. Sistemas de primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 6.2.2. Sistemas de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 6.2.3. Caracterización del SSO discreto . . . . . . . . . . . . . . . . . . . . . . . . 192 6.2.4. Comparación con los sistemas de segundo orden muestreados . . . . . . . . 195 6.3. Ceros y polos adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 6.3.1. Cero adicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 6 ÍNDICE GENERAL 6.3.2. Polo adicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 6.4. Oscilaciones escondidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 6.4.1. Zona de cancelación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 6.4.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 6.6. Soluciones a algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 7. Muestreo 221 7.1. Conversión analógica-digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 7.2. Espectros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 7.3. Espectro de la señal adquirida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 7.3.1. Muestreo rápido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 7.3.2. Muestreo lento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 7.4. Muestreador impulsional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 7.5. Espectro de la señal muestreada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 7.5.1. Muestreo rápido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 7.5.2. Muestreo lento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 7.6. Reconstrucción Ideal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 7.7. Reconstrucción mediante retenedor ZOH . . . . . . . . . . . . . . . . . . . . . . . . 234 7.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 7.9. Soluciones a algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 8. Respuesta frecuencial 245 8.1. Respuesta frecuencial de sistemas continuos . . . . . . . . . . . . . . . . . . . . . . 246 8.2. Respuesta frecuencial de sistemas discretos . . . . . . . . . . . . . . . . . . . . . . 247 8.2.1. Secuencias sinusoidales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 8.2.2. Demostración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 8.2.3. Simetrı́a y periodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 8.2.4. Función de Transferencia en el plano W . . . . . . . . . . . . . . . . . . . . 252 8.2.5. Diagramas de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 8.3. Respuesta frecuencial de sistemas muestreados . . . . . . . . . . . . . . . . . . . . 256 8.3.1. Lı́mite de baja frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 8.3.2. Comportamiento entre instantes de muestreo . . . . . . . . . . . . . . . . . 257 8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259 8.5. Soluciones a algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 7 ÍNDICE GENERAL III Diseño 263 9. Diseño de controladores digitales 265 9.1. Elección del periodo de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 9.1.1. Recomendaciones habituales . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 9.1.2. Especificaciones habituales en el dominio del tiempo . . . . . . . . . . . . . 268 9.2. Diseño por emulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 9.2.1. Diseño analógico para emulación . . . . . . . . . . . . . . . . . . . . . . . . 271 9.2.2. Discretizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 9.2.3. Discretización del PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 9.3. Métodos clásicos de diseño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 9.3.1. Diseño en el Lugar de las Raı́ces . . . . . . . . . . . . . . . . . . . . . . . . 281 9.3.2. Diseño mediante el diagrama de Bode . . . . . . . . . . . . . . . . . . . . . 284 10.Limitaciones y modelos objetivo 287 10.1. Limitaciones de los sistemas de control . . . . . . . . . . . . . . . . . . . . . . . . . 288 10.1.1. Realizabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288 10.1.2. Dependencia entre el régimen transitorio y el permanente . . . . . . . . . . 290 10.1.3. Limitaciones debidas a la estructura de control . . . . . . . . . . . . . . . . 291 10.1.4. Limitaciones debidas a la estructura de la planta . . . . . . . . . . . . . . . 295 10.1.5. Condiciones de interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . 297 10.2. Principio de modelo interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 10.3. Modelos objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 10.3.1. Modelos para Tyr (z) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 11.Sı́ntesis de controladores digitales 317 11.1. Método de Truxal-Guillemin-Ragazzini . . . . . . . . . . . . . . . . . . . . . . . . . 317 11.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320 11.2. Método de asignación de polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 11.2.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 11.2.2. Comparación con el método de cancelación o Truxal . . . . . . . . . . . . . 343 11.3. Controladores de tiempo finito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 11.3.1. Tiempo mı́nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 11.3.2. Deadbeat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 11.4. Otros métodos de diseño relacionados . . . . . . . . . . . . . . . . . . . . . . . . . 357 11.4.1. Controlador de Dahlin-Higham . . . . . . . . . . . . . . . . . . . . . . . . . 357 11.4.2. Predictor de Smith . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 11.5. Sistemas de control con 2 grados de libertad . . . . . . . . . . . . . . . . . . . . . . 361 11.5.1. Lazo simple + Prefiltro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 8 ÍNDICE GENERAL 11.5.2. Rechazo de perturbaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 11.5.3. Seguimiento de la referencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 11.5.4. El controlador RST . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374 11.6. Cálculo del controlador 11.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378 11.7.1. Control de velocidad de un vehı́culo terrestre . . . . . . . . . . . . . . . . . 378 11.7.2. Control de un sistema de levitación magnética . . . . . . . . . . . . . . . . 385 IV Apéndices A. Aliasing y secuencias sinusoidales 401 403 A.1. Secuencias sinusoidales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403 A.2. Frecuencias alias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404 A.3. Señales suma infinita de sinusoides . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 B. Tablas 409 B.1. Transformada Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 B.2. Transformada Z modificada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 C. Cálculo de la transformada Z por el método de los resı́duos 413 D. Cálculo de la tabla de transformadas Z 415 D.1. Contribución de un polo real simple . . . . . . . . . . . . . . . . . . . . . . . . . . 415 D.2. Contribución de un polo real doble . . . . . . . . . . . . . . . . . . . . . . . . . . . 416 D.3. Contribución de un polo real triple . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 D.4. Contribución de una pareja de polos complejos conjugados . . . . . . . . . . . . . . 417 E. Transformada Z de las entradas polinómicas estándar 419 E.0.1. Cálculo de cn,m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 F. Comportamiento entre instantes de muestreo 427 F.1. Muestreo rápido ficticio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 F.2. Descomposición del muestreador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430 G. Test de Jury 433 G.1. Casos singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 G.2. Resultados auxiliares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436 G.2.1. Cruce con la circunferencia unidad . . . . . . . . . . . . . . . . . . . . . . . 436 G.2.2. Raı́ces del polinomio recı́proco . . . . . . . . . . . . . . . . . . . . . . . . . 436 G.2.3. Condiciones necesarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 ÍNDICE GENERAL 9 H. Delta de Dirac 439 H.1. Propiedades principales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439 H.2. Otras propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440 I. Ecuación diofántica y matrices de Sylvester 443 J. LTI Toolbox 445 J.1. Instalación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445 J.2. Manual de uso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 J.2.1. Definición de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 J.2.2. Simulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 J.2.3. Discretización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449 J.2.4. Respuesta frecuencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450 J.2.5. Otros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450 J.3. Descripción de las funciones LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451 K. Algunas demostraciones 453 K.1. Condiciones para salida constante entre instantes de muestreo . . . . . . . . . . . . 453 K.1.1. Caso particular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455 K.1.2. Evolución del vector de estado entre instantes de muestreo . . . . . . . . . 455 K.2. Cero negativo de H0 G(z) de un SSO bien muestreado . . . . . . . . . . . . . . . . 457 K.2.1. Q > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 K.2.2. H > Q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458 Bibliografı́a 461 10 ÍNDICE GENERAL Capı́tulo 1 El control por ordenador El Control Automático puede definirse como la disciplina que se ocupa del diseño de elementos correctores para que el comportamiento de sistemas dinámicos (lineales, continuos, de parámetros concentrados, no estocásticos, invariantes en el tiempo . . . ) responda a especificaciones preestablecidas. Actualmente la inmensa mayorı́a de los sistemas de control se implementan mediante microcomputadores o microcontroladores, lo que permite incluir nueva funcionalidad y obtener un rendimiento superior al proporcionado por los sistemas de control analógico. Además de las ya mencionadas, los sistemas de control digital aportan otras ventajas, que van desde precios reducidos (se pueden encontar microcontroladores o microordenadores como el Arduino o el Raspberry PI, de muy bajo coste), mayor flexibilidad (facilidad de modificar el comportamiento del controlador), menor sensibilidad a condiciones ambientales, capacidad de adaptación a cambios en los sistemas, etc. La utilización de ordenadores en los sistemas de control se realiza de múltiples maneras. Podemos encontrar distintas configuraciones: Control secuencial (el ordenador y el sistema se intercambian señales y el primero indica qué se debe hacer, no cómo hacerlo, de manera que el sistema alcance sucesivamente estados preestablecidos), Control digital directo (el ordenador actúa sobre el sistema y monitoriza su comportamiento), Control descentralizado (el ordenador se comunica con otros elementos de control, coordinándolos para que cada parte de un sistema complejo se comporte adecuadamente), etc. 1.1. Control digital directo Vamos a considerar únicamente el caso del control digital directo. En esta configuración, la idea principal es substituir en la estructura de control deseada el controlador analógico por un dispositivo digital (microprocesador) que podamos programar para que genere las acciones de control que se suministrarán a la planta que se desea controlar. r Acomodación ra ∆ Control a ym Planta y Sensor Figura 1.1: Lazo simple. Control analógico En la versión más simple debemos transformar el lazo simple de control analógico, representado en la figura 1.1 en el lazo de control digital que se muestra en la figura 1.2. 11 12 CAPÍTULO 1. EL CONTROL POR ORDENADOR a Ordenador Planta y CDA Filtro ym Sensor CAD Figura 1.2: Lazo simple. Control digital Podemos apreciar las siguientes diferencias entre ambos esquemas: La acomodación, el comparador y el controlador se substituyen por un ordenador Aparecen elementos conversores de análogico a digital (A/D, CAD) y de digital a analógico (D/A, CDA) Se precisa un filtro antes del conversor A/D (filtro antialiasing) El ordenador se comporta como un elemento de naturaleza discreta. No puede generar señales continuas, sino que produce valores cada cierto tiempo (debe leer la información correspondiente a la situación del sistema, realizar los cálculos pertinentes y sólo entonces puede generar el dato necesario y volver a empezar). Dado que las plantas que manejamos son habitualmente sistemas dinámicos continuos, no pueden comunicarse directamente con el ordenador, por lo se precisan conversores que permiten transformar señales continuas en discretas y viceversa. El hecho de que el ordenador no pueda procesar de forma continua la información obliga a tomar muestras de las señales de interés en determinados instantes. Se produce por lo tanto una pérdida de información cuyo principal efecto es que pueden confundirse señales diferentes que toman valores iguales en esos instantes. Ese fenómeno se denomina aliasing y para impedir que afecte de manera adversa al sistema de control debemos incorporar al sistema un filtro antes de transformar a digital la señal del sensor. Para que el sistema pueda funcionar se requiere que el ordenador ejecute un programa que implemente el algoritmo de control. El algoritmo de control ha de relacionar el valor que se debe generar para la acción de control actual con los valores anteriores de la señal de entrada y la acción de control y el valor actual de la señal de entrada. El programa de control debe ser capaz de proporcionar los valores deseados en los instantes precisos. Podemos definir el objetivo de un sistema de control digital como: Generar la acción de control apropiada aplicando un algoritmo de control a la información obtenida por los sensores, y enviarla en el instante apropiado. 1.2. Lazo simple de control digital Si analizamos en detalle la estructura del lazo simple de control digital representado en la figura 1.2 vemos que los únicos elementos que permanecen invariables respecto del caso analógico son la planta y el sensor. Los nuevos elementos del lazo son: Ordenador: ˆ Genera la señal de referencia (puede estar preprogramada o se puede modificar de manera local o remota) ˆ Realiza la comparación entre los valores medidos y los deseados para la señal de salida ˆ Genera la acción de control 1.3. IMPLEMENTACIÓN DE UN CONTROLADOR DIGITAL 13 conversor D/A. Su misión es transformar la señal digital en una señal analógica que pueda aplicarse a la planta. Para ello deben generar los valores necesarios de la señal (de acción) cuando el ordenador no los facilita. por eso se denominan también extrapoladores o retenedores. El más habitual mantiene el último valor proporcionado por el ordenador hasta que este suministre uno nuevo. Se llama retenedor de orden cero (zero order hold, ZOH). conversor A/D. Toma muestras de la señal que genera el sensor para que el ordenador pueda utilizarlas. Por ello se le denomina también muestreador. El proceso de adquisición de una muestra lleva algún tiempo, por lo que para que el valor que genera el muestreador sea correcto la señal no debe cambiar o debe hacerlo muy poco durante el tiempo de conversión. Si suponemos que la muestra obtenida se corresponde perfectamente con el valor de la señal en el instante deseado, estaremos considerando un muestreador ideal. Filtro. El filtro antialiasing debe escogerse de manera que la pérdida de información debida al proceso de muestreo no perjudique al sistema de control. Debe actuar como un filtro paso bajo, con un ancho de banda ajustado a la frecuencia de muestreo elegida, y además no debe generar retrasos importantes en el lazo de control pues eso podrı́a llevar a inestabilizar el sistema. 1.3. Implementación de un controlador digital Para implementar el algoritmo de control en el ordenador debemos generar un programa que calcule y emita la acción adecuada dado el estado del sistema representado por las señales de entrada. Para ello necesitamos poder acceder a los conversores A/D y D/A desde nuestro programa. Sin embargo eso no es suficiente, pues debemos garantizar que las acciones de control se producen en los instantes adecuados. En general eso no puede hacerse sin apoyo del sistema operativo, pues desde nuestro programa no podemos saber si se están ejecutando otras aplicaciones. Aunque es posible normalmente asignar distintas prioridades a los programas en ejecución, eso no es suficiente para asegurar lo que buscamos, pues puede haber otros programas o tareas del sistema operativo con la misma a superior prioridad, pueden producirse interrupciones, etc. La única forma de poder asegurar que las acciones se generan a tiempo es contar con un (por prioridad) sistema operativo en tiempo real. Este tipo de sistemas ofrece garantı́as en cuanto a las posibles desviaciones temporales en la ejecución de nuestro programa. Es decir, no garantizan que una determinada acción se va a ejecutar en un determinado instante, pero sı́ que el retraso no va a superar una cota determinada. Existen muchos sistemas de tiempo real (y versiones en tiempo real de algunos de los sistemas operativos habituales). Algunos de los que más se utilizan son: QNX, µC/OS, VxWorks, Phar Lap ETS, . . . Para pequeños proyectos es posible utilizar un micro como el Arduino añadiéndole un sistema operativo de tiempo real como FreeRTOS, ChibiOS/RT, NilRTOS, etc. Además del sistema operativo, necesitamos también un sistema de programación que nos permita implementar el algoritmo de control e interactuar con los conversores. Los más habituales son: Ensamblador, C, C++ , Ada, LabVIEW, . . . Cuando se trata de desarrollar un sistema de control completo, debemos considerar al menos las siguientes cuestiones: Periodo de muestreo (cada cuanto tiempo se debe calcular la acción de control) Latencia (retraso de una operación de lectura/escritura respecto del instante previsto) (consideraremos que son el mismo problema) Jitter (fluctuación en la latencia en los distintos instantes de muestreo) Tiempo de cálculo (cuánto tarda el microprocesador en aplicar el algoritmo de control. ¿Siempre tarda lo mismo?) 14 CAPÍTULO 1. EL CONTROL POR ORDENADOR Cuándo aplicar la acción de control (¿cuando se obtiene o en el siguiente instante de muestreo?) Para utilizar el sistema de control del laboratorio sólo necesitaremos tener en cuenta el periodo de muestreo. inconvenientes: 1.4. Ventajas e inconvenientes - Menor ancho de banda - Cuantificación (número finito) - Tiempo de cálculo limitado (retrasos en el control) - Personal más cualificado La introducción del ordenador en el lazo de control conlleva pérdida de información por el muestreo y complica el análisis del sistema hı́brido resultante (ordenador digital + conversores + planta continua). Para valorar la conveniencia en cada caso de pasar de un sistema de control analógico a uno de control digital es esencial conocer tanto los inconvenientes que se van a producir como las ventajas que se pueden obtener, La disciplina de Control Digital se ocupa de cómo se debe proceder para obtener las ventajas deseadas a la vez que se evitan o minimizan los posibles efectos adversos. Entre los principales inconvenientes podemos mencionar: Menor ancho de banda. La pérdida de información por el muestreo hace que no sepamos qué ocurre entre instantes de muestreo, salvo que estemos seguros de que las señales van a variar lentamente. Eso implica que la frecuencia de muestreo debe ser superior a las frecuencias caracterı́sticas de las señales de interés, imponiendo un lı́mite al ancho de banda aceptable para nuestro sistema. Problemas de cuantización. La información que el ordenador puede adquirir y manipular debe representarse mediante un conjunto finito de bits, por lo que no es posible representar un conjunto infinito de valores (por ejemplo los que se pueden obtener al medir una tensión). Por ello cualquier dato debe cuantizarse, es decir, aproximarse mediante alguno de los valores que se pueden representar en el ordenador, por lo que siempre dispondremos de una resolución limitada. Esto no sólo afecta a las señales adquiridas, sino que los parámetros que representan al controlador (polos, ceros, coeficientes de los polinomios, etc.) también están cuantizados, por lo que todos los cálculos están sujetos a errores por este motivo. La estructura del controlador y su implementación influyen de manera significativa en el efecto de esos errores sobre el comportamiento del sistema. Tiempo de cálculo limitado: retrasos en el control. La respuesta del ordenador no es instantánea. La ejecución del algoritmo de control implementado en el programa de control en el ordenador lleva un tiempo que necesariamente debe ser inferior al que transcurre entre dos instantes de muestreo consecutivos. El tiempo de cálculo impone ası́ un lı́mite inferior al periodo de muestreo o de forma equivalente un lı́mite superior a la frecuencia de muestreo y por lo tanto al ancho de banda. Además, la duración del cálculo de la respuesta introduce un retraso entre la medida de la situación del sistema y la aplicación de la acción apropiada. En general los retrasos en el lazo de control contribuyen a disminuir la estabilidad relativa. Si la situación del sistema ha cambiado significativamente entre la medida y la aplicación de la acción es posible que ésta ya no sea adecuada e incluso que sea contraproducente, generando inestabilidad. Necesidad de personal más especializado. Para controlar un sistema continuo sencillo mediante un controlador analógico simple podemos encontrar reglas sencillas de sintonı́a e incluso controladores autosintonizables. En general el análisis de los sistemas de control digital es más complejo y por lo tanto se requieren conocimientos más avanzados. En cuanto a las principales ventajas que se pueden obtener, podemos destacar las siguientes: Ventajas: - Nuevas estrategias de control, información exterior - Capacidad de cálculo y almacenamiento - Flexibilidad 1.5. TIPOS DE SEÑALES, CUANTIZACIÓN Y RETENCIÓN 15 Facilita nuevas estrategias de control. El ordenador tiene acceso a la evolución del comportamiento del sistema controlado. Podrı́a intentar adaptar el controlador a los cambios percibidos en la planta (Control Adaptativo), conmutar entre distintos controladores según las circunstancias (Gain scheduling control), utilizar controladores de estructura variable (Sliding-mode control), etc. También se puede recurrir a fuentes de información externas y modificar el comportamiento del controlador (GPS, ...). Capacidad de cálculo: se pueden realizar funciones complejas de control. El ordenador no está limitado a las operaciones que podamos implementar mediante un circuito eléctrico, por lo que podemos utilizar todas las funciones disponibles para implementar controladores tan complejos como se desee. Flexibilidad: Posibilidad de programar varios controladores en un mismo ordenador, de modificar el controlador que se esté utilizando, de utilizar varios controladores simultáneamente para utilizarlo en uno o varios sistemas de control, etc. Precisión: En general el comportamiento de un sistema de control digital es más preciso que el de un sistema de control continuo debido a la mayor fiabilidad de sus componentes, a que las acciones de control calculadas no van a depender, como ocurre en el caso continuo, de envejecimientos, derivas, cambios con temperatura, etc. Además el funcionamiento del controlador es menos sensible a ruidos y perturbaciones ambientales. Posibilidad de realizar funciones adicionales, como: ˆ Almacenamiento y tratamiento de datos. Importante para cuestiones de control de calidad, por ejemplo. No sólo es importante controlar el proceso, sino ser capaz de demostrar que determinadas variables se han mantenido dentro de un intervalo determinado. ˆ Diagnóstico de fallos. ¿Qué es lo que ha ocurrido en el sistema cuando se ha producido un fallo? ¿Es posible prever cuándo se va a producir? La información almacenada en el ordenador puede permitir reconstruir la situación que ha conducido al fallo e incluso puede utilizarse el ordenador para monitorizar el sistema y anticiparse a posibles fallos. ˆ Acciones de emergencia. Cuando las actuaciones a realizar en caso de emergencia están bien establecidas es preferible no esperar a la intervención de un operador humano y acometerlas de manera inmediata. Aunque esto se pueda realizar mediante sistemas continuos es mucho más simple integrarlo dentro del funcionamiento del programa de control. ˆ Asistencia al operador. El conocimiento de los operarios humanos es esencial, pero puede perderse debido a cambios de personal, enfermedades, vacaciones, etc. El ordenador puede supervisar las actuaciones del operario y recomendar actuaciones que operarios anteriores hubieran realizado en las mismas circunstancias. 1.5. Tipos de señales, cuantización y retención La presencia del ordenador y los conversores hace que en el lazo aparezcan otros tipos de señales, además de la señal continua propia de control analógico. Aunque a lo largo del curso nos centraremos sólo en lo que ocurre en la planta (continuo) y en el ordenador (digital) es importante que se entiendan las diferencias y caracterı́sticas de las señales más relevantes: Señal continua o analógica: está definida en todo instante de tiempo. Señal discreta: sólo está definida en determinados instantes de tiempo. Señal cuantizada: sólo puede adoptar un número finito de valores. Señal muestreada: señal discreta que se obtiene a partir de los valores de una señal continua en determinados instantes. 16 CAPÍTULO 1. EL CONTROL POR ORDENADOR Señal digital: señal discreta y cuantizada. Como se puede observar la clasificación realizada se basa en la consideración de si la señal puede tomar valores en todo instante de tiempo (continua/discreta) y en todo punto de su intervalo de variación (cuantizada/no cuantizada). Las señales que el ordenador recibe, manipula o genera son señales digitales, mientras que en las plantas que se van a considerar de forma habitual las señales de interés son analógicas. 1.5.1. Cuantización Si almacenamos los valores de una señal mediante n bits utilizando una representación de números enteros sin signo (podemos considerar que los números con signo reservan un bit para éste y la representación en coma flotante reserva un determinado número de bits para almacenar el exponente, por lo que el análisis se vuelve más complejo) podremos obtener 2n valores diferentes. Aunque existen muchas variante, tı́picamente se asigna el valor “000...0” a un valor próximo superior al mı́nimo valor que puede tomar la señal (Vmin ) y el valor “111...1” a un valor próximo inferior al máximo (Vmax ), de manera que el error de cuantización se distribuya de manera uniforme. Si Q es la diferencia entre dos valores consecutivos (nivel de cuantización) , encontrarı́amos las siguientes correspondencias: 000...00 = 0 −→ Vmin + Q 2 + 0Q 000...01 = 1 −→ Vmin + Q 2 + 1Q 000...10 = 2 −→ Vmin + Q 2 + 2Q 000...11 = 3 −→ Vmin + Q 2 + 3Q ... 111...11 = 2n − 1 −→ Vmin + Q 2 + (2n − 1)Q El nivel máximo debe corresponder al valor Vmax − Vmax = Vmin + Q 2, ası́ que debe cumplirse que Q Q + (2n − 1)Q + = Vmin + 2n Q 2 2 y de ahı́ se obtiene que la diferencia entre dos valores consecutivos será Q= Vmax − Vmin 2n Si en el proceso de cuantización se asocia a cada valor de la señal no cuantizada el valor cuantizado más próximo, el máximo error de cuantización será Q/2, y para calcular el valor de la señal correspondiente a un dato almacenado con valor númerico m, debemos utilizar la fórmula:   1 Vmax − Vmin v = Vmin + m + 2 2n (1.1) El error de cuantización debido a la representación de valores en el ordenador disminuye al aumentar el número de bits utilizados tanto en el almacenaje (ordenador) como en la conversión D/A. Con micropocesadores de 8 bits y conversores de 4 ó 6 bits los errores eran muy apreciables, pero ahora es habitual utilizar 32 ó 64 bits en el ordenador y al menos 16 en el conversor, por lo que el problema es mucho menor. Esto no quiere decir que debamos despreocuparnos de los problemas asociados con la cuantización, sino que son menos acuciantes. Existen otros errores asociados con la resolución finita de 17 1.6. MUESTREO los valores de los parámetros del controlador, con la estructura elegida para representar el controlador y la forma de calcular la acción de control, que pueden manifestarse a pesar de utilizar un número relativamente grande de bits, sobre todo si utilizamos periodos de muestreo muy pequeños. Estas cuestiones son relevantes a la hora de decidir la implementación más conveniente para el controlador en nuestro programa de control. Para más información sobre esta cuestión, puede consultarse [Ogata, 1995], págs. 216-232. Ejercicio 1.1 Si se utilizan 8 bits para cuantizar una señal que puede variar en el intervalo [−5, 5] voltios, indique: 1. ¿Qué nivel debe utilizarse para representar una tensión de 3 voltios? 2. ¿Qué tensión se corresponde con el nivel m = 17? (solución en pág. 37) 1.5.2. Retención Una vez procesada la información por el ordenador, éste genera la acción de control necesaria y se la suministra a la planta a través del conversor D/A. Estos dispositivos se denominan tanbién retenedores o extrapoladores, pues deben construir la señal analógica extrapolándola a partir de los valores digitales ya recibidos. El retenedor más común se denomina retenedor de orden cero (ZOH: zero-order hold ). Además de ser con mucho el más utilizado es el más simple: una vez recibido un dato digital mantiene constante la señal analógica de salida en el valor correspondiente a dicho dato hasta la llegada del siguiente. Podemos ver el resultado en la figura 1.3. señal digital salida del retenedor Figura 1.3: Retenedor de orden cero (ZOH) El retenedor es indispensable para el funcionamiento del sistema de control digital, pero tiene un efecto adverso sobre el comportamiento ya que (el retenedor de orden cero) introduce un retraso de medio periodo de muestreo en el lazo de control. 1.6. Muestreo Aunque veremos en detalle el proceso de muestreo en el capı́tulo 7, es importante ser conscientes desde el principio de los problemas asociados con el muestreo, puesto que es clave para el correcto funcionamiento de un sistema de control digital. Es posible diseñar un controlador digital que se 18 CAPÍTULO 1. EL CONTROL POR ORDENADOR comporte perfectamente si hacemos un análisis en los instantes de muestreo pero que genere inestabilidad en el sistema. (Podemos fácilmente generar una señal de salida oscilatoria con amplitud creciente que en los instantes de muestreo tome justo los valores deseados). Para evitar estos problemas debemos ser capaces de tomar medidas de la situación del sistema que sean suficientemente representativas del comportamiento de éste y veremos que eso exige la utilización de un filtro antes del conversor A/D y la elección adecuada de los momentos en que se muestrea la señal. Existen distintas estrategias para decidir los instantes adecuados para el muestreo. Consideraremos únicamente la más utilizada, que se denomina muestreo periódico, en la que los instantes de muestreo vienen dados por la expresión: tk = kT , k = 0, 1, . . . (1.2) Ası́, en el muestreo periódico, los instantes de muestreo son múltiplos de un valor constante T , denominado periodo de muestreo. La frecuencia de muestreo viene dada por: ωm = 2π/T (1.3) Para adquirir las muestras en esos instante debemos utilizar un conversor D/A. La operación de conversión se representa mediante: {xk } x(t) T El valor obtenido dependerá de los detalles del proceso de conversión, pero tı́picamente podrá describirse mediante una ecuación similar a: 1 xk ≈ νk + τ Z tk +δ+τ x(t) dt tk +δ donde δ es el retraso en el comienzo de la adquisición, τ es el tiempo de conversión y {νk } es la secuencia de valores del ruido de medida. Si suponemos que δ  T , que la señal no cambia apreciablemente en el tiempo de conversión, y que el ruido de medida es despreciable (incluyendo la cuantización) tendrı́amos un muestreador ideal y se cumplirı́a: xk ≡ x(tk ) 1.7. (1.4) Aliasing Es evidente que el muestreo supone renunciar a información sobre los valores de la señal. Esa pérdida de información provoca un fenómeno denominado aliasing. Se produce por la incapacidad del sistema digital de distinguir determinadas señales (alias). Diremos que dos señales distintas x(t) 6= y(t), son alias para un periodo de muestreo T determinado si todas sus muestras son iguales: xk = yk , ∀k a a Utilizaremos el sı́mbolo ∼ para indicar que dos señales son alias entre sı́: x(t) ∼ y(t) En la figura 1.4 puede apreciarse como señales muy diferentes coinciden exactamente en los instantes de muestreo. El controlador digital no es capaz de distinguir entre ambas señales, aunque sean distintas, por lo que las acciones de control serán iguales. 1.7. ALIASING 19 Figura 1.4: Ejemplo de aliasing: x(t) = 2 sin(t), y(t) = sin(t) + sin(4t), ωm = 3 Fijado el periodo de muestreo podemos encontrar infinidad de alias de una señal dada, simplemente añadiendo a dicha señal cualquier señal que se anule en los instantes de muestreo. Por ejemplo si ωm = 2π/T (frecuencia de muestreo), ωN = ωm /2 es la frecuencia de Nyquist y es sencillo comprobar que y(t) = x(t) + a sin(nωN t) es un alias de x(t) para cualquier valor de a si n = ±1; ±2; . . .  π  y(kT ) = x(kT ) + a sin(nωN kT ) = x(kT ) + a sin n kT = x(kT ) T La existencia de aliasing: Hace que el controlador digital no pueda distinguir señales diferentes (alias) Provoca acciones de control indeseadas Hace que el ruido se desplace a frecuencias bajas Impide la reconstrucción fidedigna de la señal continua Estas consecuencias adversas del aliasing hacen necesario entender qué condiciones deben darse para que dos señales sean alias para un periodo de muestreo determinado. Si en el ejemplo anterior cambiamos la frecuencia de muestreo, las señales dejan de ser alias (figura 1.5). Eso indica que para que se produzca aliasing debe existir alguna relación entre las frecuencias de las señales y la de muestreo. Figura 1.5: x(t) = 2 sin(t), y(t) = sin(t) + sin(4t), no son alias para ωm = 4 Serı́a interesante encontrar condiciones que nos permitieran determinar: Si existe la posibilidad de que se produzca aliasing. Si dos señales determinadas son alias entre sı́, sin necesidad de evaluarlas en todos los instantes de muestreo. Ya que eso no es sencillo para señales cualesquiera, comenzaremos por estudiar el fenómeno de aliasing en señales sinusoidales. 20 CAPÍTULO 1. EL CONTROL POR ORDENADOR 1.7.1. Señales sinusoidales Antes de proceder, vamos a considerar diferentes maneras de describir matemáticamente una señal sinusoidal (no nula) de frecuencia ω: Representación Si x(t) es una señal sinusoidal real de frecuencia ω, podemos utilizar una representación de amplitud y fase: x(t) = C sin(ωt + φ) (1.5) donde C 6= 0, ω > 0 y φ son números reales. Otra posibilidad es representarla mediante la combinación: x(t) = a cos(ωt) + b sin(ωt) (1.6) donde a, b son números reales cualesquiera salvo que no deben ser ambos nulos pues en ese caso la señal serı́a idénticamente nula y no tendrı́amos una sinusoide. La relación entre las dos representaciones es: a = C sin φ (1.7) b = C cos φ (1.8) Estudiaremos las condiciones que se deben dar para que pueda existir aliasing entre dos sinusoides de frecuencias dadas y para que dos señales sinusoidales concretas (con amplitud y fase prefijadas) sean alias y lo que implican sobre cada una de esas representaciones. Como paso previo se establecerán algunas propiedades de las secuencias de muestras obtenidas de señales sinusoidales. Propiedades de las secuencias sinusoidales Las muestras de cualquier señal sinusoidal tomadas con periodo de muestreo constante forman una secuencia sinusoidal : x(t) = C sin(ωt + φ) −→ {xk = C sin(ωkT + φ)} En el apéndice A se demuestran algunas propiedades de las secuencias sinusoidales que serán de utilidad para encontrar las condiciones para la existencia de aliasing: 1. Toda secuencia sinusoidal debe satisfacer la ecuación en diferencias: xk+1 = 2 cos(ωT )xk − xk−1 (1.9) 2. Para que todos las valores de una secuencia sinusoidal sean nulos, la frecuencia de la sinusoide debe ser un múltiplo de la de Nyquist: xk = 0 −→ ω = nωN , n = 1, 2, 3, . . . 21 1.7. ALIASING 3. Si todas las muestras de una señal sinusoidal son iguales (y no nulas) la frecuencia de la señal debe ser 0 o un múltiplo de la frecuencia de muestreo: xk = R −→ ω = nωm , n = 0, 1, 2, 3, . . . 4. Si todas las muestras de una señal sinusoidal tienen la misma magnitud pero alternan sus signos, la frecuencia de la señal debe ser un múltiplo impar de la frecuencia de Nyquist. xk = (−1)k R −→ ω = (2n + 1)ωN , n = 0, 1, 2, 3, . . . Condiciones para la existencia de aliasing entre señales sinusoidales Supongamos que x(t) e y(t) son señales sinusoidales de frecuencias ω1 y ω2 respectivamente. Las secuencias obtenidas al muestrearlas con periodo de muestreo T deben cumplir la ecuación (1.9), por lo que se verificará: xk+1 = 2 cos(ω1 T )xk − xk−1 yk+1 = 2 cos(ω2 T )yk − yk−1 Obsérvese que las amplitudes y fases de ambas señales no están prefijadas. Para que sean alias entre sı́ todas sus muestras deben ser iguales, por lo que se deduce inmediatamente que se debe cumplir: cos(ω2 T )xk = cos(ω1 T )xk (1.10) Existen dos posibilidades: 1. xk = 0, ∀k 2. cos(ω2 T ) = cos(ω1 T ) El primer caso sólo se puede producir, de acuerdo con las propiedades de las secuencias sinusoidales, si ambas frecuencias son múltiplo de la de Nyquist, ωN . Obviamente todas las señales que generen muestras nulas en todos los instantes de muestreo son alias entre sı́, por lo que el caso de interés es el segundo, en el que al ser el coseno una función par se debe cumplir: cos(ω2 T ) = cos(±ω1 T ) (1.11) lo que sólo se puede producir si se satisface la siguiente relación entre las frecuencias de las sinusoides: ω2 T = ±ω1 T + 2πn , n = ±1, ±2, . . . (1.12) O escrito de otro modo: ω2 = ±ω1 + nωm n = ±1, ±2, . . . , En resumen, habrá aliasing si: Ambas frecuencias son múltiplo de la frecuencia de Nyquist: ωi = ni ωN , ni = 1, 2, . . . (1.13) 22 CAPÍTULO 1. EL CONTROL POR ORDENADOR La diferencia entre las frecuencias es un múltiplo de la frecuencia de muestreo: |ω2 − ω1 | = nωm , n = 1, 2, . . . La suma de las frecuencias es un múltiplo de la frecuencia de muestreo: ω2 + ω1 = nωm , n = 1, 2, . . . Es conveniente introducir la noción de frecuencias alias. Abusando del lenguaje diremos que: Definición. Dos frecuencias son alias si su diferencia es un múltiplo de la frecuencia de muestreo a y lo representaremos utilizando la notación: ω2 ∼ ω1 . De acuerdo con esta definición cualquier par de frecuencias alias cumple, para todo valor de k: sin(ω2 kT ) = sin(ω1 kT ) cos(ω2 kT ) = cos(ω1 kT ) por lo que cualquier función trigonométrica va a dar el mismo resultado en los instantes de muestreo si se substituye una frecuencia por la otra. Utilizando esta idea, podremos decir que podrá existir aliasing entre dos señales sinusoidales si: Sus frecuencias son múltiplo de la frecuencia de Nyquist. a La diferencia entre sus frecuencias es un múltiplo de la frecuencia de muestreo (ω2 ∼ ω1 ) a La suma de sus frecuencias es un múltiplo de la frecuencia de muestreo (ω2 ∼ −ω1 ) Obsérvese que si se da alguna de estas condiciones sabemos que existen señales sinusoidales de las frecuencias dadas que van a producir las mismas muestras. Eso no quiere decir que cualquier pareja de sinusoides de dichas frecuencias sean alias entre sı́. Para ello se debe cumplir alguna condición adicional sobre las amplitudes y las fases. Sin embargo, es importante reseñar que desde el punto de vista del control digital el problema relevante no es saber si dos señales determinadas son alias, sino si es posible la existencia de señales alias. En tal caso el sistema de control se ve comprometido, ya que no se puede asegurar que las muestras obtenidas representen de manera fidedigna la señal que se desea conocer. Como veremos en el apartado 1.7.5, el sistema de control digital no es capaz de distinguir entre la suma de señal y un ruido sinusoidal de alta frecuencia, sean cuales sean su amplitud y su fase, y una señal distinta (formada por la señal de interés y el alias de baja frecuencia correspondiente al ruido). La única solución es filtrar adecuadamente la señal antes del muestreador, de manera que la amplitud correspondiente al ruido que le llega sea despreciable, por lo que también lo será la de su alias de baja frecuencia, evitándose ası́ la alteración de las muestras de la señal de interés. Puesto que sólo se puede producir aliasing en los tres casos descritos anteriormente, es posible escoger un periodo de muestreo que garantice que no pueda existir aliasing entre sinusoides de frecuencias ω1 y ω2 . Analizando el resultado anterior se puede comprobar que es imposible que exista aliasing si se cumple la condición: ω1 , ω2 < ωN = π/T (1.14) O, dicho de otra manera, no puede haber aliasing si la frecuencia de muestreo cumple: ωm > 2 máx(ω1 , ω2 ) (1.15) 23 1.7. ALIASING De esta expresión se deduce que los valores concretos de las frecuencias no son importantes mientras que sean inferiores a la de Nyquist. Ası́ pues, no puede haber aliasing entre sinusoides de cualquier frecuencia que cumpla: ω ∈ [0, ωN ) (1.16) Como veremos, esta es la idea esencial para evitar el problema. Si tenemos señales más complejas, como combinaciones lineales finitas o infinitas de sinusoides de distintas frecuencias, no habrá aliasing mientras todas las frecuencias implicadas verifiquen la condición (1.16). La única manera de garantizar que eso suceda es utilizar un filtro que elimine cualquier señal sinusoidal cuya frecuencia no la satisfaga1 . Condiciones para que dos señales sinusoidales sean alias entre sı́ Teniendo en cuenta el resultado anterior, es posible establecer las condiciones de amplitud y fase que deben cumplirse para que sean alias dos sinusoides escritas en la representación (1.5). Las señales: x(t) = C1 sin(ω1 t + φ1 ) y(t) = C2 sin(ω2 t + φ2 ) serán alias si todas sus muestras son iguales: xk = yk . De ello se deduce: C1 sin(ω1 kT + φ1 ) = C2 sin(ω2 kT + φ2 ) (1.17) A partir de esa expresión, teniendo en cuenta los distintos casos de aliasing posibles se encuentran las condiciones: 1. Frecuencias múltiplo de la frecuencia de Nyquist (ωi = ni Tπ , con ni = 1, 2, 3, . . .): Se debe cumplir: (−1)n1 k C1 sin φ1 = (−1)n2 k C2 sin φ2 Existen varios casos: a) Todas las muestras nulas. Naturalmente, todas las señales que generan secuencias nulas son alias entre sı́. Las condiciones para que se dé esta situación son: Las frecuencias (ωi ) deben ser múltiplo de la frecuencia de Nyquist, ωN C1 , C2 son arbitrarias sin φi = 0 b) Muestras de valor absoluto constante no nulo, con mismo signo o signos alternantes. Las condiciones para que se produzca esta situación son: Las frecuencias (ωi ) deben ser múltiplo de la frecuencia de Nyquist, ωN (si es un múltiplo impar tendremos signos alternantes) a ω2 ∼ ω1 C2 sin φ2 = C1 sin φ1 sin φi 6= 0 a 2. Diferencia de frecuencias múltiplo de la frecuencia de muestreo (ω2 ∼ ω1 ): sin(φ2 − φ1 ) = 0 1 Si consideramos frecuencias negativas la condición (1.16) se transforma en ω ∈ (−ωN , ωN ) 24 CAPÍTULO 1. EL CONTROL POR ORDENADOR C2 = C1 cos(φ2 − φ1 ) a 3. Suma de frecuencias múltiplo de la frecuencia de muestreo (ω2 ∼ −ω1 ): sin(φ2 + φ1 ) = 0 C2 = −C1 cos(φ2 + φ1 ) Ejercicio 1.2 Demuestre, a partir de la ecuación (1.17), que para que dos señales sinusoidales sean alias entre sı́ se deben verificar esas condiciones de amplitud y fase. Ejercicio 1.3 Demuestre, que si se permiten frecuencias negativas sólo es necesario considerar el caso a ω2 ∼ ω1 . (solución en pág. 37) Ejemplos Compruébese si, para el periodo de muestreo T = π son alias entre sı́ las señales: x(t) = sin(0,5t + π/3) y(t) = sin(1,5t − π/3) La frecuencia de muestreo es ωm = 2π/T = 2, por lo que la frecuencia ω2 = 1,5 no es alias de ω1 = 0,5, pero sı́ de −ω1 . Estamos por lo tanto en el tercer caso, y vemos que se cumple sin(φ2 + φ1 ) = 0, ya que la suma de fases es nula; pero no se cumple la condición: C2 = −C1 cos(φ2 + φ1 ) = −1 cos(−π/3 + π/3) = −1 Sin embargo, las señales: x(t) = cos(0,5t + π/3) = sin(0,5t + π/2 + π/3) y(t) = cos(1,5t − π/3) = sin(1,5t + π/2 − π/3) sı́ son alias entre sı́, ya que ahora la última condición sı́ se cumple: C2 = −C1 cos(φ2 + φ1 ) = −1 cos(π/2 − π/3 + π/2 + π/3) = − cos(π) = 1 Aunque como se ha visto, podemos aplicar directamente las condiciones encontradas, suele ser más sencillo utilizar el siguiente procedimiento, ya que no nos obliga a memorizarlas: Pasar a la representación (1.6) (seno/coseno) Restar las señales Substituir cada frecuencia por su frecuencias alias que cumpla |ω| 6 ωN Aprovechar las propiedades de paridad de las funciones seno y coseno para evitar frecuencias negativas. 25 1.7. ALIASING Si el resultado final es cero o una sinusoide pura con frecuencia múltiplo de la de Nyquist las señales serán alias. Volviendo a los ejemplos anteriores tendrı́amos: √ 1 3 x(t) = sin(0,5t + π/3) = sin(0,5t) + cos(0,5t) 2 2 √ 1 3 y(t) = sin(1,5t − π/3) = sin(1,5t) − cos(1,5t) 2 2 √ √ 3 3 1 1 y(t) − x(t) = sin(1,5t) − cos(1,5t) − sin(0,5t) − cos(0,5t) 2 2 2 2 Si muestreamos con T = π la frecuencia de muestreo es ωm = 2, ωN = 1 y vemos que ω2 = 1,5 es alias de −0,5. Ası́ √ √ 1 1 3 3 cos(−0,5t) − sin(0,5t) − cos(0,5t) y(t) − x(t) ∼ sin(−0,5t) − 2 2 2 2 √ a ∼ − sin(0,5t) − 3 cos(0,5t) a Puesto que la diferencia no es nula ni una sinusoide pura con frecuencia múltiplo de la de Nyquist, se deduce que ambas señales no son alias para el periodo de muestreo considerado. Sin embargo sı́ lo son, para el mismo periodo de muestreo, las señales: √ 3 1 x(t) = cos(0,5t + π/3) = − sin(0,5t) + cos(0,5t) 2 √2 1 3 y(t) = cos(1,5t − π/3) = sin(1,5t) + cos(1,5t) 2 2 Siguiendo el mismo procedimiento: √ √ 3 1 3 1 y(t) − x(t) = sin(1,5t) + cos(1,5t) + sin(0,5t) − cos(0,5t) 2 2 2 2 √ √ 3 1 3 1 y(t) − x(t) ∼ sin(−0,5t) + cos(−0,5t) + sin(0,5t) − cos(0,5t) 2 2 2 2 a ∼0 a Como en la práctica las señales que fluyen por el sistema de control no van a ser sinusoidales, debemos generalizar estos resultados. 1.7.2. Combinación lineal de sinusoides Podemos aplicar los resultados anteriores a señales formadas por combinación lineal de sinusoides de distintas frecuencias. Como es más sencillo utilizar la representación seno/coseno, será la que emplearemos a partir de ahora. Por ejemplo, si las señales que nos interesan son: 26 CAPÍTULO 1. EL CONTROL POR ORDENADOR x(t) = 2 sin(1,1t) + cos(2,2t) (1.18) y(t) = sin(2,1t) + sin(3,1t) + cos(4,2t) (1.19) y muestreamos ambas señales con T = π encontramos que x0 = y0 = 1, pero x1 = 0,1910, y1 = 0,8090, luego no son alias. En cambio si muestreamos las señales con T = 2π todas sus muestras son iguales. Podemos analizar este comportamiento a partir del de cada una de las componentes sinusoidales de las señales, utilizando el mismo procedimiento presentado en los ejemplos anteriores. Al calcular la diferencia y(t)−x(t) podemos substituir componentes seno o coseno por otros de frecuencias alias, y las señales serán alias si al final del proceso se obtiene 0 o sólo quedan componentes sinuoidales de frecuencia múltiplo de la frecuencia de Nyquist, que como sabemos producen muestras nulas. Veamos los dos casos: 1. Para T = π −→ ωm = 2, por lo que ωN = 1 y se deduce que las sinusoides de frecuencias 1,1 y 3,1 son alias de −0,9, las de frecuencias 2,2 y 4,2 (los cosenos) son alias de 0,2 y la frecuencia 2,1 es alias de 0,1. Por lo tanto tenemos que: y(t) − x(t) = sin(2,1t) + sin(3,1t) + cos(4,2t) − 2 sin(1,1t) − cos(2,2t) a ∼ sin(0,1t) + sin(−0,9t) + cos(0,2t) − 2 sin(−0,9t) − cos(0,2t) a

Use Quizgecko on...
Browser
Browser