Sbobine 4 - Sistemi di Misura PDF
Document Details
Uploaded by ThoughtfulAutoharp
Università di Roma "La Sapienza"
Tags
Summary
These lecture notes introduce the typical measurement system for biomedical signals, covering the physiological system or external energy source as the first step. They discuss the conversion of this source into an electrical signal using transducers, along with amplification and filtering to remove noise. Finally, conversion to and processing of the digital signal is explained.
Full Transcript
SISTEMI DI MISURA Sistemi di misura Vediamo il tipico sistema di misura per i segnali biomedici. Si ha il sistema fisiologico o la fonte di energia esterna. Il primo step è prevede l’interfacciarsi con questa fonte e fare la conversione→...
SISTEMI DI MISURA Sistemi di misura Vediamo il tipico sistema di misura per i segnali biomedici. Si ha il sistema fisiologico o la fonte di energia esterna. Il primo step è prevede l’interfacciarsi con questa fonte e fare la conversione→ monitor si bisogno di un trasduttore→si ha la conversione del processo fisiologico in un segnale analogico di natura elettrica. Il secondo step prevede l’amplificazione e il filtraggio in banda, ovvero tecniche analogiche di processamento del segnale→il tutto serve per rimuovere il rumore. Vi è poi la conversione in segnale digitale attraverso un convertitore A/D—> primo blocco del calcolatore. Nel calcolatore possiamo immagazzinare così com’è quanto acquisito, oppure lo si può processare in tempo reale→ possono essere applicate tecniche di signal processing, può essere visualizzato→ molto spesso viene visualizzato quando si acquisisce il segnale. Trasduttore. Si tratta di un dispositivo che converte l’energia da una forma all’altra. Nell’ambito del signal processing, tale conversione di energia consente di trasferire l’informazione. Si possono avere i trasduttori di input, che si trovano all’inizio della catena e sono detti sensori; convertono l’energia in segnale elettronico. Gli elettrodi trasformano energia in una forma in un’altra—> da elettrica ionica a elettronica. Useremo quasi sempre elettrodi per i segnali di natura elettrica del nostro corpo. L’uscita di un trasduttore biomedico è una tensione o corrente proporzionali all’energia misurata. I sensori si dividono in: Sensori che convertono energia esterna al sistema con il quale il corpo interagisce Sensori che convertono energia interna al sistema e quindi al nostro corpo—> energia prodotta da esso stesso. Approccio ad energia esterna al sistema. Si tratta di sensori che trasducono l’energia prodotta da una sorgente esterna, quindi non legata direttamente al sistema, ma che interagisce con il sistema stesso. L’energia generata esternamente interagisce ed è modificata dal sistema in esame. Tale alterazione produce la misura. Un esempio: se è necessaria una radiografia, noi non emettiamo raggi x, per cui abbiamo bisogno di una fonte di energia esterna→ i raggi x investono il corpo→ il corpo interagisce con i raggi x e, essendo formato da vari tessuti, questo assorbimento sarà diverso→ ciò che vediamo a valle, quindi la lastra, è la 1 misura dell’assorbimento, quindi i raggi x che hanno interagito con i nostri tessuti e sono stati alterati a seconda di cosa hanno attraversato. È stata misurata l’interazione del corpo con una forma di energia prodotta esternamente dall’operatore. Approccio ad energia interna al sistema. Nel maggior parte dei casi, il nostro corpo emette dei segnali e quindi possiamo andare a rilevare l’energia prodotta dai processi fisiologici. Alcuni esempi: misura della pressione interna cardiaca, misure dell’attività elettrica di muscoli, cuore, cervello (sorgenti EXG, E=elettro, X=organo, G=gramma) tramite elettrodi→ EEG cervello, EMG muscoli, ECG cuore, EOG occhio, EGG pareti gastriche, GSR (risposta galvanica della pelle) pelle. Stabiliscono il livello di invasività del sistema di misura. (vedi tabella su slide) Per scegliere il trasduttore da utilizzare è necessario prendere in considerazione: Risoluzione, ovvero la minore ampiezza percepita per il segnale in input; Estensione della banda, ovvero la dinamica che può cogliere il sensore e quindi la massima variazione di velocità del segnale in input; Noise rejection, ovvero la reiezione del rumore, il quale deve essere massivamente ridotto. Approcci di trasduzione: Trasduzione diretta, in cui la variazione di energia, colta dal trasduttore, produce una variazione di una grandezza elettrica, come tensione o corrente. Ad esempio diodo o trasduttore ottico. Trasduttori indiretti, in cui la variazione di energia comporta una modifica delle componenti del circuito, come resistenze o capacità, e ciò dà luogo a una variazione del segnale elettrico→cambiamento delle proprietà elettriche dell’elemento. Ad esempio il termistore, il quale a seconda della temperatura, presenta una resistenza differente. i n Processamento analogico del segnale. Se il segnale è analogico interagisco con esso con delle componenti elettriche, faccio quindi operazioni con un circuito elettronico (non posso trattarlo con un software) Il processamento analogico avviene prima della conversione A/D, quindi dopo la trasduzione. Il primo step prevede l’interfaccia con il trasduttore: Se il trasduttore è un generatore di tensione, il primo Non produce step è sicuramente un amplificatore direttam. 7 Se il trasduttore varia le sue proprietà elettriche, Tensione o bisogna usare una corrente costante per ricavare una corrente tensione di uscita (es: termistore). [uso ohm v RI] : = Se il trasduttore produce una corrente in uscita, il primo step è un amplificatore (trans-conduttanza) corrente- tensione (es: fotodiodo). Il secondo blocco prevede la preparazione del segnale per l’ingresso nel convertitore A/D→ si va a massimizzare l’informazione che ci serve, andando a ridurre il rumore. 2 diverso dal di interesse Tutto Ciò segnale M Rumore. Cintrinseco al sistema di misura e quindi non è eliminabile) Il rumore non è il nostro segnale d’interesse, nonostante si anch’esso un segnale. Tutti i sistemi di misura sono affetti da rumore e, per quanto uno possa essere bravo dal punto di vista sperimentale, non è possibile abbattere i livelli di rumore→ sarà sempre presente. Le tecniche di processamento del segnale hanno come obiettivo la minimizzazione del rumore. È un qualcosa di cui bisogna liberarsi, ma è necessario conoscerlo, sapere che esiste→ se ne studiano le proprietà e a seconda del tipo di rumore, si attuano varie tecniche per minimizzarlo. Origini e tipologie del rumore. 1. Il primo tipo di rumore è dovuto alla variabilità fisiologica→ si fa una misura e penso che con la mia misura sto prelevando una certa informazione che si vuole prelevare dal corpo→ ciò che ci si deve domandare è se la misura contiene informazioni esclusivamente del fenomeno che si intende studiare. Il nostro corpo è molto complicato per cui quella misura contiene informazioni sia su ciò che si vuole, sia gli effetti di altri meccanismi fisiologici che intervengono sulla misura. Esempio: si vuole misurare la funzionalità respiratoria di un soggetto, vedendo la Esso di concentrazione di ossigeno nel sangue→ se si misura ciò, in realtà, questa non è data Risolve con solo dalla funzionalità respiratoria, in quanto dipende anche dalla respirazione dei Un FILTRO tessuti, dall’attività che sta svolgendo il soggetto ecc.. E’ l’errore più difficile da gestire poiché dipende dalla complessità biologica del sistema in esame con cui si si ↑ interfaccia, ovvero il corpo umano. 2. Rumore ambientale. Proviene di solito da sorgenti esterne al corpo, ad esempio se dipende da si sta facendo un’acquisizione, si utilizza una strumentazione che è collegata & - dove all’alimentazione di rete, quest’ultima ritorna nei segnali come un artefatto sto registrando abbastanza riconoscibile (ha frequenza nota); le sorgenti possono essere interne al - > sistema→ sono sorgenti di natura biologica (ECG fetale corrotto da ECG materno) rumore ambienta I 3. Rumore da artefatti del sensore. Si tratta del rumore dovuto da artefatti che el Risponde ad dipendono dal sensore—> il sensore per quanto possa essere progettato bene, non è altre forme di in grado di cogliere esclusivamente la forma di energia che si vuole convertire→ Energia diverse spesso risponde ad altre forme di energia diverse da quella desiderata, in particolar da quella che modo se si tratta di energia della stessa tipologia. Esempio: si vuole registrare l’EMG voglio del muscolo pettorale, si posizionano gli elettrodi e ciò che succede è che l’elettrodo prende anche l’attività cardiaca→ prende l’ECG→ è un segnale e quindi un artefatto, I con stessa natura→ diviene un disturbo. Si possono avere artefatti del sensore anche quando quest’ultimo non viene posizionato bene o non viene posto abbastanza gel di contatto. Si ha anche quando c’è del movimento. 4. Rumore elettronico. Si tratta del rumore prodotto dalla strumentazione→ rumore termico prodotto da elementi conduttori. Il rumore termico è stato descritto ed ha uno spettro di densità di potenza come il rumore bianco→ha spettro costante a tutte le frequenze da 0 a 10^12 -10^13 Hz. Si avrà un segnale che, per effetto della presenza V del rumore termico, avrà un’occupazione in banda pari a quella del rumore bianco. Risolvo mettendo tanto gel È il principale responsabile del fatto sulla superficie per non sentire ↓ che dobbiamo fare il passaggio il movimento. analogico digitale. I filtri servono per far passare Non è assolutamente Nuqyist dice che devo campionare a qualcosa e eliminare altro, lo > eliminabile perché l’unica - frequenza maggior del doppio della uso per filtrare la banda soluzione sarebbe quello di massima frequenza nel segnale. Se io perché tutti i segnali biologici togliere l’ amplificazione, e a voglio registrare il segnale Eg so che la hanno caratteristiche spettrali me la circuiteria serve sennò massima F è 40/45Hz, con nyquist lo 3 simili. Se vedo che metto il segnale non lo vedo. Può devo studiare a 90/100Hz. Ma quando l’elettrodo su un vaso essere approssimato a un registro ho anche il rumore quindi sarà sanguigno, ma voglio il battito processo bianco, e la sua più alto perché è dato dalla somma di cardiaco, basta che sposto un estensione di banda va dalla segnale più rumore, quindi devo filtrare po’ l’elettrodo e attenuo il 0Hz a 10^13 Hz. sennò ho aliasing. Quindi quando registro non parlo solo del segnale utile, ma parlo della forma d’onda di segnale di interesse (quello che vorrei misurare) più il rumore che non è eliminabile (non mi interessa). Mi serve uno strumento per capire la qualità del segnale che ho acquisto e voglio sapere in che rapporto sono segnale che interessa e no. Sorgenti di variabilità Varie sorgenti, con cause e possibili rimedi—> cosa fare per minimizzare il rumore. La variabilità fisiologica è ineliminabile→ se si ha una misura con informazioni derivanti da vari processi fisiologici, è necessario ripensare al sistema di misura→o si cambia la misura o si agisce su esso affinché ala misura si associato un solo processo fisiologico. Per il rumore ambientale, si possono utilizzare delle schermature o dispositivi con batteria per eliminare la frequenza di rete. Per gli artefatti, in particolar modo quelli legati al trasduttore, si può agire sul posizionamento→ si utilizzano trasduttori specifici a seconda del tipo di segnale che si vuole acquisire. Per il rumore elettronico, anch’esso è molto difficile da eliminare. Rapporto segnale rumore. È bene sapere in che rapporto si trovi il rumore rispetto al segnale acquisito, infatti la maggior parte delle forme d’onda è composta da segnale e rumore mescolati insieme. Il segnale è la porzione di interesse della forma d’onda, mentre il rumore e la porzione che non interessa. Chi prevale, rumore o segnale? Esiste il Rapporto Segnale-Rumore (SNR) che misura le quantità relative di segnale e rumore nella forma d’onda. elevo nostro compon ogni , li sommo ei al quadrato , divido Credial e a faccio la radice > - da lineare a olb dove segnala il rumore sono misurati in media quadratica dell’ampiezza n eunghezza segnale > - = ↓ lo faccio per segnale e rumore Questa definizione è poco intuitiva, quindi se si vuole avere un’informazione più completa, e cioè avere informazioni sul rapporto tra le ampiezze, si può fare la trasformazione lineare. ↓ antitrasformation ottengo lineare Ipotizziamo: 2- Cola ab a signal/noise SNR=20 dB. Il segnale è 10 volte il rumore—> situazione favorevole. Non avrò mai SNR infinito. il segnale lo vedo bene - SNR=3dB—> ottengo SNR=1,414–> il segnale è poco più grande. (più mend o E SNR=0, segnale e rumore uguale—> situazione sfavorevole. ( brunto SNR0 favorevole, se SNR=0 uguali, SNR - SLING TEMPORALE L’S/H campiona il segnale analogico e mantiene il valore costante fino al campione successivo→ il campionamento in un certo istante è ‘sample’, il mantenimento del valore costante è ‘hold’. Si converte la variabile indipendente (tempo) dal dominio continuo a quello discreto. Permette di stabilizzare il segnale in ingresso al convertitore. Campiono a Ts (T=periodo e s= slide temporale). 6 Campionò il segnale e lo mantengo costante fino a che non arrivo al campione successivo (periodo successivo), ho quindi un grafico costante a tratti. Tra un campione e l’altro, nel campionamento, non so cosa succede perché l’informazione viene persa, ho un informazione solo tra un campione e l’altro. Non so se il Segnale è come nel caso rosa , giallo blu ec. M compion , e Perdo mazione l'infor camp I Segnale originale analogico (tea continuil biT ↓ ↓ Costante segnale digi A Talizzato TRAIl' T - sample - Hold (prendo campione e lo prendo cost) - grafico finale segnale originale Così discreti o l’asse dei tempi. Ampiezza In figura si ha la forma d’onda analogica→ prima si campiona la forma d’onda a passo Ts (sample)→ ottengo i pallini→ mantengo, poi, costante fino al campione successivo. Il Tempo segnale analogico in uscita è il verde. La distanza trai punti rossi e neri indica il livello di precisione del quantizzato, più sono vicini più è preciso. Esso si esprime in Quantizzazione. bit, se scelgo 8 bit dico che il mio ramante di ampiezze è n^8, se scengo 4 bit sono meno precisa perché divido il range in meno livelli. Ipotizziamo di voler quantizzare a 12 bit—> ho 2^12=4096 livelli ammissibili. Il blocco ADC attribuisce ad ogni tratto/livello costante un livello tra 0 e 4095. In questo processo si commette un errore: il valore originale di ampiezza non l’abbiamo, poiché lo attribuiamo al livello più vicino. Assumendo che il segnale abbia un range di [0, 4.095]V e che il ADC funzioni a 12 bit, ogni livello ha ampiezza 0,001V→ le ampiezze 2,56000V e 2,56001V vengono entrambe convertite nel livello 2560, poiché differiscono di una grandezza minore di 0,001. Se si ha una differenza minore di questo valore, vi sarà l’attribuzione dello stesso livello nonostante siano diversi→è un errore In figura si ha il segnale già campionato→ si definisce il range, quindi un massimo e un minimo→ definisco il numero di bit e quindi il numero di livelli→ ad ogni campione attribuisco un livello (pallini rossi). I pallini neri sono il risultato del campionamento, mentre i rossi della quantizzazione. Prendo in considerazione ogni pallino nero e vedo a quale pallino rosso è più vicino→ verranno commessi errori in difetto e in eccesso. Errore di quantizzazione. L’errore di quantizzazione dipende dal numero di bit, poiché più bit si hanno, più livelli si hanno a disposizione, meno errori si compiono. Definiamo il Least Significant Bit (LSB), ovvero la distanza tra due livelli di quantizzazione: L’errore è pari alla metà del LSB, poiché, se si hanno due livelli di quantizzazione, V1 e V2 e la loro distanza è pari a LSB, al massimo si può avere il pallino a metà, altrimenti si troverà più vicino a uno o all’altro. La differenza tra il segnale digitalizzato, quindi l’uscita del convertitore, e il S/H, è l’errore di quantizzazione, poiché è la distanza tra il valore discreto e quello che è il valore originale analogico. Questo errore di quantizzazione ha caratteristiche casuali→ oscilla tra -0,5 e +0,5 LSB, ha media nulla ed ha una distribuzione uniforme→ tutti i valori sono equiprobabili. Ha deviazione standard pari a 1/rad12 LSB=0,29 LSB. Si tratta di un errore/rumore random. 7 1 2 3 A 3= 1-2. In pratico il 3 è l’errore di quantizzazione ed è un processo randomico a media nulla (perché può assumere un valore casuale/random) ma che oscilla tra -0,5 a 0,5 attorno allo zero. Se vedo la sua distribuzione di continuità noto che è una rect uniforme e tutti i valori sono equi probabili, appare quindi come un rumore randomico (rumore bianco). Quantizzare significa aggiungere un po’ di rumore bianco (random) al segnale. Il numero di bit stabilisce la precisione con cui andiamo a quantizzare il nostro segnale, ovvero determina la precisione dei dati. O 2 QUESTIONARIO No è alla META - - Il tutto dipende dal numero di bit→ diviene la precisione della digitalizzazione→ dà informazioni sulla precisione del dato. Più bit, più precisione, ma costo elevato. O 2 QUESTIONARIO Teorema del campionamento. A questo punto, si è campionato il segnale, e ci domandiamo quanto questo campionamento sia svolto in maniera corretta: il campionamento sarà perfetto quando dai campioni si può ricostruire in maniera esatta il segnale analogico originario. Grafico in alto a sx. Immaginiamo di avere un segnale analogico a frequenza zero→ si tratta di una costante. Se si hanno i campioni, è molto semplice ricostruire il segnale originale. Grafico in alto a dx. Scegliamo come frequenza di campionamento, una frequenza pari a 1000 Hz. La frequenza relativa è uguale a 0,09*frequenza di campionamento=90 Hz. In un secondo si hanno 90 cicli→ si usano 1000 campioni (perché frequenza di campionamento pari a 1000) per 90 cicli. In un ciclo ci saranno 1000/90 campioni=all’incirca 11 campioni per ciclo. 11 campioni segnano una sinusoide→ il segnale è composto da 11 campioni per ciclo. Quante sinusoide si possono definire che passano per 11 campioni? Solo una passa per tutti e 11 i campioni. Se il segnale ha all’incirca una frequenza pari a 0,1*frequenza di campionamento, allora si può ricostruire il segnale→ dai campioni, in questo caso 11 a ciclo, riesco a ricostruire esattamente la fora del segnale originale, che era una sinusoide a 90 Hz. Grafico in basso a sx. Se la frequenza analogica è 0,31*frequenza di campionamento, sarà paria a 300 Hz→ 300 cicli per 1000 campioni. Numero di campioni a ciclo 1000/300=3,2 campioni a ciclo circa. Quante sinusoide passano per 3 campioni? Ne passa solo una→ riesco ancora a ricostruire il segnale. 8 Grafico in basso a dx. Frequenza analogica pari a 0,95*freq di campionamento=950 Hz→ 950 cicli per 1000. Numero di campioni a ciclo=1000/950=1,05. Il numero di sinusoidi che passano in un campione è infinito. Se si uniscono i campioni, si ottiene una sinusoide differente dal segnale analogico iniziale. Ciò è dovuto al fatto che si ha un segnale con frequenza troppo vicina alla frequenza con cui si vuole campionare. Finché avevo il 30% della frequenza di campionamento andava bene→ quando si supera il 50% si ha l’aliasing. Teorema di Nyquist. Un segnale continuo può essere correttamente campionato se e solo se non contiene componenti in frequenza superiori alla metà della frequenza di campionamento (frequenza di Nyquist). F. analogica= ½ * frequenza di campionamento→ F. campionamento=2*frequenza analogica del segnale. Esempi di campionamento. Questa cosa può essere vista, anche osservando li spettro. Immaginiamo di avere un segnale analogico come il grafico in alto a sx e di passare nel dominio della frequenza, attraverso la trasformata di Fourier, per analizzare il suo spettro. Dal grafico in alto a dx si osserva la frequenza massima contenuta nel segnale, perché poi lo spettro è uguale a zero. Immaginiamo di voler campionare il segnale: moltiplichiamo per un treno di impulsi (grafico in mezzo a sx) e campioniamo con frequenza di campionamento = 3*frequenza del segnale→ il segnale è campionato correttamente. Ciò succede perché moltiplicando lo spettro per un treno di impulsi, si ha quest’ultimo replicato in tutti i multipli della frequenza di campionamento (grafico in mezzo a dx)→ si ha la convoluzione tra lo spettro del segnale e la trasformata di Fourier del treno di impulsi che è un treno di impulsi, con impulsi centrati sui multipli della frequenza di campionamento fs. Lo spettro è quello originale + le sue repliche centrate sui suoi multipli. La replica a fs non deve sovrapporsi alla prima replica→ ció avviene se la frequenza troppo piccola→ le repliche iniziano a sommarsi→ devono essere ben distanziate. Se si ha frequenza di campionamento= 1,5*frequenza del segnale (grafico in basso a sx), le repliche si avvicinano e si sovrappongono (grafico in basso a dx). Si attribuisce ad una frequenza un’altra frequenza. Per scegliere la frequenza di campionamento, è necessario porre un filtro anti-aliasing→ limita la banda del segnale→ si progetta in modo tale che includa la frequenza massima prevista del segnale→ si pone per evitare che ci siano frequenze maggiori dovute ai rumori. 9 Conversione digitale- analogica DAC. Vediamo cosa succede se, avendo i campioni, si vuole riottenere il segnale. Dal punto di vista teorico, ho il segnale discreto che trasformiamo in un treno di impulsi in cui ogni impulso ha l’ampiezza del campione. Si può porre poi un filtro passa basso con frequenza di taglio pari alla metà della frequenza di campionamento per eliminare le repliche e ottenere il segnale. In realtà peró non si ha un dispositivo che generi un treno di impulsi, per cui in pratica non avviene ció. Il convertitore DAC si compone di due step: 1. Zeroth-order hold. Si prendono i campioni e si fa l’inverso del sample and hold, e si mantengono costanti fino al campione successivo→ si fa la convoluzione tra il segnale e una rect di durata pari al periodo di campionamento. In frequenza si è compiuto il prodotto tra gli spettri: spettro del segnale discreto e la sinc (trasformata di Fourier della rect) che va a zero a ogni fs. 2. Si pone un filtro passa basso, che non è altro che un filtro di ricostruzione, duale del filtro anti-aliasing in modo da eliminare le repliche. Permette di Rimuovere tutte le frequenze superiori a quella di Nyquist e di amplificare le frequenze del reciproco del zeroth-order hold (1/sinc(x)). Se fosse un filtro ideale, dovrebbe avere nella banda passante un qualcosa che tiene conto dell’alterazione che si ha con la convoluzione. Si ottiene il segnale analogico ricostruito che avrà spettro originale alterato di una sinc→ ciò è dato dalla convoluzione iniziale. Filtri analogici per la conversione dei dati. Si nota la dualità tra i filtri analogici: filtro anti-aliasing e filtro di ricostruzione. Entrambi sono filtri passa-basso con frequenza più o meno analoga e banda nota. 10 Filtro anti-aliasing. Prima della ADC il segnale in ingresso viene trattato con un filtro analogico passa-basso necessario a rimuovere tutte le frequenze al di sopra di quella di Nyquist ( 1/2 della frequenza campionamento). Filtro di ricostruzione. Il segnale digitale passa in un convertitore digitale-analogico e in un filtro passa-basso settato alla frequenza di Nyquist. Questo modello è, però, limitato dal fatto che i filtri non sono ideali→ non passeranno inalterate tutte le frequenze minori della frequenza di taglio e poi vi è il taglio→ il passaggio perfetto è irrealizzabile. Non si avrà mai una ricostruzione perfetta del segnale. Filtri analogici. Esistono tre tipologie di filtri analogici (Chebyshev, Butterworth e Bessel) e ognuno ha caratteristiche diverse→ sono utilizzati per svolgere funzioni diverse. Dal punto di vista matematico, i filtri possono essere visti come un’espressione matematica, costituita da polinomi; gli zeri del denominatore prendono il nome di poli→ più è elevato il grado dei polinomi, più si hanno poli, più il filtro taglia e ha una discesa ripida nel passaggio dalla banda passante a quella no. Dal punto di vista circuitale, questa cosa viene fatta con l’utilizzo di capacità→ più condensatori ci sono nel circuito, più poli avrà il filtro→ un condensatore, un polo. Building clock per filtri analogici. In figura è riportato un esempio di fitro passa basso a 2 poli→ due condensatori. Se si vogliono più poli, si devono porre più circuiti in serie/a cascata. R dipende da k1 e Rf da k2, a seconda dei valori dei K (costanti), si può incrementare uno dei tre filtri→si utilizza la tabella riportata. Caratteristiche dei filtri analogici. Vediamo la risposta in frequenza dei filtri. È riportato sia il filtro ideale, sia il comportamento dei 3 filtri se si sceglie una frequenza di taglio pari ad 1 Hz uguale per tutti. All’aumentare dei poli, il filtro scende più rapidamente; fissato il numero di poli, il filtro migliore è Chebyshev, poiché scende più rapidamente rispetto agli altri, ma rispetto all’ideale, Chebyshev va a zero a 2 Hz, il doppio della frequenza di taglio→ è necessario anticipare, in modo da avere il taglio a 1 Hz→ zero che coincide con la frequenza di taglio. Bessel, il peggiore, non si utilizza mai se si vuole agire sulla frequenza, sulla limitazione in banda. Dato che i filtri non sono ideali, quindi ci mettono un certo range di frequenze per andare a zero, se la massima frequenza è, ad esempio, 40 Hz, non prenderò in considerazione un filtro con frequenza di taglio pari a 40 Hz→ se lo scelgo, bisogna tener conto del fatto che non si andrà zero proprio a 40 ma dopo→ la frequenza di campionamento 11 viene scelta tenendo conto di ciò→ sarà maggiore di 80 e quindi pari, ad esempio, a 100. Questo perché il filtro non ha una risposta ideale→ ci si tiene larghi. Ripple nella banda passante. Osserviamo gli stessi grafici di prima in scala lineare, anziché logaritmica. Chebyshev, dal punto di vista della discesa, rimane il migliore, ma non è più costante nella banda passante→ altera le frequenze. Per questo motivo, nei segnali biomedici si utilizza Butterworth→ non è il più ripido, ma non ha il ripple, quindi non oscilla e, perciò, non fa alterazioni nella banda passante. Chebyshev ha un ripple pari al 6%, circa 0,5 dB Risposta a gradino. Osserviamo la risposta dei filtri ad un segnale a gradino. Si osserva che Chebyshev una volta salito, si mette ad oscillare nel tempo, cosi come Butter →il migliore è Bessel→ i filtri Butterworth e Chebyshev mostrano overshoot e ringing. I 3 filtri hanno caratteristiche differenti: Bessel è ideale se si vuole mantenere la forma d’onda del segnale, quindi si è interessati alla forma d’onda nel tempo, se, invece, si è interessati alla proprietà in frequenza, si utilizza Butterworth. 12 TRASFORMATA DISCRETA DI FOURIER Storia della trasformata di Fourier. Quando si parla del dominio della frequenza, di analisi spettarle, è necessario parlare di Fourier, padre della trasformazione dei segnali nel dominio della frequenza; agli inizi dell’800, si occupò di trasmissione del segnale e volle pubblicare un articolo, cercando di rappresentare una distribuzione di temperatura attraverso una somma di sinusoide e, in particolare, la sua definizione riportò che qualunque segnale continuo periodico poteva essere rappresentato da una somma opportunatamente scelta di onde sinusoidali→ prima definizione per il passaggio dal dominio del tempo al dominio della frequenza. Alcuni colleghi, in particolare Laplace, accettarono tale definizione, mentre Lagrange no, in quanto riteneva che ciò fosse vero per tutti i segnali tranne per quelli che mostravano uno spigolo (come la rect). Solamente dopo la morte di Lagrange, 15 anni dopo, questo articolo venne pubblicato. Decomposizione sinusoidale. Prendiamo in considerazione un segnale discreto, il quale presenta discontinuità e numero di campioni paria a 16 (da 0 a 15). Questo segnale può essere decomposto in una somma di seni e coseni, come riportato in figura: i primi 9 pannelli sono i coseni, mentre i secondi 9 i seni. In particolare, si può vedere che, non appena viene fissato il numero di campioni del segnale, automaticamente si conosce il numero di seni e coseni in cui potrà essere decomposto il segnale stesso, che, opportunatamente combinati, ridaranno il segnale da cui si è partiti. Se 𝑛 𝑛 il segnale è costituito da n campioni il segnale sarà decomposto in 2 + 1 coseni e 2 + 1 seni. Un’altra caratteristica è che anche le onde sinusoidali sono discrete e sono composte dallo stesso numero di campioni del segnale originale. 13 La decomposizione e la ricombinazione avvengono in maniera esatta, quindi passando da una parte all’altra si ottengono gli stessi segnali→ vale per qualunque segnale si va a considerare, di qualsiasi complessità. In figura, in alto sono riportati i seni e i coseni con ampiezza differente, mentre in basso il segnale risultante→ man mano che si aggiungono seni e coseni nel primo pannello, il segnale finale si forma fino a dare luogo alla somma dei seni e coseni utilizzate→ si ha il segnale ECG. Trasformata di Fourier. Ci sono 4 categorie di trasformate a seconda di come sono fatti i segnali (continui o discreti, periodi o non periodi): Trasformata di Fourier: segnale continuo non periodico Serie di Fourier: segnale continuo periodico Trasformata di Fourier tempo discreta: segnale discreto non periodico Trasformata di Fourier discreta: segnale discreto periodico. Per ciascuna di queste 4 trasformazioni, in realtà, si può avere una trasformata reale o complessa, a seconda se la trasformazione sia applicata su un segnale solamente reale o solamente complessa. Trasformata di Fourier reale: è la più semplice e utilizza numeri ordinari e algebra per la sintesi e decomposizione. Trasformata di Fourier complessa: è più complicata e richiede l’utilizzo dei numeri complessi. Considerazioni sulla lunghezza dei dati. Tutte queste trattazioni si basano su un’ipotesi: si ha la definizione su un dominio infinito→ i segnali vanno da -infinito a +infinito. In questo corso, invece, vedremo segnali finiti→ bisogna fare i conti con il fatto che i segnali hanno un valore finito di numeri→ nel calcolatore non possono essere sommate infinite sinusoidi. Seni e coseni hanno lunghezza infinita, ma, se sommate, devono dar luogo ad un segnale che abbia lunghezza finita. La DFT, è l’unica che permette di limitare il dominio→ diviene finito. Immaginiamo di avere un numero finito di campioni, si hanno le formule che fanno, però, riferimento ad un numero infinito di campioni→ facciamo un’ipotesi: si ha un segnale finito, il quale è un tratto di un segnale infinitamente lungo→ si considera solo una parte. A questo punto, per avere un segnale, poi, infinitamente lungo, a dx e sx possono essere posti: 14 Tanti zeri pria e dopo→ segnale infinitamente lungo che è sempre zero, tranne quando lo si registra→ segnale discreto non periodico→ Trasformata di Fourier tempo discreta. Tante repliche del segnale acquisito→ si prende in considerazione un periodo→ segnale discreto periodico→ Trasformata di Fourier discreta (DFT). Quale utilizzo delle due? Ricordo che, quando i segnali sono aperiodici, è necessario sommare, per ottenere quel segnale, infinite sinusoidi→ non va bene, perché non possono essere calcolate infinite sinusoidi→ si prende in considerazione il segnale periodico e quindi la DFT, la quale è l’unica che lega in numero finito di campioni nel periodo con un numero finito di sinusoidi, perché tutto viene svolto nel periodo→ è l’unica ad essere implementata nel calcolatore. Trasformata di Fourier discreta (DFT). Prendiamo in considerazione nel dominio del tempo, un segnale discreto periodico, composto da N campioni→ questo segnale può essere trasformato nel dominio della frequenza, in particolare viene trasformato in N/2 +1 valori, che sono le ampiezze dei coseni (parte reale del segnale in frequenza) e N/2 +1 valori che sono le ampiezze dei seni (parte immaginaria del segnale in frequenza). Si ha un vettore di N elementi, che dà luogo a 2 vettori di N/2 +1 elementi. Di solito, si può passare dal dominio del tempo al dominio della frequenza e viceversa→ dal dominio del tempo alla frequenza, si parla di scomposizione o decomposizione o trasformata diretta→ dal dominio della frequenza al tempo, si parla di sintesi o trasformata inversa. N è a scelta dell’operatore si consiglia di sceglierlo tale da essere pari ad una potenza di 2→ il calcolatore lavora in potenza di 2 (bit) e l’algoritmo che implementa la DFT utilizza una proprietà delle potenze di 2. DFT variabili indipendenti. Per quanto riguarda la rappresentazione, nel dominio del tempio, sull’asse y si ha l’ampiezza del segnale, mentre sull’asse x il numero del campione; nel dominio della frequenza, sull’asse y si ha l’ampiezza, mentre sull’asse x vi può essere: k, ovvero il numero del campione (frequenza discreta che va 0 a N/2). Frequenza relativa (rapporto tra frequenza analogica e quella di campionamento)→ va da 0 a 0,5. Pulsazione. Frequenza analogica. Funzioni base della DFT. Il cuore della DFT è rappresentato da seni e coseni, che sono le funzioni base della trasformata→ devono avere ampiezza unitaria e, ciò che fa l’algoritmo, è assegnare l’ampiezza ai seni e coseni, confrontando con il segnale, in maniera tale che, moltiplicando ciascun seno e coseno per la propria ampiezza e sommandoli tutti, si riottenga il segnale originale. 15 le funzioni base della DFT sono generate dalle equazioni: i è il numero di campioni (tempo) e va da 0 a N-1, mentre k è la frequenza discreta, quindi rappresenta il numero di cicli che la sinusoide in N campioni, e va da 0 a N/2. Bisogna assegnare k ampiezze ai coseni e seni, i quali sono lunghi N campioni. Se si ha un segnale con N=32, si avranno 17 seni e 17 coseni→ sono lunghi 32 campioni, da 0 a 31. In figura, nella colonna di sx sono riportati i coseni e nella colonna di dx i seni; in alto a si ha c0 e s0, quindi k=0 con i che va da 0 a 16 ognuno. (vedi slide). DC offset. Si ha c0 e s0→ queste basi non sembrano seni e coseni. c0 è sempre pari a 1→ se lo si usa nella trasformazione, aiuta a stimare il valore medio del segnale→ in elettronica si direbbe che detiene l’offset DC. s0 è sempre pari a 0, per cui è presente solo per simmetria. Funzioni base della DFT. In figura sono riportati c2 e s2→ si nota che si ha a che fare con c2 poiché fa 2 cicli in quel periodo e si differenzia dal seno in quanto parte da 1 anziché da 0. Sono riportati, inoltre, c10 e s10→man mano che aumentano le frequenze discrete, si apprezza meno la sinusoide In figura, sono riportati c16 e s16, ovvero l’ultimo coseno e l’ultimo seno; per c16, non sembra si abbia una sinusoide, in quanto si va da 1 a -1→ sembra si stia campionando solo il picco nel ciclo; s16, invece, è sempre zero→ non è informativo→ con 32 campioni, bisogna tirare fuori 34 ampiezze (17 seni e 17 coseni)→ si hanno 17 valori e 34 incognite→ in realtà, il problema è risolvibile, poiché di queste 34 incognite, 2 sono inutili, non danno informazioni→ sono s0 e sN/2. Inversa della DFT (iDFT): sintesi. Il segnale x[n] è la sommatoria di N/2 +1 coseni e N/2 +1 seni opportunatamente pesati in ampiezza. 16 Le ampiezze dei seni e dei coseni sono leggermente diverse, in quanto tra l’equazione di sintesi e l’equazione di decomposizione, vi deve essere un termine costante di aggiustamento. Dal punto di vista pratico, se si ha x[k], quindi il segnale nel dominio della frequenza, risultato della DFT, per compiere la iDFT è necessario: Dividere tutti i valori ottenuti per N/2 Cambiare di segno alla variabile immaginaria (ampiezza dei seni) Dividere ReX e ReX[N/2] per 2. Si ottiene il segnale nel dominio del tempo. Analisi della DFT A questo punto, si può analizzare l’equazione di decomposizione: dato il segnale nel dominio del tempo, è necessario sapere come si ottengono le ampiezze dei seni e dei coseni. Esistono 3 diversi approcci: Equazioni simultanee: metodo algebrico, basato sulla risoluzione di un set di equazioni. Correlazione: è l’approccio classico. Trasformata di Fourier veloce (FFT): è un metodo implementato dal calcolatore che, sfruttando le potenze di 2, riesce ad abbattere il costo computazionale dell’algoritmo. Equazioni simultanee. Si tratta di un approccio che, computazionalmente, è onerosissimo e che quindi non viene utilizzato. Si scrive un sistema di equazioni a partire dall’equazioni di sintesi→ l’equazione di sintesi non è un’equazione istantanea, ma vale per tutti gli n che vanno da 0 a N-1→ ogni campione del segnale si scompone come una somma di seni e coseni→ si tratta di un set di equazioni→ si sostituisce n=0 e si ha un’equazione, così come per n=1, n=2 e così via→ in totale si hanno N equazioni, con incognite le ampiezze del coseno e del seno→ si hanno N incognite: sappiamo che le ampiezze dei seni e coseni sono N+2, ma il seno in zero e il seno in N/2 sono identicamente nulli. Avendo N equazioni per N incognite, si può risolvere il sistema, ma il limite di questo approccio è il fatto che, in pratica, si ha un numero elevatissimo di calcoli da eseguire, per cui questo metodo non viene mai utilizzato. Correlazione. Si tratta dell’approccio standard. Supponiamo di voler calcolare la DFT di un segnale lungo 64 campioni→ si hanno 33 ampiezze di seni e 33 ampiezze di coseni da stimare. Supponiamo 17 di voler stimare l’ampiezza del seno a frequenza discreta 3→ si tratta della parte immaginaria di X. Per tutti gli altri valori, il ragionamento è lo stesso. Si hanno due esempi, in quanto i segnali di cui si vuole calcolare la DFT sono 2→ il primo segnale x1[] sembra una sinusoide, quindi un seno a frequenza 3 (fa 3 cicli)→ è una sinusoide a frequenza 3. Il secondo segnale, x2[], non ha una forma riconoscibile→ contiene diverse frequenze al suo interno, tranne la frequenza 3. Ci si aspetta che la DFT del primo segnale sia un impulso, mentre quella del secondo segnale ci si aspetta zero. Si sta cercando di capire se il segnale che si ha somiglia al seno o al coseno di cui si vuole stimare l’ampiezza→ in questo caso, avendo un seno a frequenza 3, si vuole vedere se questi segnali somigliano o no a questo segnale. Con la DFT si vede, frequenza per frequenza, se nel segnale c’è una somiglianza con le basi. Se il segnale è molto presente, l’ampiezza sarà elevata, altrimenti, se non è presente, sarà pari a zero→ l’entità della somiglianza è l’ampiezza. In figura, nella prima riga si hanno i due segnali nel tempo, mentre nella seconda riga si ha la base, quindi si ha il seno a frequenza 3, infatti è lo stesso, perchè si vuole vedere la somiglianza tra il segnale della prima riga e quello della seconda. I segnali nella prima colonna sono identici, mentre per la seconda è un po’ difficile da vedere. Quale può essere una misura di somiglianza tra due segnali? La correlazione→ si fa il prodotto punto a punto e poi la media. In terza riga si ha il risultato del prodotto punto a punto→ per implementare la correlazione, è necessario fare la media del segnale in terza riga→ la media del segnale nella prima colonna è pari a 0,5, mentre per il segnale della seconda colonna, si ha media uguale a 0. In sintesi: si sta cercando la somiglianza tra il segnale e la base, operazione che deve essere effettuata per tutti i seni e i coseni, attraverso la correlazione. Dal punto di vista formale, questo è il modo con cui definiamo le equazioni di decomposizione: 18 Sono 2, in quanto si separano le ampiezze dei seni e dei coseni. Si ha la media del prodotto puntuale tra i segnali, ovvero l’implementazione della correlazione. Il 2 è solamente un fattore di normalizzazione per trasformare gli spettri. Si tratta di un set di equazioni per k che va da 0 a N/2→ si hanno N/2 +1 equazioni per la parte reale e lo stesso per la parte immaginaria. Il sistema si regge quando si sceglie come set di basi, delle funzioni che sono tra di loro scorrelate: se le basi contengono una delle informazioni dell’altra, si sporca il segnale. In pratica si sta facendo un campionamento in frequenza, poiché la trasformata della sinusoide è l’impulso e l’impulso ha la caratteristica di campionamento, solamente che è visto in frequenza. Dualità della DFT. La prima equazione è quella di sintesi, ovvero la DFT inversa, mentre in basso si hanno le equazioni di analisi, una per la parte reale e una per la parte immaginaria. DFT complessa. Se si osservano le equazioni di analisi appena analizzate, ci si accorge di come, nella DFT reale, non sono presente le frequenze negative che, però, esistono. La chiave sta nella relazione di Eulero, la quale lega l’esponenziale complesso ai seni e ai coseni; da questa espressione, si possono esplicitare i seni e i coseni→ si ha la somma tra due esponenziali complessi, uno con frequenze positive (il 2° termine) e uno con frequenze negative (il 1° termine). La DFT complessa è la seguente: In questo modo, si sono inserite anche le frequenze negative→ sostituendo all’esponenziale complesso, la sua espressione, si ottiene: 19 X[k], quindi, una volta stimato, è un numero complesso, per cui si può rappresentare sia la parte reale, sia la parte immaginaria. È rappresentato un periodo dello spettro (va da -0,5 a +0,5). La parte reale risulta essere simmetrica rispetto l’asse delle ordinate→ è un segnale pari. La parte immaginaria, invece, è simmetrica rispetto all’asse delle ascisse→ è un segnale dispari. iDFT complessa. Si tratta della stessa equazione, soltanto che x[n] e X[k] sono invertite e l’esponenziale diviene positivo. Sostituendo all’esponenziale complesso, la sua espressione, si ha: Linearità della Trasformata di Fourier. La Trasformata di Fourier è lineare, perciò possiede le proprietà di omogeneità e additività→ questo è vero per tutte e 4 le trasformazioni. L’omogeneità si nota dal grafico: si ha un segnale nel dominio del tempo x[], opportunatamente trasformato nel dominio della frequenza in X[]. Se si amplifica x[], quindi lo si moltiplica per k, una costante, non occorre rifare la trasformata, ma basterà moltiplicare per k la sua DFT, quindi X[]. 20 Per l’additività, prendiamo in considerazione un segnale x1 nel dominio del tempo, di cui si conosce la DFT, quindi parte reale e parte immaginaria. Consideriamo un secondo segnale x2, anch’esso nel tempo e di cui si conoscere Re e Im; se si sommano i segnali, non è necessario calcolare la DFT, in quanto è data dalla somma delle DFT di x1 e x2. Natura periodica della DFT. La DFT risulta essere periodica sia nel tempo che in frequenza: il segnale x[n] lo si era ipotizzato periodico. In figura, si ha il segnale nel dominio del tempo, ma in realtà si sta ipotizzando che il segnale sia infinitamente lungo e replicato nel tempo, da -infinito a +infinito. Questa veridicità passa nel dominio della frequenza: anche modulo e fase, e quindi parte reale e parte immaginaria, sono replicati da -infinito a +infinito, ribaltati. 21 TRASFORMATA DI FOURIER FAST Si sono analizzati i primi due approcci della DFT, ovvero equazioni simultanee e correlazione. La Fast Fourier Transform permette di evitare di fare correlazioni con segnali complessi che, dal punto di vista matematico, è dispendioso. Storia della FFT. Cooley e Turkey, due matematici, furono i primi a proporre questo approccio nel contesto della DFT, anche se, molti anni prima, a questo algoritmo vi era già arrivato Gauss, il problema, però, è che Gauss ci arrivò troppo presto. Di fatto, l’algoritmo prevede la fattorizzazione di una matrice nxn in una serie di matrici più piccole che permette di semplificare moltissimo il calcolo. Dalla DFT reale alla DFT complessa. L’algoritmo FFT serve a calcolare la DFT direttamente sui segnali complessi, senza usare la matematica dei numeri complessi. Cosa succede quando il segnale è reale? Partiamo dalla DFT reale: si ha un segnale nel dominio del tempo, composto da N campioni→ lo si trasforma del dominio di frequenza e lo si scompone in parte reale (ampiezze dei coseni) e parte immaginaria (ampiezze dei seni)→ si passa da N valori a N/2 +1 ampiezza dei seni e coseni. Quando si fa la DFT complessa, dato che si applica a segnali complessi, il segnale nel dominio del tempo cambia: si hanno 2 sequenze di N campioni, infatti si ha parte reale e parte immaginaria del segnale→ si hanno 2 vettori di N campioni. Il primo campione della parte Re corrisponde al primo campione della parte Im e così via. Nella DFT complessa rientrano le frequenze negative→ le ampiezze che devono essere stimate, sono doppie, in quanto, oltre ai coseni/seni a frequenze positive, si hanno coseni/seni a frequenze negative→ nel dominio della frequenza, non si hanno più N/2 +1 seni/coseni, si hanno N (da 0 a N-1) ampiezza dei seni e N (da 0 a N-1) ampiezze dei coseni→ metà a frequenza positiva e metà a frequenza negativa. Le frequenze negative sono necessarie, poiché altrimenti, dopo la sintesi, non torna il segnale originario. Se si ha un segnale reale, la FFT può essere calcolata? Per i segnali complessi è vantaggiosa, e ci si chiede se possa essere usata anche per i segnali reali. Si ipotizza che il segnale reale sia un segnale complesso che ha parte immaginaria nulla→ si prendono i primi N/2 seni e N/2 coseni→ il tutto avviene trattando il segnale reale come un segnale complesso particolare. Nella figura di sopra, i primi N/2 della parte reale e della parte immaginaria (DFT complessa), corrispondono alla parte reale e parte immaginaria nella DFT reale. Frequenze negative nella DFT complessa. Il fatto di porre le frequenze negative e quindi di porre l’esponenziale complesso nel calcolo, comporta che la DFT sia periodica. La scelta del periodo è arbitraria, come per ogni segnale periodico→se si prende qualsiasi segnale periodico e si prendono in considerazione 2 22 campioni separati da un periodo, qualsiasi segmento si prende, questo si replica. Se i punti sono distanziati T grande, il segnale che si misura si replica→ ciò vale anche per la DFT Sull’asse y si ha l’ampiezza, mentre sull’asse x si ha il rapporto tra frequenza analogica e frequenza di campionamento. Per cui se si ha frequenza relativa pari a 1, la frequenza analogica è pari alla frequenza di campionamento; se invece si ha 0,5 la frequenza analogica è pari alla metà della frequenza di campionamento (=frequenza di Nyquist). Come periodo della DFT, si può prendere tra 0 e 1, ma anche tra -0,5 e 0,5→ si può prendere qualsiasi segmento, purché sia distanziato di fs (frequenza di campionamento)→ la DFT è periodica di periodo fs. Nel caso della DFT complessa si sceglie, convenzionalmente il periodo tra 0 e 1 (rappresentato in figura). I N punti occupano lo spazio delle frequenze relative tra 0 e 1. Lo 0 coincide con lo 0 dell’indice del campione, quindi con la frequenza, mentre 1 coincide con la frequenza relativa a N-1 e quindi con fs. I primi N/2 sono le frequenze positive, mentre gli altri N/2 frequenze negative. Se si prende la parte reale del segnale complesso, a parte lo 0 che è una frequenza di transizione, dal campione 1 al campione N/2 si hanno le frequenze positive, mentre da N/2 +1 a N-1 si hanno le frequenze negative→ la parte tra 0,5 e 1 è la replica di cosa succede tra -0,5 e 1-→ se si prendesse il periodo tra -0,5 e 0,5 (in verde), si nota subito, ma dato che è periodica ho lo stesso tra 0,5 e 1, semplicemente cambia l’ordine: prima le frequenze positive, poi quelle negative e non viceversa come avviene di solito. Per la parte immaginaria vale lo stesso discorso, semplicemente bisogna ricordare che è antisimmetrica→ le frequenze negative sono cambiate di segno. Le frequenze a 0 e N/2 sono frequenza di transizione→ sono l’inizio delle frequenze negative e la fine delle frequenze positive. Dalla iDFT complessa alla iDFT reale. La soluzione della DFT reale e quella della DFT complessa sono collegate→ la DFT complessa è un caso più generale, mentre la DFT reale è un caso particolare. In figura, la DFT reale presenta diversi pattern, quindi valori differenti→ se si passa alla DFT complessa, per la parte Re, fino ad N/2 si hanno gli stessi 23 pattern, da N/2 +1 vanno posti gli stessi valori ma ribaltati→ dopo N/2 non c’è il primo pattern, ma l’ultimo. Per la parte immaginaria, il pattern è lo stesso fino a N/2, poi da N/2 +1 fino a N-1 è ribaltato ma cambiato di segno, poiché la parte immaginaria è antisimmetrica. Come lavora la FFT. L’algoritmo della FFT è composto da tre passi: 1. Scomposizione di un segnale di N punti in N segnali, ciascuno da 1 punto. 2. Calcolo della versione in frequenza degli N segnali→ Trasformata di Fourier di questi N segnali di lunghezza 1. 3. Si sintetizzano gli N spettri in modo da ottenere uno spettro di lunghezza N. Scomposizione nel dominio del tempo. Il numero di scomposizioni, che devono avvenire, è pari al logaritmo in base due del numero di campioni N→ il numero di campioni è una potenza di 2→ se ciò avviene, si ha un vantaggio computazionale. Se si ha N=16, si hanno 4 scomposizioni, se N=512, si hanno 7 scomposizioni. In figura, il segnale in alto è un segnale di 16 campioni da cui si parte. I numeri indicano le posizioni, non le ampiezze, poiché nella scomposizione si prende il vettore originale e lo si divide a metà→ si hanno due vettori da 8→ un vettore con le posizioni pari e uno con le posizioni dispari (in questo caso le posizioni coincidono con numeri pari e dispari)→ bisogna vedere solo le posizioni. Il primo vettore da 8 viene diviso in due vettori da 4, separando nuovamente le posizioni pari e posizioni dispari (es. il 4, sappiamo essere un numero pari, ma in questo caso è in terza posizione, quindi andrà nel vettore delle posizioni dispari)→ lo stesso avviene con il secondo vettore da 8, diviso in due da 4. I 4 vettori diventano 8 vettori da 2, e poi questi 8 vettori diventano 16 vettori da 1→ si ha una sequenza differente rispetto all’inizio. Il vantaggio sta nel fatto che questa scomposizione, al livello computazionale, ha peso zero→ nessuno sforzo, infatti si usa la logica binaria del calcolatore. Bit reversal. Nella realtà, la scomposizione avviene attraverso il bit reversal, che dal punto di vista computazionale vale 0. Si parte dai valori di partenza che sono le posizioni (0,1,2,3…). Se si vuole scrivere questi numeri come una sequenza binaria, ad esempio a 4 bit, li si rappresenta con 4 cifre binarie (0,1). 24 Se anziché prendere le posizioni in numeri decimali, si prendono in numeri binari e si inverte da dx a sx le cifre binarie, quindi se si fa il bit reversal, si ottiene la stessa sequenza ottenuta in precedenza. Ad esempio: lo 0 rimane così, se si inverte la sequenza binaria di 1, si ottiene 1000, che corrisponde a 8; per il numero 4, invertendo si ha 0010, che corrisponde a 2 e così via. Spettro in frequenza di un segnale con un solo campione. Il secondo step prevede di fare lo spettro di un segnale che ha un solo campione, ma lo spettro di un segnale che ha un solo campione, è il segnale stesso→ è uno step solo teorico→ ci si trova già nel dominio della frequenza. Di conseguenza, il bit reversal dà già il segnale nel dominio della frequenza→ bisogna riarrangiare gli spettri. Combinazione degli N spettri. Si parte dai 16 segnali da 1 campione, che sono già spettri, e si fa il processo contrario, in modo da ottenere lo spettro del segnale. Si ricompone tornando indietro, tenendo conto della sequenza: nella prima fase, 16 spettri (1 punto ciascuno) sono sintetizzati in 8 spettri (2 punti ciascuno). Nel secondo stadio, gli 8 spettri (2 punti ciascuno) sono sintetizzati in 4 spettri (4 punti ciascuno), e così via. L'ultima fase si traduce nell'uscita del FFT, uno spettro di frequenza di 16 punti. Come si combinano gli spettri. La ricomposizione si ottiene utilizzando l’algoritmo a farfalla. Si parte da due spettri da 4, che devono tornare ad ed essere uno spettro da 8. Il vettore abcd corrisponde alle posizioni pari, mentre efgh alle posizioni dispari: per cui si costruisce un vettore da 8 in cui abcd occuperanno le posizioni pari (0,2,4,6), mentre efgh le posizioni dispari (1,3,5,7). Come si fa ciò? Esiste una proprietà che permette di prendere il vettore nel dominio del tempo e metterci degli 0 nel mezzo, prendendo nel dominio della frequenza un segnale e duplicandolo. Se invece, si prende il segnale nel dominio della frequenza e lo si duplica dopo averlo shiftato di 1 che significa in frequenza moltiplicarlo per una sinusoide, anche in questo caso si hanno degli 0, ma nel dominio del tempo si partirà da 0. Sommando i vettori ottenuti, si ottiene aebfcgdh Se si parte da una sequenza di 4 punti di spettro dispari e da una di 4 punti di spettro pari, i pari scendono e vengono duplicati, mentre i dispari, prima di scendere, passano nella sinusoide (sono shiftati), vengono duplicati e poi sommati alla discesa dei pari→ per metà sono sommati, per metà sottratti. Questa combinazione permette di ottenere una sequenza da 8. Questo meccanismo viene effettuato ogni volta che si va indietro→ si fanno 𝑙𝑜𝑔2 𝑁 step e in ogni step si fa N/2 volte. Esempio: se si hanno 8 segnali da 2 e si vogliono ottenere 4 segnali da 4, verranno effettuati 4 butterfly; per passare a 2 segnali da 2, se ne faranno 2. 25 In figura, si ha la DFT dei campioni pari e la DFT dei campioni dispari, questi ultimi vengono shiftati, duplicati e poi sommati ai pari, i quali sono stati anch’essi duplicati. Velocità di comparazione. Dal punto di vista computazionale, se la DFT calcolata tramite la correlazione, ha tempo di esecuzione pari a N^2, con la FFT questo tempo di esecuzione è pari a N𝑙𝑜𝑔2 𝑁 Accuratezza della comparazione. La FFT ha un altro vantaggio, oltre la velocità: l’accuratezza. Difatti quando si fanno le correlazioni, si fa un errore di approssimazione al calcolatore e, quindi, all’aumentare del numero, rispetto alla FFT che ha un errore più o meno costante, aumenta l’errore, per via degli arrotondamenti che si fanno. 26 ANALISI FOURIER Introduzione. Molto spesso, il segnale acquisito codifica le informazioni anche nel dominio della frequenza. Il segnale ECG ha una forma nota e la sua codifica, di solito, è nel dominio del tempo→ l’informazione è codificata nel dominio del tempo; l’ECG, però, non è l’unico segnale che si può rilevare. Ad esempio, l’EEG (in alto in figura), che somiglia moltissimo al rumore, codifica informazioni nel dominio della frequenza. Per cui, quando si parla di analisi spettrale dei segnali biologici, ci si riferisce in particolar modo all’EEG e in minima parte all’EMG. In basso in figura si ha un esempio di spettro di densità di potenza→ di solito si guarda direttamente il modulo. Sull’asse delle ordinate vi è il modulo, quindi l’ampiezza dello spettro, mentre sull’asse delle ascisse le frequenze analogiche. Osservando le figure si può notare come il segnale ha contributi prevalentemente in 3 range di frequenza→ vi è un aumento di potenza, per cui vi sono frequenze più coinvolte di altre. Ciò si ha intorno ai 3 Hz, 7-8 Hz, 15-20 Hz. Il grafico in basso si ferma a 25 Hz→ non c’è più di tanto dopo→ il segnale EEG non sta a frequenze altissime→ di solito, ci si ferma all’incirca a 40→basse frequenze. Il picco che si ha a 7 Hz non si riesce a capire dove sia nel tempo→ quando si va in frequenza, si perdono informazioni con il passaggio da un dominio all’altro. Analisi spettrale dell’EEG I 3 picchi ottenuti sono tipici del segnale EEG, in quanto il segnale mostra delle onde caratteristiche a frequenze diverse: Onde delta (0,5-4 Hz): sono onde a bassa frequenza, che si hanno con il sonno o in alcuni stati patologici. Onde teta (4-8 Hz). Onde alfa (8-13 Hz): hanno una morfologia molto evidente. Onde beta (13-30 Hz Onde gamma (30-40 Hz) A seconda della frequenza a cui sta oscillando il segnale, succedono cose differenti→ alle varie frequenze è associato un comportamento differente del cervello. In figura, ogni riga è un elettrodo e si ha l’andamento nel tempo. Il soggetto è a riposo e nella prima fase è ad occhi aperti; nel momento in cui viene chiesto di chiudere gli occhi, c’è un piccolo picco e la restante parte è a occhi chiusi. 27 Vi è una differenza tra una parte e l’altra→ è un fenomeno tipico dell’EEG→ quando il soggetto chiude gli occhi, automaticamente il nostro cervello si riempie di segnali elettrici che oscillano nella frequenza della banda alfa. Se si fa lo spettro della prima parte (occhi aperti) e della seconda (occhi chiusi), si ottiene in rosso lo spettro del segnale EEG a occhi aperti, mentre in nero occhi chiusi. Ad occhi aperti, si ha un picco e poi va a scendere, se si chiudono gli occhi, ad un certo punto, c’è un picco molto grande→ dall’osservazione dello spettro di densità di potenza ad occhi aperti e occhi chiusi, ci si accorge che quando il soggetto è a occhi chiusi, emette un segnale che ha un contributo prevalente nella banda alfa, quando, invece, è a occhi aperti, il contributo prevalente è nella banda teta→ nello spettro queste informazioni si leggono meglio. In figura, si ha un’altra codifica nel dominio della frequenza. Si sa che ci sono variazioni dello spettro della densità di potenza, in particolare, quando l’area è coinvolta nel compito che vien richiesto al soggetto→ tipico dei compiti motori. Se si chiede al soggetto di aprire o chiudere la mano vi sarà una variazione di potenza delle aree cerebrali deputate al movimento della mano. Ci sono aree sensitivo-motorie che sono responsabili dei movimenti compiuti; in sezione, più al centro si hanno i piedi, poi i piedi, la mano ecc. Quando il soggetto muove la mano dx, c’è una variazione di potenza, segnata dal pallino rosso, nella zona deputata al movimento della mano dx, che si trova a sx→ per la mano sx, si trova a dx (attivazioni controlaterali). lo stesso vale per il piede, con la differenza che la zona deputata al movimento si trova al centro. Si osservano le zone attive del cervello. Se si confronta lo spettro del segnale prelevato dall’area quando il soggetto muove (blu), ad esempio la mano, rispetto a quando è a riposo (rosso), si osserva che alle basse frequenze, l’area riduce la sua potenza (desincronizzazione), alle alte frequenze, vi è un aumento (sincronizzazione)→ noi siamo interessati alle variazioni, in quanto si capisce qual è l’area attiva sula base delle variazioni di potenza localizzate su una certa area. 28 Analisi spettrale dell’EMG. Si ha lo spettro di un segnale EMG. In alto, si ha il segnale nel tempo, quando vi è la contrazione, mentre in basso si lo spettro. La differenza con lo spettro EEG è che ha frequenze molto maggiori, fino a 500 Hz. Si ha lo spettro del segnale EMG e quando è richiesto al soggetto di fare più ripetizioni del movimento, lo spettro si sposta e diventa quello tratteggiato→ sta diminuendo la frequenza centrale→ il segnale ha rallentato, in quanto il soggetto si è stancato. Approcci per l’analisi spettrale. Per analisi spettrale si intende la possibilità di determinare il contenuto in frequenza del segnale; ciò permette di decodificare alcune informazioni che particolari organi del nostro corpo codificano nel dominio della frequenza. Di fatto, nell’analisi spettrale, ció che si fa è decomporre il segnale nelle frequenze che si desiderano e scandire frequenza per frequenza il contenuto del segnale in quella specifica frequenza. Per fare ciò, si hanno 2 approcci: Approccio classico: utilizza la Trasformata di Fourier per ottenere lo spettro, in particolare la DFT. Approcci moderni o parametrici: permettono di stimare lo spettro andando a modellizzare il segnale in un certo modo. L’analisi spettrale non è un’analisi esatta, di conseguenza non si è mai in grado di estrarre lo spettro, ma solo di stimarlo. Questo, infatti, avviene in quanto si assume, si è ipotizzato che il segnale sia periodico, infinitamente lungo, di cui si ha disposizione proprio il periodo del segnale→ si tratta di un semplificazione, poiché, in realtà, per computare in maniera esatta lo spettro del segnale si dovrebbe avere un segnale infinitamente lungo, che però non si ha→si fa la stima dei dati che si hanno a disposizione, per cui più dati si hanno (ci si avvicina al segnale infinitamente lungo), più si ha una misura precisa dello spettro. Il segnale, inoltre, è affetto da rumore, in particolar modo il rumore di misura. Per questi motivi (segnale infinitamente lungo e rumoroso), si può fare solo la stima dello spettro e non estrarlo effettivamente. Quando si fa l’analisi spettrale, ci si deve domandare quali sono le caratteristiche spettrali che si vuole ricavare, descrivere, poiché, a seconda di ciò, si utilizzano tecniche diverse: se si 29 è interessati alla forma dello spettro (picchi, range), si utilizza l’approccio classico, mentre se si vogliono studiare le proprietà locali, ad esempio un picco specifico, si utilizzano gli approcci detti moderni o paramedici. Per cui seconda dell’obiettivo, si utilizza un approccio differente→ spettri di caratteristiche diverse. Esempi dei due approcci. Ipotizziamo di avere un segnale che è un seno a 100 Hz immerso in rumore bianco. Che spettro ci si aspetta? Lo spettro del seno a 100 Hz è un impulso a 100 Hz, mentre il rumore ha spettro costante a tutte le frequenze; se l’SNR è -14 dB, prevale il rumore→ è quasi 5 volte il segnale. Se si calcola la Trasformata di Fourier del segnale si ottiene la figura a sx→ tanti picchi con uno che svetta a 100 Hz, il quale è immerso nei picchi del rumore bianco. Se anziché fare la Trasformata di Fourier, si utilizza l’approccio moderno della stima spettrale, si ottiene la figura a dx→ si è rilevata la forma dello spettro: c’è un picco a 100 e attività di fondo attribuibile al rumore bianco→ in realtà non c’è un vero e proprio impulso, ma un qualcosa che sale e scende, in 150 Hz, per cui, utilizzando l’approccio classico, si perdono informazioni particolari dello spettro→ si guarda l’andamento. La Trasformata di Fourier non è sufficiente, dato che i segnali sono imprecisi: si deve trattare il segnale in un certo modo affinché si riesca a ricostruire la forma dello spettro. Approcci per l’analisi spettrale. I segnali che si acquisiscono non sono deterministici ma stocastici, per cui si segnali che si analizzano sono non infinitamente lunghi, rumorosi e stocastici→ per questo motivi, si fa la stima e per averla, è necessario fare delle ipotesi. Se si ha un segnale deterministico infinitamente lungo, si utilizza l’analisi di Fourier, per cui una delle 4 trasformate e si ottiene lo spettro. Se il segnale è stocastico, la stima spettrale si fa secondo i due approcci introdotti: L’approccio moderno o parametrico è basato su modelli auto-regressivi a media mobile (ARMA). L’approccio classico utilizza la Trasformata di Fourier, in particolare, la DFT, ma non così com’è, ma usano all’interno di algoritmi che prendono il nome di correlogramma e periodo-gramma. Analisi Fourier. Con i segnali deterministici, si utilizzano i set di seni e coseni, con cui si scompone il segnale→ correlazione tra il segnale e le sinusoidi a frequenze discrete diverse. Sono utilizzate le sinusoidi, poiché nel dominio della frequenza, sono impulsi. Si ha una sinusoide a 10 Hz, che nel dominio della frequenza è un impulso a 10 Hz. 30 Sinusoidal bridge approach. Si ipotizza di avere il segnale a sx e se si vuole fare la trasformata di Fourier, lo si correla con le sinusoidi a frequenza discreta-> in alto sinusoide a 1 Hz, in mezzo 3 Hz, in basso 5 Hz. Se si fa la correlazione con ognuna di esse, con la prima si ha un punto centrato a 1 Hz, con la seconda si ottiene il punto centrato a 3 Hz, con la terza centrato a 5 Hz. La frequenza massima che si può testare è fs/2 quindi la frequenza di Nyquist. Formule (da non sapere). Si ha una formula per ogni tipo di segnale nel dominio del tempo e nel dominio della frequenza→ la differenza è che nell’equazione di decomposizione, l’esponenziale complesso è negativo, mentre nella sintesi è positivo. Alcune caratteristiche del segnale nel tempo hanno un’azione sulle caratteristiche dello spettro: Se il segnale nel dominio del tempo è discreto, la Trasformata di Fourier è periodica. Se il segnale nel dominio del tempo è periodico, la trasformata è discreta, con passo di campionamento pari all’inverso della frequenza di campionamento. Dati due parametri, ovvero la durata del periodo e la frequenza di campionamento, si sa già il periodo e il passo di campionamento dello spettro. Se il segnale è discreto e periodico, si applica la DFT. Lunghezza dei dati e risoluzione dello spettro. Se ci si concentra sulla DFT e si vuole definire due frequenze, una volta noto il periodo del segnale e la frequenza di campionamento, si può determinare quest’ultime, ovvero la frequenza massima, che è pari alla frequenza di Nyquist (fs/2) e la frequenza minima, cioè la più piccola frequenza che si è in grado di cogliere, ovvero la distanza tra punti→ è la risoluzione dello spettro. La risoluzione dello spettro, più è piccola, meglio è; la DFT nel dominio della frequenza, nel periodo, va da -fs/2 a +fs/2→ periodo totale lungo fs. Con quanti punti si campiona fs, se si ha un segnale da N campioni? N, in quanto con la DFT è quadrata. La distanza tra un punto e l’altro è pari a fs/N, che è, quindi, la 31 risoluzione. Si conoscono entrambe le frequenze→ automaticamente si sa già descrivere tutte le caratteristiche dello spettro del segnale. Per avere una risoluzione alta, quindi per far sì che la distanza (deltaF) sia sempre più piccola, è necessario aumentare N→ se N tende all’infinito, la risoluzione tende a zero, per cui si ha un segnale continuo nella frequenza→ è il caso dei segnali aperiodici, in cui il periodo è nullo. Se si ha un segnale discreto nel tempo, con una certa frequenza di campionamento e N campioni, si conoscono automaticamente la frequenza massima e la risoluzione. Zero padding. Sapendo che, più campioni si hanno, migliore è la risoluzione in frequenza, esiste una tecnica detta zero padding, la quale prende il segnale e aggiunge un certo numero di zeri all’inizio o alla fine. In questo modo, aumentano i campioni N, per cui migliora la risoluzione apparente dello spettro, non quella reale, in quanto si sono aggiunti degli zeri. Questa tecnica impone che la DFT sia calcolata su un numero di punti maggiore; inoltre, quest’ultima si utilizza anche per far sì che si abbia N potenza di 2→ vantaggio computazionale, poiché si applica un algoritmo più efficiente, ma anche in termini di risoluzione apparente. Si prende in considerazione il segnale in alto a sx, lo spettro è dato da dei punti centrati 0, 2, 4→ la distanza è data dal periodo del segnale di partenza. Si applica lo zero padding aggiungendo 150 zeri alla fine, quindi 1,5 s di zeri (figura in mezzo a sx)→ la DFT è calcolata su un numero maggiore di campioni→ lo spettro cambia, per cui si hanno i punti di prima, ma anche i punti in mezzo; è aumentato N, difatti si è passati da 50 a 200 campioni, per cui si sono avvicinati i punti in frequenza. Se si aggiungono 750 zeri, si ha uno spettro più fitto. La risoluzione è, però, apparente poiché se tra 0 e 2, ci fosse stato un picco, dato che nello spettro originale non si vede, non è che se si pongono degli zeri, si ha questo picco. Se si volesse veramente migliorare il contenuto informativo, si dovrebbe acquisire più dati. Troncamento del dato. Quando si fa l’acquisizione del segnale, ad un certo punto, ci si ferma→ il segnale è il troncamento di un segnale infinitamente lungo. Difatti, se si sta registrando l’attività cardiaca, quest’ultima c’è sempre, semplicemente siamo noi a decidere istante d’inizio e istante di fine. Per cui si ha un segnale infinitamente lungo, che si va a troncare→ si acquisisce il segnale in basso, che è una parte del 32 segnale infinitamente lungo. Dal punto di vista della teoria dei segnali, questo troncamento del dato è visto come il prodotto nel dominio del tempo tra il segnale infinitamente lungo e una finestra rettangolare, la quale è sempre zero tranne nel periodo di acquisizione in cui vale 1, per cui ha lunghezza pari al periodo acquisito. Se si vuole stimare lo spettro, in realtà, si dovrebbe stimare lo spettro del segnale infinitamente lungo, che però non si ha, per cui si stima quello di un segnale troncato→ si stima lo spettro del prodotto tra il segnale e la finestra→ in frequenza il prodotto diviene la convoluzione tra lo spettro vero, cioè del segnale infinitamente lungo, e la trasformata di Fourier della finestra, che è una sinc. Questa è la dimostrazione che non si avrà mai lo spettro vero, ma una stima. L’unico modo per stimare davvero lo spettro vero, è che la finestra abbia come trasformata di Fourier l’impulso→ è necessario che la finestra sia una costante→ non si dovrebbe troncare. Ma dato che si troncherà sempre, si avrà sempre un’alterazione dello spettro. Approccio indiretto per la stima dello spettro di potenza. Lo spettro può essere definito in due modi. Innanzitutto si ha il modo indiretto: lo spettro del segnale è definito come la trasformata di Fourier della funzione di auto-correlazione del segnale. L’auto correlazione è la media dei prodotti punto a punto del segnale per sé stesso shiftato di una certa grandezza. Se si ha un segnale lungo N, la funzione di auto- correlazione è lunga 2N+1. L’autocorrelazione in 0 vale sempre 1, ma c’è differenza negli altri punti: cambia la periodicità del segnale→ un segnale con delle oscillazioni, con dei picchi è un segnale periodico, mentre un segnale che ha un impulso in 0 e poi è praticamente nullo, è un segnale scorrelato. Per cui l’autocorrelazione dà informazioni sulla periodicità del segnale→ se si fa la trasformata di Fourier di questa funzione, si studia la frequenza. Approccio diretto per la stima dello spettro di potenza. Per quanto riguarda l’approccio diretto, si prende in considerazione il Teorema di Parseval, il quale afferma che l’energia del segnale e quindi l’integrale del modulo del segnale al quadrato, si può calcolare utilizzando la trasformata di Fourier del segnale stesso. Per cui, si prende il segnale, si fa la trasformata, si calcola lo spettro e si eleva il modulo al quadrato. Esiste un teorema che afferma che questi due approcci sono equivalenti: se si passa per uno o per l’altro, si ottiene lo stesso risultato. Se si ha un segnale di energia, si avrà lo spettro di densità di energia, se invece si ha un segnale di potenza, si avrà lo spettro di densità di potenza. L’approccio diretto si usa solo per i segnali con segnali di energia, poiché sono segnali che hanno l’integrale del modulo del segnale, pari a un numero finito→ è il criterio di applicabilità della trasformata di Fourier. Se si ha un segnale di potenza, questo criterio non è rispettato, per cui si prende il segnale, si calcola la funzione di auto-correlazione, la quale rispetta questo criterio poiché ha energia finita, e si calcola la trasformata di Fourier. 33 Lo spettro di densità di energia o di potenza è una trasformazione invertibile→ per tornare nel dominio del tempo, serve sia la parte reale che la parte immaginaria, che qui si è eliminata in quanto si prende il modulo e lo si eleva al quadrato→ non è più complesso. Esercizio. Si consideri il seguente segnale x(n) di lunghezza pari a N = 1000 campioni registrati con una frequenza di campionamento pari a fs = 250 Hz. Determinare: 1. La risoluzione della trasformata di Fourier X(k) 2. La frequenza massima della trasformata di Fourier X(k) 3. Il periodo della trasformata di Fourier 4. Il numero di campioni M su cui può essere calcolata la trasformata di Fourier X(k) 5. Il periodo del segnale x(n) in secondi. Risoluzione: 1. Risoluzione=fs/N= 0,25 Hz 2. Fmax=fs/2= 125 Hz 3. Periodo Fs=fs= 250 Hz 4. Il numero di campioni totali su cui può essere calcolata la trasformata di Fourier è pari a k = N/2 che corrisponde ad investigare la frequenza di Nyquist. Poiché la trasformata di Fourier è simmetrica rispetto all’origine bisogna considerare anche le frequenze negative quindi k = [− N/2; N/2] in totale, quindi M = N = 1000. 5. Tp=NTs=N/fs= 1000/250= 4 s. 34 TEORIA DELLA STIMA Introduzione. Abbiamo visto che non si è in grado di computare lo spettro vero, ma solo stimarlo→ ciò avviene perché non si ha un segnale infinitamente lungo, si ha rumore di misura e, inoltre, il segnale è stocastico, di cui si conosce solo una realizzazione, per cui non si conosce l’intero processo→ condizione lontana dall’idealità→ l’unico modo quello che sarebbe stato lo spettro vero se si fosse avuto a disposizione infiniti campioni, assenza del rumore e infinite realizzazioni del processo. Per questi motivi, è necessario introdurre i concetti della teoria della stima. Il concetto di stima e quindi di teoria della stima, non si applica solo all’elaborazione dei segnali, ma a tutti gli stimatori. Con stima si intende determinare una serie di quantità di interesse a partire da un set di misure rumorose, incerte. Queste quantità da stimare possono avere varie caratteristiche: stocastiche, deterministiche, stazionarie, tempo varianti→ a seconda delle caratteristiche di queste grandezze, si usano approcci diversi: se le grandezze sono deterministiche, si useranno metodi più semplici e computazionalmente leggeri, facili, se invece si hanno grandezze stocastiche, si useranno metodi computazionalmente più pesanti→ il metodo con cui si fa la stima, dipende dalle caratteristiche delle quantità che si vogliono stimare Concetti di base. Assumiamo un set di misure x(1), x(2) fino a x(N)→ queste misure sono state effettuate poiché contengono informazioni riguardo le m grandezze di interesse che si vogliono stimare che sono 𝜃1, 𝜃2, … , 𝜃m→ si hanno due vettori: Vettore delle misure, composto da N elementi: 𝑥𝑁 = [𝑥 1 , 𝑥 2 , … 𝑥𝑁 ] Vettore delle grandezze da stimare, composto da m elementi: 𝜃 = (𝜃1, 𝜃2, … , 𝜃𝑚) X sono le misure, per cui il senale di cui si vuole stimare lo spettro con N campioni, mentre teta sono i valori dello spettro nel dominio della frequenza, che si vuole stimare a partire da un set di misure. Questi due vettori, x e teta, non sono completamente disgiunti poiché x, cioè le misure, contengono informazioni su teta, cioè sui parametri→ in termini matematici si esprime attraverso un’espressione matematica, una funzione h che lega le misure ai parametri. I parametri stimati si indicano con Teta cappello, mentre i Teta sono i parametri che non si conosceranno: θ̂ = ℎ (𝑥𝑁) = ℎ(𝑥 1 , 𝑥 2 , … 𝑥𝑁 ). Nella DFT, la funzione h è la formula di decomposizione che permette di tirare fuori xk a partire da xN→ lega xN ai parametri xk. Ciò che succede, però, è che non è detto tutti i parametri che si vogliono stimare sono legati dalla stessa relazione matematica con la misura→ se si vuole essere generali: θ̂ 𝑖 = ℎ𝑖(𝑥𝑁) Esempio 1. Ipotizziamo di avere a disposizione un set di misure e di voler stimare la varianza e la media di teta. Il set di parametri da stimare, ovvero Teta, è composto da due parametri ovvero mu, la media e sigma^2, che rappresenta la varianza. Non si può usare la stessa formula che, a partire da x, permetta di avere sia la media, sia la varianza, poiché esistono due formule diverse: 35 La media cioè teta1 è espressa come la funzione h1 di x, mentre la varianza, cioè teta2, è espressa come funzione h2 di x. Per cui, la media e la varianza vengono stimati con due stimatori differenti che legano le misure a quei parametri→ si definiscono due funzioni diverse per i due parametri differenti. L’obiettivo è utilizzare una funzione matematica che, applicata alle misure, restituisca i parametri. Nel nostro caso, cioè nella stima spettrale, h è una cosa sola, poiché, automaticamente, restituisce tutti i parametri. Si può parlare di stimatore anche quando si vuole fittare le misure con una certa espressione matematica. Esempio 2. Si prendono in considerazione delle sinusoidi: Le x sono le misure e l’obiettivo è cercare un’espressione matematica che rappresenti le misure stesse→ si fitta con un seno, di cui è necessario impostare ampiezza, fase e pulsazione. Di conseguenza, i parametri da stimare sono ampiezza A, fase phi e pulsazione omega→ teta è espresso da questi 3 parametri→ si devono stimare a partire da x. La funzione h è diversa a seconda del parametro che si vuole stimare. Categorie di stimatori. Gli stimatori si dividono in due categorie a seconda della tipologia di parametri che si vogliono stimare. Si hanno: Stimatori deterministici, se si hanno parametri deterministi. Stimatori stocastici, se si hanno parametri stocastici→ è necessario conoscere anche le distribuzioni di probabilità. Gli stimatori possono essere divisi anche in: Stimatori batch: lavorano offline, per cui, prima di effettuare la stima, si acquisiscono tutti i campioni e poi si stima→ la parte di acquisizione e la parte di stima sono sequenziali. Stimatori on-line: la stima avviene online→ man mano che arrivano le misure si aggiorna la stima→ approccio di tipo ricorsivo: invece di, ogni volta che arriva il campione, rifare la stima, si aggiorna la stima precedente, quindi fino a quella del campione precedente e non si rifà da capo. Ipotizziamo di essere arrivati ad acquisire il campione j→ si hanno i valori da x0 a xj→ si può fare la stima. Quando arriva un nuovo campione, applicando l’approccio ricorsivo, si scrive come la stima precedente + un aggiornamento che dipende dalla nuova misura e basata sulla stima appena effettuata. In questo modo, computazionalmente, è più semplice perché si fanno solo degli aggiornamenti. Proprietà degli stimatori. Si hanno N misure, quindi N valori posti nel vettore xn; si suppone che queste N misure contengano informazioni su m (può essere diverso da N) grandezze e che queste grandezze da cui si vuole estrarre l’informazione, che sono i parametri, sono Teta→ sono i parametri veri. Uno stimatore è una generica funzione h, cioè una generica espressione matematica, che applicata alla misura, restituisce una stima dei parametri. È necessario determinare le proprietà degli stimatori per vedere se sia uno stimatore valido o meno. 36 1. Zero estimation error. Ci si aspetta che Teta cappello sia il più vicino possibile a teta→ la condizione ideale è che lo stimatore abbia errore di stima nullo→ Teta tilde, cioè l’errore di stima, è pari al valore vero – la stima→ deve essere identicamente nullo. Di fatto, non si sta facendo una stima, ma si sta tirando fuori il valore vero→ questa condizione ideale non è realizzabile, a meno che non si abbiano a disposizione infinite misure. 2. Non polarizzato. Poiché l’errore di stima, non può essere pari a zero, si chiede allo stimatore che il valore atteso dell’errore sia nullo→ valore atteso di teta tilde si pari a zero. Se si sostituisce a teta tilde la sua formula, e si applica la linearità del valore atteso, si ottiene che il valore atteso della stima deve essere uguale al valore atteso di Teta, che è proprio Teta. La proprietà di non polarizzazione è che il valore atteso della stima sia uguale al valore vero. Dire che l’errore di stima è nullo, implica che teta e teta cappello siano uguali→ impossibile. Invece, in questo nodo, si sta facendo riferimento al fatto che la distribuzione di probabilità della stima è centrata sul valore vero, con una certa dispersione che si deve controllare. La distanza tra il valore atteso e la stima prende il nome bias→ si vuole che vada a zero→ differenza tra il valore atteso della stima e il valore atteso→ uno stimatore non polarizzato ha bias nullo, mentre uno polarizzato ha bias diverso da zero→ più il bias è nullo, più lo stimatore non è accurato→ restituisce un set di parametri la cui probabilità non è centrata sul valore vero. Questa è una proprietà stringente per lo stimatore, per cui se non riesce ad essere non polarizzato, può esserlo in maniera asintotica: quando il numero di misure tende a infinito, allora il valore atteso della stima coincide con il valore vero. 3. In realtà, non si vuole controllare semplicemente il valore atteso e quindi il bias, ma si vuole anche che lo stimatore abbia una dispersione molto limitata intorno al valore vero→ si deve controllare anche la varianza dello stimatore. Complessivamente il controllo del valore atteso più la varianza, si chiama consistenza. Per cui si verifica che ci sia una convergenza in probabilità del valore della stima, al valore vero. In figura è rappresentata la distribuzione di probabilità dello stimatore, il quale ha un suo valore atteso e una varianza. L’obiettivo è che il bias vada il più possibile a zero, cioè che lo stimatore non sia polarizzato almeno asintoticamente. Inoltre, si vuole che la sigma, ovvero la varianza vada a zero, cioè che la distribuzione si sovrapponga al valore vero. Per cui, avere uno stimatore consistente vuol dire avere uno stimatore che sia asintoticamente non polarizzato e con una varianza che va a zero per N che tende a infinito→ in questo caso, si ha uno stimatore che converge in probabilità al valore vero→ proprietà che si ricerca negli stimatori spettrali. 37 4. MSE. Vedi slide. 5. Risoluzione. Questa proprietà riguarda gli stimatori spettrali ed è l’abilità dell’estimatore di fornire dettagli fini dello spettro→ è la distanza minima tra due picchi, uno centrato in omega 1 e uno centrato in omega2, affinché questi due picchi si vedano, grazie alla stima, ancora distinti. Supponiamo che in figura si abbia lo spettro vero, il quale ha due picchi in ω1 e ω2→ si deve fare una stima di questo spettro, ma si ha una certa risoluzione per ciò→ la risoluzione indica la distanza minima tra questi due picchi affinché, quando si fa la stima, essi si vedano ancora distinti. 38 SERIE STOCASTICHE Processo aleatorio. Un processo aleatorio X(t, omega) è dato da un insieme infinito di funzioni x ognuna delle quali rappresenta una realizzazione di quel particolare processo aleatorio ed è funzione del tempo. Si ha Omega, che è l’insieme delle realizzazioni che si hanno a disposizione e poi le varie omega→ si hanno le x, funzione del tempo e di omega→ realizzazioni. S si vuole conoscere un fenomeno di natura stocastica, se si ha una sola misura, questa non basta→ ne servono tante. Le tante misure, cioè le tante repliche della stessa cosa, sono una replica del comportamento del processo. Il comportamento complessivo del processo aleatorio è descritto dalla serie infinita di realizzazioni, ognuna funzione del tempo. La teoria dice che x è funzione del tempo e che omega ha valori infiniti→ si hanno a disposizione infinite realizzazioni. Si fissa la realizzazione. Se si fissa un valore di omega, cioè se si estrae una realizzazione, si ottiene una X(t) specifica per la omega selezionata, che è la funzione campione del processo, la quale è una funzione deterministica; nel momento in cui si sceglie una omega, si ottiene una funzione del tempo deterministica. La singola realizzazione è deterministica, l’insieme delle realizzazioni descrive il comportamento del processo aleatorio. Si fissa l’istante temporale. Se si fissa t, invece, si ottiene una variabile aleatoria X(t1)→ si fissa un preciso istante temporale→ dipende solo da omega. Si guarda qualcosa al variare delle realizzazioni, per cui si ha una variabile stocastica. Riassumendo: se si fissa omega, si ha una variabile deterministica, se si fissa t, una variabile aleatoria. Vettori aleatori. Cosa succede se si fissano due istanti temporali? In figura sono fissati t1 e t2, per cui si hanno due variabili aleatorie X(t1) e X(t2)→ vettore aleatorio composto da queste due variabili→ è a discrezione quanti istanti si vogliono fissare. Se il processo è anche discreto, si compone di un vettore aleatorio di N variabili aleatorie→ il segnale che si acquisisce è costituito da N variabili aleatorie→ in ogni sitante temporale si ha una distribuzione di valori e non un punto→ se si ha un solo segnale e si fissa il tempo, si ottiene un punto, se, invece, si hanno tante realizzazioni dello stesso processo e si fissa il tempo, si ha un insieme di punti→ sono i valori, in quell’istante temporale, di tutte le realizzazioni. Dato che non si ha più un punto, ma un insieme di punti, per descrivere ciò, ovvero cosa succede negli istanti temporali, è necessaria la distribuzione 39 di probabilità→ descrizione statistica per tutti gli istanti temporali. Ciò che ci si domanda è se la descrizione statistica è la stessa per tutti gli istanti o diversa. Definizione di processo aleatorio. X(t,ω), semplificato in X(t), può rappresentare: 1. un insieme di funzioni delle variabili 𝑡 ed 𝜔 (processo aleatorio) 2. una funzione deterministica della variabile 𝑡 detta funzione campione del processo (𝜔 fissato, 𝑡 variabile) 3. una variabile casuale indicata con 𝑋(𝑡) (𝑡 fissato, 𝜔 variabile) 4. un numero reale (𝑡 e 𝜔 fissati). Descrizione statistica del 1° ordine. Si immagini di aver acquisito una serie di punti, ognuno dei quali è stato estratto da una distribuzione statistica, data dall’insieme delle realizzazioni del processo aleatorio in quel determinato istante temporale. Se si vuole fare una descrizione statistica del primo ordine, si guarda istante per istante e si calcola la funzione di probabilità cumulativa e in particolare la funzione di densità di probabilità del 1° ordine del processo, che è la derivata della funzione cumulativa di probabilità. Se si prende un valore sull’asse x della densità di probabilità, la funzione restituisce quanto quel valore è probabile→ un numero tra 0 e 1, che dice quanto quel valore è probabile→ ciò vale per ogni valore possibile del processo. Indici statistici del 1° ordine. Con la densità di probabilità del primo ordine, si possono estrarre 3 grandezze, anche dette indici statistici del primo ordine, poiché calcolati sulla densità di probabilità del 1° ordine. 1. Funzione valor medio: è il valore atteso del processo aleatorio X(t)→ è l’integrale di x per la sua funzione di densità di probabilità→ è come se si pesasse ogni valore per la sua probabilità. È il valore medio, che ha un andamento nel tempo, di una particolare distribuzione. 2. Funzione potenza media statistica: è il valore atteso del processo aleatorio al quadrato→ è l’integrale di x moltiplicato per la funzione di densità di probabilità. 3. Funzione varianza: è il valore atteso del processo meno il suo valore medio elevato al quadrato, che è anche pari alla potenza media meno il valore medio al quadrato. Descrizione statistica del 2° ordine. In questo caso, si studia in che relazione si trovano le variabili aleatorie nei vari istanti temporali: se si ha una descrizione statistica del 2º ordine, si prendono in considerazioni due istanti temporali, se si ha una descrizione statistica di ordine N, si hanno N istanti temporali. Si può studiare il valore medio, la varianza e la potenza media della variabile aleatoria in t1, in t2, cos’ per ogni istane di tempo→ facendo così, si utilizza una descrizione statistica del 1° ordine. Se si vuole utilizzare una misura statistica del 2° ordine, si vede in che relazione si trovano x in t1 e x in t2→ se ne considerano due insieme. 40 Se si fissano due istanti, t1 e t2, per cui si considerano le due variabili aleatorie X(t1) e X(t2), se si vuole studiare la loro relazione statistica, si può definire la funzione di distribuzione congiunta e la funzione di densità di probabilità congiunta o del 2° ordine: Valore medio e autocorrelazione (indice statistico del 2° ordine). Grazie a questa funzione, si studia la funzione di auto correlazione, parametro/indice del 2° ordine, che è il valore atteso del prodotto tra le due variabili aleatorie X(t1) e X(t2). Se l’auto correlazione è elevata, la distribuzione di probabilità associata a t