Appunti - Ottimizzati (114 pagine) PDF

Summary

These notes detail the optimization and innovation of production processes. They cover topics such as calculating production costs, including component costs, assembly costs, and general overhead. The document also includes an example calculation, and concepts like the bill of materials (BOM).

Full Transcript

Ottimizzazione e innovazione dei processi produttivi Il DFX (Design For X) è un approccio di progettazione che si concentra sull’ottimizzazione di aspetti specifici del prodotto, come affidabilità, robustezza, manutenzione e impatto ambientale. In particolare, il Design For Manufacturing (DFM) punta...

Ottimizzazione e innovazione dei processi produttivi Il DFX (Design For X) è un approccio di progettazione che si concentra sull’ottimizzazione di aspetti specifici del prodotto, come affidabilità, robustezza, manutenzione e impatto ambientale. In particolare, il Design For Manufacturing (DFM) punta a ridurre i costi e migliorare l’efficienza produttiva attraverso l’uso di nuovi materiali e processi più avanzati, favorendo il dialogo tra progettazione, produzione e marketing. Obiettivi e vantaggi: 1. Riduzione dei costi di produzione e dei tempi di sviluppo. 2. Ottimizzazione della BOM (Bill of Materials), cioè la distinta dei componenti. 3. Accelerazione dell’immissione del prodotto sul mercato. Il punto di partenza è quindi la bills of materials, cioè la distinta base dei componenti e dei materiali impiegati. A questo punto è possibile evidenziare cinque passi fondamentali: Stima dei costi di fabbricazione Riduzione dei costi dei componenti (reingegnerizzazione) Riduzione dei costi di assemblaggio Riduzione dei costi di supporto alla produzione (gestione dell’azienda) Valutazione del DFM su altri fattori (funzionalità, design, affidabilità…) STIMA DEI COSTI DI FABBRICAZIONE Il costo di produzione è suddiviso in tre categorie: 1. Costi dei componenti: Componenti standard: stimati utilizzando componenti simili o cataloghi dei fornitori, prezzi determinati dalla concorrenza di mercato; Componenti personalizzati: stima più complessa basata su: ▪ Materia prima (scarto 5-50% per stampaggio, 70% per asportazione). ▪ Utilizzo delle macchine (pressa 25$/h, CNC 75$/h). ▪ Costi di primo impianto (utensili, stampi, staffaggi). ▪ Costi di ispezione, se presenti. ▪ È necessaria una pianificazione industriale per stimare questi costi in modo accurato. 2. Costi di assemblaggio: Basati sul tempo necessario per l’operazione. Costo medio del lavoro: 15-25 €/h, con aumento per tecnici specializzati. Le operazioni automatizzate sono limitate a quelle pericolose o ripetitive (uso di robot antropomorfi). Include i costi delle attrezzature per il montaggio. 3. Costi generali: Fondamentali per la sopravvivenza aziendale in periodi di crisi. Coinvolgono acquisti, direzione, uffici tecnici, marketing, e altri reparti non produttivi. Devono essere attribuiti ai prodotti tramite attivatori di costo (es. manodopera e materiali). Esempio: GE ha il 60% dei costi generali rispetto ai costi diretti. Sono un valore molto difficile da abbattere, perché riguardano molti rami dell’azienda (uffici vendite, uffici personale, uffici tecnici, magazzino etc etc.). Per calcolarli si usa gli ATTIVATORI DI COSTO. Vediamo come: Prodotto Costo Manodopera Costo materiali A 30 80 B 20 20 C 40 50 D 10 50 COSTI DIRETTI ANNUALI (ottenuti sommando quelli di ciascun prodotto) 100 200 A questi costi si deve aggiungere i costi generali, che sono di 70 l’anno, e si suppone che siano divisi come 40 legati ai materiali (magazzino, ufficio acquisti, ufficio personale) e 30 legati alla manodopera (climatizzazione, pulizie, assenteismo, mensa etc). Si vuole calcolare quanto incidono i costi generali su quelli del prodotto finito. Gli attivatori di costo vengono definiti come: MAN = 30/100 = 30% MAT = 40/200 = 20% Quindi il prodotto B costerà: 20 + (30% 𝑑𝑖 20) + 20 + (20% 𝑑𝑖 20) = 20 + 6 + 20 + 4 = 40 + 10 = 50 50 sarà il costo industriale di prodotto con i 10 che sono il contributo dovuto ai costi generali. È molto importante studiare i costi generali perché permettono di non andare in perdita dato che il costo industriale di prodotto è il più basso costo al quale posso vendere il mio prodotto senza andare in perdita. COSTI FISSI E COSTI VARIABILI I costi di produzione possono essere distinti in costi fissi e costi variabili: Costi fissi: non dipendono dal numero di unità prodotte. Esempi includono l'acquisto di stampi o la predisposizione di nuove aree di lavoro. Tuttavia, questi costi possono diventare variabili in base a soglie produttive (es. necessità di un nuovo stampo dopo 10.000 pezzi). Costi variabili: sono proporzionali al numero di unità prodotte, come le materie prime. La manodopera può essere considerata sia fissa che variabile a seconda del contesto: in aziende grandi può essere modulata facilmente, mentre in aziende piccole è spesso un costo fisso. DISTINTA BASE (BILLS OF MATERIALS) La distinta base (BOM) è un elenco completo dei componenti di un prodotto con i relativi costi, organizzati in categorie (fissi e variabili). Questa struttura è essenziale per stimare accuratamente i costi di produzione, supportando il processo decisionale. STIMA DEI COSTI DEI COMPONENTI STANDARD I costi dei componenti standard vengono stimati tramite: Esperienza aziendale: per parti semplici come viti. Preventivi di fornitori: utili quando si conoscono le quantità di produzione previste, poiché il prezzo unitario cala con l'aumentare dei volumi. Collaborazione con fornitori: per personalizzazioni standardizzate, ma solo con volumi elevati. Tuttavia, si consiglia di preferire componenti standard, poiché le personalizzazioni comportano costi più alti, soprattutto per magazzino e assistenza. STIMA DEI COSTI DEI COMPONENTI PERSONALIZZATI (CUSTOM) I componenti personalizzati sono progettati per scopi specifici e realizzati internamente o da fornitori. Costo materie prime: calcolati considerando massa del pezzo, gli scarti (che variano tra il 5-50% per parti a iniezione e 25-100% per pezzi da lamiera), il costo unitario della materia prima. 𝐶𝑚𝑎𝑡𝑒𝑟𝑖𝑎𝑙𝑖 = (𝑚𝑝𝑒𝑧𝑧𝑜 + 𝑚𝑝𝑒𝑧𝑧𝑜 ∗ %𝑠𝑐𝑎𝑟𝑡𝑖 ) ∗ 𝐶𝑢𝑛𝑖𝑡à 𝑑𝑖 𝑚𝑎𝑠𝑠𝑎 Costo dei processi produttivi: operatori macchine, costi di utilizzo attrezzature. I costi orari variano in base al tipo di macchina (25$/h per pressa da stampaggio, 75 per una fresatrice. 𝐶𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑜 = 𝐶𝑜𝑠𝑡𝑜ℎ /𝑃𝑟𝑜𝑑ℎ Costi di attrezzaggio (set-up): rappresenta il lavoro richiesto per la preparazione delle attrezzature di produzione. Questo costo è generalmente basso, soprattutto se il tempo di set-up è breve. Costi degli utensili: includono la progettazione e fabbricazione di stampi e attrezzature. Gli stampi, per esempio, possono costare tra 10.000 e 500.000 dollari, e il costo unitario si calcola dividendo il costo totale per il numero di unità prodotte durante la loro vita utile. 𝐶𝑓𝑖𝑠𝑠𝑖 𝑛 𝑝𝑒𝑧𝑧𝑖 𝑑𝑎 𝑝𝑟𝑜𝑑𝑢𝑟𝑟𝑒 𝐶𝑢𝑡𝑒𝑛𝑠𝑖𝑙𝑖 = con 𝑄 = 𝑄 𝑛 𝑝𝑒𝑧𝑧𝑖𝑚𝑎𝑠𝑠𝑖𝑚𝑖 𝑎𝑚𝑒𝑚𝑠𝑠𝑖 𝑑𝑎 𝑠𝑡𝑎𝑚𝑝𝑜 STIMA DEI COSTI DI ASSEMBLAGGIO L'assemblaggio è necessario per i prodotti composti da più parti. Per produzioni inferiori a centinaia di migliaia di unità all’anno, l’assemblaggio è solitamente manuale, tranne per schede circuitali elettroniche, che sono spesso assemblate automaticamente anche in piccoli volumi. Il costo dell’assemblaggio manuale si calcola sommando il tempo di ogni operazione e moltiplicando per il costo della manodopera. Le operazioni richiedono solitamente tra 4 e 60 secondi, a seconda delle dimensioni delle parti. STIMA DEI COSTI GENERALI (OVERHEAD) I costi generali di un nuovo prodotto sono difficili da stimare con precisione. La maggior parte delle aziende utilizza tassi di costo generale applicati a uno o due attivatori di costo (es. materiali acquistati, costo della manodopera, ore macchina). Questi costi vengono aggiunti ai costi diretti in proporzione agli attivatori di costo. Tuttavia, stimare i costi futuri per un nuovo prodotto è particolarmente complesso. RIDUZIONE DEI COSTI DEI COMPONENTI I componenti possono risultare costosi se i progettisti non conoscono bene i vincoli dei processi produttivi. Ad esempio, specificare piccoli raggi interni su un pezzo può richiedere lavorazioni complesse e costose (come l’elettroerosione), talvolta non necessarie. La riprogettazione può eliminare lavorazioni superflue. Per processi complessi, è utile lavorare a stretto contatto con esperti per ottimizzare il progetto. REINGEGNERIZZAZIONE DEI COMPONENTI PER ELIMINARE FASI PRODUTTIVE Si punta all’uso di processi net-shape o near net-shape (fusione, estrusione, iniezione, forgiatura), che consistono nel raggiungimento del prodotto finito tramite una sola fase produttiva. Si distinguono: ▪ Processi primari (massivi), danno la forma generale del componente (fusione, forgiatura, iniezione…); ▪ Processi secondari (asportazione di truciolo), per la finitura superficiale e a tolleranze strette. Si capisce che i processi massivi sono gli unici attraverso i quali è possibile ottenere una linea di produzione net-shape, capace di ridurre notevolmente i costi anche se il materiale utilizzato è molto più costoso del classico acciaio. Infatti i processi secondari hanno un elevato costo di processo. SCELTA DELLA SCALA ECONOMICA APPROPRIATA I costi di fabbricazione diminuiscono con l’aumento del volume di produzione, grazie all’economia di scala. Le economie derivano da: Divisione dei costi fissi su più unità. Riduzione dei costi variabili tramite attrezzature più efficienti. Per piccole produzioni si preferiscono processi con bassi costi fissi e alti costi variabili, mentre per grandi volumi si utilizzano processi con alti costi fissi e bassi costi variabili. STANDARDIZZAZIONE DEI PROCESSI E COMPONENTI L’economia di scala si applica anche alla selezione di componenti e processi. Con l’aumento del volume di produzione, il costo unitario diminuisce e la qualità aumenta. La standardizzazione implica il dover usare gli stessi componenti su uno stesso prodotto e l’utilizzare un unico componente per più prodotti. I componenti standard sono generalmente più economici per le tecniche di produzione ottimizzate. METODO BLACK BOX Il metodo Black Box prevede che il team di sviluppo fornisca al fornitore una descrizione funzionale del componente ("cosa deve fare") senza specificare come produrlo. Questo lascia al fornitore la libertà di progettare il componente al costo minimo, riducendo la responsabilità del team di sviluppo. È essenziale che le specifiche iniziali siano ben definite per evitare problemi successivi. RIDUZIONE DEI COSTI DI ASSEMBLAGGIO Il Design for Assembly (DFA) è un metodo mirato alla minimizzazione dei costi di assemblaggio, integrandosi con il Design for Manufacturing (DFM). Anche se l’assemblaggio può incidere poco sui costi, la sua ottimizzazione riduce notevolmente numero di parti, complessità del prodotto e costi di supporto. Per calcolare il numero minimo teorico di parti occorre rispondere alle seguenti domande: 1. La parte deve avere un moto relativo rispetto al resto? 2. Deve essere di un materiale diverso per motivi funzionali? 3. Deve essere separata per sostituzione, riparazione o funzionamento (es. fusibili) Se la risposta a queste 3 domande è negativa, abbiamo l’ok TECNICO per poter creare i 3 componenti dello stesso materiale. Rimane da capire se abbiamo anche l’ok ECONOMICO. Riduzione del numero di pezzi da assemblare → Integrazione delle parti Le parti che non sono strettamente necessarie possono essere integrate. I benefici principali includono: Eliminazione dell’assemblaggio: l’assemblaggio avviene direttamente nel processo produttivo. Costi di fabbricazione ridotti: pezzi complessi ottenuti con stampi unici (fusione, iniezione) sono spesso meno costosi di più pezzi semplici. Miglior controllo delle tolleranze: le geometrie critiche sono gestite meglio nel processo di produzione rispetto all’assemblaggio. Tuttavia, l’integrazione delle parti potrebbe non essere sempre vantaggiosa e potrebbe entrare in conflitto con altre strategie di minimizzazione dei costi. Massimizzare la facilità di montaggio → ottimizzare l’assemblaggio seguendo 7+1 linee guida: 1. Z-axis assembly: le parti devono essere assemblate dall’alto, sfruttando la gravità per stabilità e visibilità 2. Auto-allineamento: le parti devono auto-posizionarsi per evitare movimenti lenti e precisi. 3. Nessun orientamento richiesto: parti simmetriche riducono i tempi rispetto a componenti orientabili 4. Facile da maneggiare: parti manipolabili con una sola mano, non troppo grandi o pesanti. 5. Nessuna attrezzatura speciale: l’assemblaggio deve essere semplice e accessibile. 6. Movimenti lineari: l’assemblaggio ideale richiede un singolo movimento diretto. 7. Bloccaggio automatico: le parti devono fissarsi automaticamente. 8. Evitare “nestling” e “tangling”: le parti non devono aggrovigliarsi o annidarsi Metodo dei punteggi (indice DFA) Boothroyd introdusse il concetto di efficienza di assemblaggio (assembly efficiency), calcolato come: [(𝑛𝑢𝑚𝑒𝑟𝑜 𝑚𝑖𝑛𝑖𝑚𝑜 𝑡𝑒𝑜𝑟𝑖𝑐𝑜 𝑑𝑖 𝑝𝑎𝑟𝑡𝑖) ⋅ (3 𝑠𝑒𝑐𝑜𝑛𝑑𝑖)] 𝐷𝐹𝐴𝑖𝑛𝑑𝑒𝑥 = (𝑡𝑒𝑚𝑝𝑜 𝑡𝑜𝑡𝑎𝑙𝑒 𝑑𝑖 𝑎𝑠𝑠𝑒𝑚𝑏𝑙𝑎𝑔𝑔𝑖𝑜) L’indice, che presuppone di avere eseguito l’integrazione delle parti, mette in evidenza quanto scarto esiste tra il tempo minimo teorico per la manipolazione (stimato per convenzione a 3 secondi) ed il tempo impiegato per l’assemblaggio. Serve a capire quali siano le parti maggiormente critiche dal punto di vista dell’assemblaggio. Proprio per il fatto che i 3 secondi sono convenzionali, in rari casi si può avere un DFA>1. RIDURRE I COSTI DI SUPPORTO ALLA PRODUZIONE Progettare secondo i principi del DFM/A può ridurre indirettamente i costi di supporto alla produzione. Meno parti implicano una semplificazione nella gestione dell’inventario e meno operatori necessari per l’assemblaggio, riducendo i costi di supervisione e controllo qualità. Azioni dirette come creare un sistema di produzione semplificato, ad esempio riducendo il numero di fornitori, o minimizzare gli sprechi e gli scarti, abbassando ulteriormente i costi complessivi. VALUTARE L’IMPATTO DEL DFM SU ALTRI ASPETTI Minimizzare i costi di produzione non è l’unico obiettivo. È fondamentale considerare anche: Qualità del prodotto: azioni volte a ridurre i costi di produzione possono migliorare la qualità complessiva in condizioni ideali. Tempi di sviluppo: ritardi nello sviluppo possono avere un costo significativo (es. per un’auto, migliaia di dollari al giorno). Decisioni del DFM che allungano troppo i tempi di sviluppo possono generare svantaggi economici, nonostante i risparmi sulla produzione. Costi di sviluppo: strettamente legati ai tempi di sviluppo, devono essere attentamente valutati per evitare che i risparmi sul prodotto si traducano in perdite complessive. Costi di riutilizzo componente e costi ciclo vita CONCURRENT ENGINEERING La concurrent engineering (CE) si concentra sull’intero ciclo di vita del prodotto, dall’ideazione allo smaltimento. Diversamente dagli approcci tradizionali, la CE integra la progettazione e la produzione fin dall’inizio, evitando modifiche tardive che aumentano tempi e costi. L'obiettivo è creare prodotti di successo comprendendo meglio il cliente e migliorando il dialogo con i fornitori. Principali linee guida del CE: 1. Comprendere il cliente: Comunicare direttamente con i clienti per individuare le loro necessità e tradurle in specifiche di prodotto attraverso strumenti come il Quality Function Deployment (QFD). 2. Team multidisciplinari: Coinvolgere esperti di marketing, produzione, qualità, materiali e finanza per ridurre iterazioni progettuali e migliorare affidabilità e qualità. 3. Integrare il DFM/A: Considerare i vincoli dei processi produttivi fin dall'inizio. 4. Coinvolgere i fornitori: Integrare i fornitori fin dalle prime fasi per sfruttare la loro esperienza sui processi produttivi. 5. Modelli digitali: Usare modelli digitali per accelerare i feedback e migliorare la comunicazione interna. 6. Integrazione CAE/CAM/CAD: Ottimizzare il progetto con strumenti di progettazione assistita. 7. Simulazione: Adottare tecniche come la modellazione FEM per ridurre iterazioni e costi. 8. Qualità e affidabilità: Implementare strumenti come il robust design di Taguchi per evitare errori ripetuti e migliorare la qualità del prodotto. 9. Approccio efficiente: Ridurre la burocrazia e dotare i team di strumenti e competenze adeguati. 10. Miglioramento continuo: Confrontarsi costantemente con la concorrenza e puntare sulla qualità come discriminante. DESIGN FOR MANUFACTURABILITY (DFM) Il DFM punta a progettare un prodotto che sia producibile al minor costo possibile utilizzando i processi produttivi disponibili. Integra la producibilità nelle prime fasi della progettazione, coinvolgendo esperti per evitare modifiche costose a progetto avanzato. Principi del DFM: 1. Semplicità: Meno parti e geometrie più semplici riducono costi, migliorano affidabilità e manutenzione. 2. Materiali e componenti standard: Usare standard per beneficiare della produzione di massa, anche su piccoli lotti, semplificando magazzino e acquisti. 3. Standardizzare la progettazione: Adottare materiali e componenti comuni per prodotti simili, riducendo costi e semplificando il controllo dei processi. 4. Ampliare le tolleranze: Tolleranze troppo strette aumentano i costi di lavorazione, utensili e rilavorazioni. 5. Materiali lavorabili: Preferire materiali pensati per specifiche lavorazioni, come acciai automatici, per ridurre tempi e costi. 6. Collaborazione con esperti di produzione: Coinvolgere esperti per massimizzare i vantaggi produttivi. 7. Evitare operazioni secondarie: tecniche di produzione net shape o near net shape per ridurre scarti e costi (Poka Yoke: tecnica di progettazione che impedisce durante l’assemblaggio di impiegare dei componenti in posti sbagliati che produrrebbero oggetti difettosi) 8. Progettazione in base ai volumi: Scegliere tecnologie produttive adeguate ai lotti, evitando costi inutili. 9. Sfruttare i processi disponibili: Progettare massimizzando le capacità dei processi aziendali. 10. Evitare vincoli produttivi: Disegnare parti indicando solo caratteristiche essenziali, lasciando flessibilità agli esperti di produzione. Implementazione DFM/A: Le aziende devono sviluppare linee guida specifiche per adattare il DFM/A alle proprie capacità e ai fornitori, visti come "fabbriche virtuali", coinvolgere fornitori ed esperti nelle prime fasi progettuali garantisce robustezza e successo del prodotto ed utilizzare strumenti DFM/A e team multidisciplinari. DESIGN FOR QUALITY (DFQ) Negli ultimi decenni, il concetto di qualità si è evoluto significativamente. Negli anni '70, qualità significava semplicemente conformità alle specifiche richieste, enfatizzando il controllo statistico dei processi produttivi. Successivamente, il focus si è spostato sul soddisfare le esigenze dei clienti, utilizzando strumenti come il Quality Function Deployment (QFD), il benchmarking e il Taguchi Quality Engineering. BENCHMARKING Il benchmarking è un processo di confronto tra le prestazioni della propria azienda e quelle dei concorrenti, con l'obiettivo di individuare opportunità di miglioramento. Questo confronto può avvenire tramite società specializzate o attraverso scambi di personale tra aziende simili. L'analisi consente di identificare i punti di forza della concorrenza e settare obiettivi realistici per migliorare le proprie capacità operative. ▪ “Must Be”, ovvero una qualità/proprietà del prodotto che deve essere necessariamente essere tra i requisiti, qualcosa che il cliente vuole e che il prodotto deve soddisfare per forza. ▪ “More is Best”, è una qualità/proprietà del prodotto che più ce n’è meglio è. ▪ “Wow”, il fattore wow è qualcosa che lascia il cliente a bocca a aperta, il fattore sorpresa. QUALITY FUNCTION DEPLOYMENT (QFD) È un approccio centrato sul cliente, mirato a tradurre le sue necessità in specifiche di progetto e processo. La "voce del cliente" può essere raccolta tramite discussioni dirette, osservazioni sul campo, analisi delle richieste o delle garanzie richieste. Il fulcro del QFD è l'uso di strumenti come la House of Quality, una matrice di pianificazione che connette i "cosa" (esigenze del cliente) ai "come" (metodi per soddisfarle). I seguenti passi indicano quella che è la strategia del QFD: Individuare le esigenze del cliente e stabilire un ordine di importanza (tra 1 e 5) → Tradurre tali esigenze in requisiti funzionali significativi dal punto di vista tecnico → Individuare le correlazioni tra esigenze del cliente e caratteristiche tecniche → Compilare la matrice di interazione tra le caratteristiche tecniche → Calcolare i punteggi. TAGUCHI QUALITY ENGINEERING (ROBUST DESIGN) L’approccio di Taguchi si concentra sulla minimizzazione della variabilità dei parametri di progetto che influenzano le performance del prodotto, rendendolo più robusto e meno sensibile ai noise factors (fattori di disturbo), come: variazioni dei materiali, fluttuazioni nei processi produttivi, condizioni ambientali o errato utilizzo del prodotto. Le fasi di lavoro sono 3: 1. Concept Design. Si deve definire l’architettura del sistema in modo che questa sia più insensibile possibile alla variabilità dei fattori di rumore e di controllo. (Ad esempio, se ho la necessità di avere 10 kW non andrò a costruire una centrale solare per approvvigionarmi, in quanto risentirei troppo delle variazioni climatiche, ma costruirò una centrale termoelettrica, che mi assicura sempre lo stesso risultato in ogni condizione climatica). È una fase che richiede esperienza e inventiva da parte del progettista, possono essere utilizzati gli strumenti dell’analisi funzionale e della matrice di correlazione. 2. Parameter Design. Si determinano i valori ottimali dei fattori di controllo cercando di ottenere la minima dipendenza del sistema dai fattori di rumore. Migliora la qualità del prodotto senza però aumentarne il costo. È necessario conoscere come i fattori influenzano la risposta del sistema, e i campi di variazioni di essi. Si possono usare piani sperimentali per conoscerli. Nei prossimi grafici si avrà sull’asse delle ascisse i fattori di controllo, con una propria dispersione e un proprio valor medio, che a seconda della “rigidezza” del sistema (la retta), generano una risposta che può essere o meno dentro delle specifiche. PROGETTO CENTRATO: notare come sia la PROGETTO ORIGINALE: notare come la dispersione dispersione che il valor medio della risposta della risposta del sistema esca dalle specifiche, rientrino dentro le specifiche. Questo potrebbe mentre il valor medio ci casca dentro. andare bene, tuttavia una piccola variazione dell’input, potrebbe portare fuori dalle specifiche. ROBUST DESIGN: Il robust design si basa sul fatto di PROGETTO ORIGINALE: notare che la funzione che modificare i fattori di controllo in modo tale da stima la rigidezza del sistema non è sempre una ottenere una minor variazione possibile delle retta, ma può essere di qualunque tipo. variabili di output del sistema quando varia una variabile di input. I fattori del parameter design sono di vario tipo: ▪ Leveling: spostano solo il valore medio dell’output; (μ) ▪ Scaling: spostano sia il valore medio che la dispersione; (μ e σ) ▪ Control: influenzanti solo la dispersione (quindi modifico la rigidezza del sistema); (σ) ▪ Altri fattori che non influenzano né una né l’altra. (né μ né σ) È possibile svolgere una doppia ottimizzazione, perché non sempre è possibile azzeccare sia il valor medio che la dispersione all’interno della specifica. 3. Tolerance Design: Non è un passaggio obbligatorio del Metodo Taguchi, tuttavia viene utilizzato quando attraverso il parameter design non si è riusciti a ottimizzare il componente. Si tratta di andare a ridurre la dispersione dell’input, ed è molto spesso un bagno di sangue e soldi per tutte le aziende. AXIOMATIC DESIGN (AD) Strumento diffusosi negli anni ’90. Cerca di mettere insieme tutti gli aspetti di robust design e QFD per ottenere un approccio sistematico alla progettazione. AD si basa su quattro domini di progettazione interconnessi: 1. Customer Needs: bisogni dei clienti. 2. Functional Requirements: requisiti tecnici. 3. Design Parameters: variabili fisiche che influenzano la progettazione. 4. Process Variables: variabili di processo. Le informazioni vengono scambiate tra i domini tramite matrici di progettazione (Design Matrices) che analizzano e ottimizzano l'accoppiamento funzionale tra le variabili. Questo processo consente di migliorare il prodotto sia in termini di prestazioni che di costi. Il metodo si fonda su due assiomi fondamentali: 1. Assioma dell'Indipendenza: il miglior progetto che si possa fare è quello rappresentato da una matrice diagonale. Questo significa fisicamente che ciascun FR sia dipendente solo da un DP. Esistono tre casi: 𝐹𝑅1 𝑋 0 0 𝐷𝑃1 Uncoupled: FR totalmente indipendenti, allora matrice diagonale {𝐹𝑅2 } = [ 0 𝑋 0 ] {𝐷𝑃2 } 𝐹𝑅3 0 0 𝑋 𝐷𝑃3 𝐹𝑅1 𝑋 𝑋 𝑋 𝐷𝑃1 Decoupled: FR dipendenti solo se… -> matrice al massimo triangolare { 2 } = [ 0 𝑋 𝑋] {𝐷𝑃2 } 𝐹𝑅 𝐹𝑅3 0 0 𝑋 𝐷𝑃3 𝐹𝑅1 𝑋 𝑋 𝑋 𝐷𝑃1 Coupled: FR totalmente dipendenti, matrice piena. {𝐹𝑅2 } = [𝑋 𝑋 𝑋] {𝐷𝑃2 } 𝐹𝑅3 𝑋 𝑋 𝑋 𝐷𝑃3 L’axiomatic design genera anche delle struttura ad albero che partendo da un FR e un DP scendono a maggiori livelli di dettaglio e maggiore precisione di rappresentazione tramite uno zigzagging. 2. Assioma dell'Informazione: una volta ridotto l'accoppiamento, selezionare la soluzione migliore misurando la capacità di soddisfare le specifiche richieste. Questo assioma si applica a progetti più avanzati, dove il comportamento del sistema è già caratterizzato statisticamente. DESIGN FOR MAINTANABILITY È una tipologia di sviluppo e progettazione del prodotto in cui si sta particolarmente attenti a rendere più agevoli possibile le eventuali manutenzioni. Principi fondamentali: parti e moduli facilmente rimpiazzabili; Accesso veloce, magari tramite snap fit; Procedure semplici senza attrezzi elettrici; Attrezzi comuni e in basso numero; Sensori e indicatori per la diagnosi di manutenzione, che ci dicono cosa è rotto; Poka Yoka per le procedure; Accesso facile; Nessuna/minime regolazioni. DFA - DESIGN FOR ASSEMBLY L’assemblaggio è più che mettere insieme più parti, ma è il processo che in definitiva costituisce il prodotto, mettendo insieme il lavoro di vari reparti dell’azienda. Ci hanno lavorato soprattutto i giapponesi, non è un processo molto studiato perché è principalmente svolto ancora da esseri umani, esseri quindi capaci di risolvere problemi e imprevisti. Sta cominciando a essere studiato ora perché alcune aziende cominciano a usare le macchine per assemblare. Come si può capire dai grafici seguenti, rimane la voce più importante in termini di percentuale di difetti e costi. I robot non vengono molto utilizzati nelle aziende in quanto oggi ad esse viene chiesto di essere flessibili alle variazioni che il mercato chiede. Un’azienda che assegna la produzione o l’assemblaggio ai robot è molto rigida, e cambiare settaggio richiederà tempo e denaro. I robot antropomorfi vengono utilizzati per lavorazioni pericolose per la salute dell’operatore, come saldature e verniciature. Per altre lavorazioni vengono usati i robot SCARA a 3 gradi di libertà (xyz). L’uomo è comunque una macchina troppo sofisticata e versatile per essere sostituita da un robot, noi riusciamo velocemente a valutare la presenza di un problema, e riusciamo a risolverlo in qualche modo. Spiegare matematicamente questo ad una macchina è difficile se non impossibile. STRATEGIE DI ASSEMBLAGGIO 1. Assemblaggio Manuale. È utilizzato per prodotti da complessità bassa ad elevata, per la produzione solitamente in lotti. Le donne sono più usate degli uomini, in quanto hanno una maggiore capacità di concentrazione e compiono meno errori. I componenti da assemblare sono riposti in delle scatole chiamate feeder, che vengono riempiti da un altro operatore o in maniera automatica per evitare di fermare la produzione. Un aspetto molto importante è l’organizzazione dei componenti, che riduce i tempi di manipolazione e eventuali errori (approccio molto spinto dalla Lean Manufacturing). 2. Stazioni Automatiche. Sono state usate a partire dagli anni ‘50 per l’automazione di particolari di piccola dimensione in lotti numerosi. Solitamente sono a giostra (cerchio), poco ingombranti e poco costose. Gli svantaggi principali sono che non sono adattabili e sono molto specifiche per il componente che assemblano. Preferite in alcuni casi alle linee in quanto non interrompono il flusso di materiale e di personale nell’azienda. I feeder sono parti vibranti che fanno scorrere i componenti solo se orientati in un certo modo, sono oggetti molto personalizzati e di artigianato, costano molto. 3. Linee Automatiche. Linea ad elevata automazione e ad altissima rigidezza (si può assemblare solo un tipo prodotto per ciascuna linea). Sono usate per prodotti a media/alta complessità per lotti numerosi. Hanno spazi e ingombri importanti, interrompono il flusso di materiale e personale aziendale. Sono anch’esse alimentata da feeder, e devono avere un’affidabilità enorme (99,99999…9%) in quanto se un componente viene assemblato male devo fermare tutta la linea e quindi la produzione. 4. Sistemi Robotizzati Flessibili. Sono circa uguali alle stazioni automatiche, ma hanno maggior flessibilità e sono più lenti. 5. Sistemi Multi-Robot. Come prima ma possono svolgere più operazioni di assemblaggio. 6. Sistemi Multi-Stazione. La scelta economica del sistema si basa principalmente su 3 fattori: La quantità di prodotti da produrre; In quanto tempo voglio ammortare i costi (payback period); Complessità dell’oggetto da assemblare; VA = Numero di parti da produrre (x1000); NA = Numero di componenti da assemblare; Blu = Macchina rigida speciale; Verde = Linea automatica; Rosso1 = 1 Robot; Rosso 2 = 2 Robot; Marrone = Multi-stazione robot; Giallo = Assemblaggio manuale; KEY CHARACTERISTICS Per pianificare un processo di assemblaggio è necessario mettere in evidenza i KC, cioè i requisiti chiave, e sulla base di questi pensare un assemblaggio che garantisca queste caratteristiche fondamentali che deve avere il prodotto. Vediamo un esempio di una spillatrice: Quali sono le caratteristiche chiave che quest’oggetto deve avere per poter funzionare bene? Senza dubbio ci dovrà essere una tolleranza stretta tra la posizione della spilla, del “martello” e dell’incudine”. Dopo aver trovato le KC, si trova del progetto quelle quote chiave da controllare affinchè si garantisca questa tolleranza. ▪ Gioco tra perno e foro della cerniera (pin); ▪ Distanza rispetto al perno di incudine, martello e spilla; Su oggetti molto complessi, questa può diventare una catena molto lunga, ad esempio nel montaggio delle lamiere di carrozzeria di un’automobile: ad esempio nel montaggio del cofano, per avere un corretto allineamento del cofano con le altre parti, ci si rende conto che è necessario tenere sotto controllo molte quote dimensionali di molti pezzi, è un processo molto dispendioso in termini di tempo e costi. Esiste la possibilità di avere dei KC contrastanti tra di loro, in particolare si riporta l’esempio della portiera di un’auto, che deve garantire un allineamento esteticamente gradevole, ma al contempo deve garantire la tenuta contro le penetrazioni d’acqua. Questo della portiera (o dei montaggi di lamiera in generale) è un problema che è stato studiato approfonditamente dai costruttori d’auto, perché era molto importante. Non esiste tutt’oggi una strategia univoca al montaggio di queste, ma ogni casa produttrice fa a modo suo, avendo i propri svantaggi e vantaggi. Un altro esempio di KC molto illuminante è quello del corpo valvola di un motore alternativo. Per calcolare il KC “gioco valvole”, è necessario calcolare la catena di tolleranze che comprende 5 elementi: Testa cilindro, Albero a camme, Camma, Piede valvola, Valvola. Il KC che una valvola deve rispettare è quello di non avere perdite e chiudere bene in fase di compressione. VINCOLI ASSEMBLAGGIO 1. Uno dei più frequenti errori che un progettista possa commettere nell’assemblaggio è quello di imporre un numero di vincoli o troppo alto o troppo basso. Se il numero e il tipo di vincoli non sono sufficienti a bloccare tutti i gradi di libertà del componente, questo è sotto vincolato, ovvero ha la possibilità di compiere un moto relativo rispetto al resto del prodotto (finestra-telaio, portiera-auto, sono volutamente sotto vincolati). 2. Caso opposto quando più vincoli bloccano uno stesso grado di libertà, in questo caso il montaggio diviene difficoltoso e si ha la possibile nascita di tensioni residue/deformazione (molti prodotti sono sovra- vincolati cosi da mantenere il componente attaccato anche se un vincolo viene meno). Dalla figura si può capire quali sono i vari tipi di assemblaggio possibile: ▪ Sotto vincolato, componente labile rispetto al resto del prodotto, meccanismi, finestra (notare che la finestra in realtà ha più cardini che la renderebbero ipervincolata, tuttavia sono vincoli mal disposti che la rendono comunque labile). ▪ Ben vincolata, isostatico, sarebbe il caso ideale, quello al quale bisogna puntare. ▪ Sovra vincolata, il numero di gradi di vincolo supera il numero di gradi di liberà del componente. a) Interferenza e tensioni residue. (Piastra con 4 fori accoppiata con altri 4 fori); b) Accoppiamento perfetto. (Impossibile da realizzare ma utile per l’analisi) (Sgabello 3 gambe); c) Gioco. I vincoli permettano piccoli spostamenti (Sedia 4 gambe che traballa) Ogni corpo nello spazio ha 6 gradi di libertà, che vengono bloccati da vincoli e giunzioni. Per valutare la mobilità M di un sistema si usa la seguente formula: 𝑀 = 6 ∗ (𝑛 − 𝑔 − 1) + ∑ 𝑓𝑖 dove n = numero di componenti; g = numero di giunti; fi = gradi di libertà liberi per ogni vincolo. Quando invece ogni grado di libertà è bloccato da soltanto un vincolo si ha un assemblaggio “cinematico” che garantisce la stabilità del componente senza produrne delle deformazioni. Esempio di come ha fatto Ford (e a seguito tutti i produttori di auto) a migliorare l’assemblaggio di un sedile: Ogni vite blocca 3 gdl, quindi il sedile ha 6-12=-6 gdl, ovvero ha 6 gradi di iperstaticità. Si può notare come, nel design originale, dopo aver inserito le prime due viti, la terza e la quarte si debbano inserire molto probabilmente a forza generando tensioni e deformazioni, in quanto le tolleranze per esigenze di costi non saranno molto strette. Dopo la reingegnerizzazione, si può vedere come la prima vite si inserisca in un foro uguale ai precedenti, bloccando 3 gdl. Successivamente la seconda vite si inserisce in una sola, che blocca 2 gld. A questo punto al sedile ne rimane solo uno. Ci pensa la terza vite, avvitata in un foro più grande del necessario a toglierlo. La quarta vite a questo punto genera solo un grado di iperstaticità, rendendo il montaggio molto più agevole. La logica di assemblaggio diventa “devo mettere prima i vincoli che tolgono più gradi di libertà, e poi a scalare gli altri”. Tuttavia qualche volta un assemblaggio ipervincolato è utile e funzionale. Ad esempio nel mezzi blindati le piastre della carrozzeria vengono montate con interferenza per generare una tensione residua di compressione per ridurre la creazione e la propagazione della cricca dopo l’urto di un proiettile. Oppure è necessario nel montaggio dei cuscinetti conici a O e a X, per evitare lo smontaggio. L’assemblaggio ipervincolato viene usato anche per avere una migliore distribuzione dei carichi quando il componente è in esercizio. Viene usato il rodaggio, che ha lo scopo di usurare il componente più “stretto” così da rendere perfetto il suo accoppiamento (pistone cilindro, rotismo epicicloidali). Nel caso di assemblaggio di COMPONENTI DEFORMABILI, l’assemblaggio cambia sia le quote che le tolleranze “naturali” dei componenti. Diventa necessario usare un codice agli elementi finiti iterativo che predica la deformazione in funzione della catena di tolleranze. Questo approccio è molto costoso e complesso, richiede competenze notevoli. Una soluzione è quella di ricorrere ad un approccio regressivo su dati di ritorno dal campo per predire il comportamento di deformazione al variare delle tolleranze delle singole quote. Questo permette di costruire un modello matematico che lega le tolleranze alla deformazione. Vediamo un esempio sul montaggio delle ali di un aereo. Nel montaggio dei longheroni di irrigidimento e rinforzo delle ali (dette centine), possono esserci dei problemi di precisione che creano avvallamenti sull’ala che hanno poi cattive influenze sull’aerodinamica dell’ala stessa. Supponendo che le centine iniziale e finale siano perfette, si può avere il problema che la centina sia troppo lunga o troppo corta. Esistono molte soluzioni al problema, la cui scelta è soggettiva all’azienda (tranne la prima che viene sempre scartata): ▪ Le produco tutte per asportazione di truciolo precise al micrometro (troppo costoso); ▪ Potrei dividere le L dalla parte centrale della centina, e assemblare il tutto sul posto. Attenzione perché complico la sequenza di montaggio e sposto il problema delle tolleranze all’allineamento dei fori. ▪ Potrei usare zeppe, poco costoso, devo misurare il gap, quindi posso avere problemi di accessibilità. ▪ Standardizzo la staffa a L, una la monto in fabbrica e l’altra in cantiere, magari con dei prefori. IMPORTANZA DELLA VISIONE Per migliorare l’assemblaggio, si deve garantire una certa facilità di accesso alle parti da cambiare. È necessario avere sempre una visione dell’alto per ridurre i tempi e facilitare il montaggio e deve esserci sempre lo spazio per inserire gli attrezzi. Notare dai due grafici, che nel caso di visione coperta è meglio avere i fori vicini al bordo in modo tale da mandare l’utensile di rivettatura a battuta nel componente (A=0, B=0). Notare che in ogni caso cambia la scala dei tempi. Notare come da una certa distanza in poi i tempi non cambiano più. È molto importante anche il tipo di vite da inserire e se sono presenti inviti o semplificazioni nell’inserimento della vite, sono fattori che possono influenzare molto il tempo di assemblaggio. Ancora, un altro parametro che influenza in questo caso i tempi di serraggio è il tipo di utensile, come si può vedere nella seguente figura. METODI PER STIMARE I TEMPI DI ASSEMBLAGGIO Esistono dei metodi che definiscono delle tabelle che indicano i tempi potenziali di assemblaggio dei componenti. I tempi reali vengono sempre discussi con i sindacati. 1. Metodo Boothroyd. Il codice varia da 00 a 42 e identifica quanto tempo occorre per l’assemblaggio del componente Definisce delle tabelle standard tenendo presente la tipologia di assemblaggio (avvitatura, saldatura, incollaggio etc etc) e la geometria dell’oggetto da assemblare. In particolare la simmetria viene definita da due angoli di simmetria: α – angolo di rotazione che deve fare il componente, attorno ad un asse parallelo alla direzione di inserzione, per avere la stessa geometria (ad esempio in una vite a testa esagonale è 60°). β - angolo di rotazione che deve fare il componente, attorno ad un asse normale alla direzione di inserzione, per avere la stessa geometria (ad esempio in un cilindro è di 180°). In questo modo ogni componente viene identificato da un codice che permette di capire la complessità e i tempi di assemblaggio. 2. Metodo Hitachi. Prevede che ad ogni operazione sia dato un punteggio da 0 a 100, più è complessa l’operazione maggiore sarà il suo punteggio associato. La somma dei punteggi identifica quanto complesso è l’assemblaggio di tutto il prodotto (0 difficilissimo 100 facilissimo). Sono state definite una 30/35 classi di coefficienti. 3. Metodo Westinghouse. Sono le tabelle Boothroyd inserite in un disco che permette una più facile lettura degli indici. La sequenza ottimale di assemblaggio può essere calcolata da molti software. La maggior parte sono di tipo esaustivo, cioè creano tutte le possibili soluzioni di montaggio e successivamente stimano per ognuna un indice di performance, dato da fattibilità, tempo e stabilità di assemblaggio (tramite tab. Boothroyd). Non è facile programmare il software, soprattutto quando è necessario dare dei vincoli di montaggio al prodotto. ASSEMBLAGGIO SELETTIVO È un problema sempre legato alle tolleranze dei componenti. Tutti i componenti che devono essere assemblati sono caratterizzati da una certa variabilità dimensionale. Questa variabilità è responsabile della possibilità di effettuare l’assemblaggio e dei KC. Le possibili strategie sono due: ▪ Cercare di rendere minime le variabilità delle dimensioni dei componenti per ottenere un valore di KC accettabile (significa modificare la dispersione di misura, molto difficile come approccio); ▪ Misurare i componenti e creare degli accoppiamenti ottimali tra essi. Si ha un maggiore costo di controllo e classificazione, ma nessun costo per la riduzione delle variabilità del prodotto. Questa strategia prende il nome di assemblaggio selettivo, e viene impiegata quando è economicamente conveniente rispetto a ridurre la variabilità dei componenti. Viene usata quando le tolleranze dei componenti prodotto sono già molto precise, e non è facile ridurne la variabilità (la dispersione della gaussiana). Si definisce l’iIntercambiabilità di un componente: 1. 100% - i componenti sono sempre assemblabili tra loro (se devo assemblare un componente A con uno B, qualsiasi componente del lotto A prenda, sicuramente sarà assemblabile con un componente del lotto B; Vantaggi: Possibili linee di assemblaggio; Possibili assemblaggio automatici; Gestione pezzi di ricambio semplici; Svantaggi: Tolleranze molto strette necessarie; Capacità di processo più stretta della tolleranza; Costi elevati di produzione; 2. 0% - i componenti sono realizzati su misura (solo nel settore SPACE). 3. 0-100% - soluzioni intermedie. Non tutte le possibili combinazioni di assemblaggio vanno bene per la produzione. In questo caso si ha una percentuale di componenti che dopo aver “mancato” la possibilità di essere assemblati per qualche lotto, vengono scartati. I vantaggi sono legati ai minori costi di produzione dati dalle tolleranze più ampie, ma gli svantaggi sono legati agli accoppiamenti non possibili che aumentano il time-consuming durante l’assemblaggio e talvolta portano alla produzione di scarti. Ovviamente non è possibile utilizzare delle linee automatiche per la produzione. Si usano 3 approccio all’intercambiabilità limitata: a. Selezione diretta: è l’approccio più semplice che richiede la maggiore esperienza da parte dell’operatore. Questo sceglie direttamente i componenti che possono essere assemblati dai cassoni basandosi su una caratteristica superficiale o geometrica che devono riconoscere “a occhio”. L’evidente svantaggio è la notevole perdita di tempo che si ha nel cercare il componente adatto all’assemblaggio, in quanto l’operatore non ha nessun indicatore per valutare quale pezzo prendere. b. Assemblaggio selettivo: si utilizza quando la tolleranza di assemblaggio è più stretta della capacità di processo. In questo caso è necessario creare delle classi di prodotti in funzione delle loro dimensioni, per poter garantire la possibilità di assemblaggio ed il rispetto delle caratteristiche funzionali del prodotto. Così facendo è possibile che la caratteristica di assemblaggio (ad esempio il diametro nell’albero/foro) raggiunga tolleranze molto più strette della capacità di processo, inoltre non sono in genere necessarie verifiche funzionali dell’assemblato. Sottolineo che tutti i componenti devono essere misurati. È conveniente usarlo quando il costo di misura e gestione dei pezzi è minore dell’incremento di costo che si avrebbe per aumentare la precisione nella produzione e quindi l’intercambiabilità. Si distinguono 3 casistiche: i. Capacità di processo di A e B uguale. La quota delle caratteristiche di assemblaggio deve avere un valore che è la differenza dei valori medi delle dispersioni, che in questo caso sono uguali per entrambi i componenti. Si capisce che la capacità di processo è uguale in quanto la dispersione è la stessa per entrambi i componenti (indica la tolleranza che può avere la lavorazione). Si misura tutti i componenti e si suddividono nelle classi 𝑎5 , 𝑎4 , … , 𝑏2 , 𝑏1. A questo punto si assembla i componenti della classe 𝑎5 con quelli della classe 𝑏5 , i quali siamo certi avere la tolleranza richiesta per essere assemblati. Il numero di classi da utilizzare si calcola con la formula: 𝐶𝑎𝑝. 𝑃𝑟𝑜𝑐. 𝐶𝑎𝑝. 𝑃𝑟𝑜𝑐. (𝐴) + 𝐶𝑎𝑝. 𝑃𝑟𝑜𝑐. (𝐵) 𝑛= = 𝑇𝑜𝑙𝑙 𝑇𝑜𝑙𝑙 L’ampiezza della classe si calcola come la frazione della dispersione della produzione (±3𝜎) pari al 99.7% divisa per il numero di classi. ii. Capacità di processi differente, con una uguale alla tolleranza voluta. In questo caso abbiamo una macchina (B) che è capace di produrre con la tolleranza richiesta dal pezzo per l’assemblaggio (quindi genera una dispersione molto più piccola) (potrebbe essere l’elettroerosione), mentre l’altra (A) è classica (fresatura). Si misura al 100% le dimensioni di A e si suddivide come fatto in precedenza in classi di tolleranza. Successivamente, si produce B su misura per A, producendo in numero esatto i pezzi per accoppiarlo con A. Non ho sprechi. Devo avere molti pezzi affinché le gaussiane vengano seguite dalla produzione. iii. Capacità di processo differenti, entrambe peggiori tolleranza richiesta. In questo caso si produce e si misura il componente A, e si suddivide in classi. Si produce più lotti del componente B cercando di avere talmente tanti pezzi da poter approssimare la dispersione a quella di A. È necessario produrre tanti lotti, e molto spesso si hanno moltissimi scarti. iv. Un ulteriore approccio all’assemblaggio selettivo è quello della compensazione. Si produce con tolleranze più ampie possibile, e si introducono elementi di compensazione dell’assemblaggio (spessori calibrati). Il processo è lungo ma permette di utilizzare processi con bassa capacità di processo e successivamente “registrare” il prodotto anche durante il suo normale funzionamento. c. Produzione su misura. È un metodo sostanzialmente primitivo, in cui si producono tutti i componenti tranne uno a dimensione nominale senza fare attenzione alle tolleranze. Si misurano poi tutti i componenti prodotti ed infine si realizza l’ultimo componente con le tolleranze necessarie a garantire l’assemblaggio. Si può usare con profitto nei piccolissimi lotti o nelle riparazioni (ambiente space). TOLLERANZE OTTIMALI DI LAVORAZIONE Definizione di tolleranza: range di misura che si discosta dalla misura nominale entro il quale la dimensione reale del pezzo deve rientrare per essere accettabile, stabilità durante la progettazione. Esistono 3 tipi di tolleranze: ▪ Dimensionale. Sono le quote fisiche, facilmente misurabili con la distanza tra due punti; ▪ Forma. Legate alle features geometriche dei componenti da produrre. Sono più difficili da misurare ed è difficile valutarne l’impatto sulla funzionalità del componente. ▪ Posizione. Sono molto importanti per l’assemblaggio del componente, non è sempre facile misurarle. QUOTE FUNZIONALI Sono quelle quote che hanno un impatto rilevante sulla funzionalità del componente. Ad esempio, come si può vedere nella figura seguente rappresentate un riduttore, la quota funzionale che rappresenta la distanza tra la bronzina e lo spallamento dell’albero è importante perché: ▪ Se presenta gioco, l’albero può scorrere riducendo l’area di contatto tra i denti delle ruote, riducendo quindi la coppia trasmissibile. ▪ Se presenta interferenza, il contatto tra bronzina e spallamento genererà troppo attrito che ridurrà il rendimento del riduttore. Altre quote funzionali nel riduttore possono essere l’interasse tra le ruote dentate o la coassialità tra i fori dei cuscinetti. Le tipologie di accoppiamenti che si possono creare nei componenti meccanici sono incerto, con interferenza e con gioco e dipendono tutti dalle tolleranze presenti sui pezzi. Il problema sorge perché spesso le quote funzionali sono anche quote derivate, ovvero che non sono ascrivibili a una sola lavorazione, ma dipendono da più di una di queste. Si generano quindi delle catene di quote in questa forma (sempre facendo riferimento all’esempio del riduttore): 𝑋𝑓𝑢𝑛𝑧𝑖𝑜𝑛𝑎𝑙𝑒 = 𝑋1 + 𝑋2 − 𝑋3 − 𝑋4 − 𝑋5 Da questa catena di quote è possibile ricava una catena di tolleranze, necessarie per comprendere quella che sarà la tolleranza da dare alla quota funzionale. Esistono molti modi per valutare queste catene, il più usato per la sua semplicità è il criterio WORST CASE. Per determinare la tolleranza funzionale si fa finta che debbano sommarsi tutte le tolleranze della catena di quote: 𝑇𝑓𝑢𝑛𝑧𝑖𝑜𝑛𝑎𝑙𝑒 = 𝑇𝑋1 + 𝑇𝑋2 + 𝑇𝑋3 + 𝑇𝑋4 + 𝑇𝑋5 È un criterio cautelativo, ed è giusto usarlo se le catene sono piccole. Per catene che vanno oltre i 30/40 valori, è anche troppo cautelativo e si usa altri metodi. Attenzione, la nostra semplificazione è molto forte in quanto si considera una sola grandezza funzionale nella catena di tolleranze. Spesso possono essercene più di una. A questo punto è utile distinguere due differenti approcci per procedere: ▪ Analisi: definisco tutte le tolleranze ai componenti a disegno, ne faccio la somma e alla fine vedo se la tolleranza funzionale ha un valore accettabile (altrimenti ricomincio) (la tolleranza funzionale già la conosco). È usato in fase di verifica per controllare che le tolleranze scelte sui singoli componenti siano in grado di garantire le prestazioni richieste. Non viene fatta nessuna ottimizzazione sulle tolleranze dei singoli componenti. La scelta delle tolleranze viene effettuata su valori storici, basati sull’esperienza. ▪ Sintesi: conosco la tolleranza funzionale e assegno alle altre tolleranze un valore che me la rispetti. È un metodo utilizzato dalle aziende che hanno una cultura più sviluppata sulle tolleranze. Si pone l’obiettivo, su base economica, di individuare quelle che sono le tolleranze ottimali sui singoli componenti per garantire la tolleranza funzionale richiesta e minimizzare i costi di produzione. Spesso se la catena di tolleranze era composta da 5 elementi, e la tolleranza dimensionale era di 5 centesimi, si dava 1 centesimo di tolleranza a componente, ma questo non è l’ottimo, perché magari ci sono lavorazioni sui componenti che possono costare molto meno anche con tolleranze più strette. Alcune tolleranze sono ovviamente intoccabili perché provenienti di componenti standard. L’approccio tradizionale era molto Over the Wall, in quanto il progettista metteva tolleranze un po’ a caso e non si preoccupava se la produzione non era in grado di garantirle. Aveva i suoi difetti, ovvero basava la scelta delle tolleranze sull’esperienza, i progettisti non avevano usualmente conoscenza delle capacità di processo delle produzioni e il processo era molto lungo perché spesso iterativo. Il DFM si pone anche l’obiettivo di evitare queste beghe, cercando anche di avvalersi di nuovi strumenti software dedicati, alcuni ancora in via di sviluppo. Questi sono in grado di analizzare le catene di tolleranze sui pezzi, anche se non sono in grado di sceglierle da sole ottimizzando anche i costi. Per la sintesi esistono due diversi tipi di approccio: o Sintesi ottimizzando i costi di produzione. Ha come obiettivo la ricerca della combinazione di tolleranze ottimale dei componenti per garantire la tolleranza funzionale minimizzando i costi di lavorazione. È necessario conoscere la relazione tra costo della lavorazione e tolleranza che questa può garantire (in generale ha un andamento iperbolico). o Sintesi ottimizzando contemporaneamente costi di produzione e di qualità. È un approccio più efficace ma notevolmente più complesso. Si tiene conto anche dei costi di qualità che un componente può avere a causa di una differente tolleranza dimensionale. Questa non viene difatti scelta sulla base delle indicazioni di progetto, ma come compromesso tra costi di produzione e costi di qualità. Sono ovviamente caratterizzati da un comportamento inverso (più stretta è la tolleranza funzionale, maggiori sono i costi di produzione, minori quelli di qualità). Pochissime aziende ne fanno uso, solo dove la produzione è di massa e deve essere di grande qualità (automotive). Per quantificare i costi di produzione si utilizza il Modello di Chase: 𝐵 𝐶 =𝐴+ 𝑘 𝑡 dove A, B e k sono coefficienti che dipendono dalla lavorazione e dalla macchina utilizzata. Non variano solo con la lavorazione, ma sono caratteristici di una specifica macchina all’interno dell’azienda a causa del peculiare percorso di manutenzione, l’utilizzo, i materiali utilizzati. Sono valori che creano la memoria storica aziendale, e vanno aggiornati ogni tanto. PROCEDURA PER LA SINTESI DELLA CATENA DI TOLLERANZE, OTTIMIZZANDO SOLO I COSTI DI PRODUZIONE Inizialmente è necessario calcolare i costi di produzione del componente in funzione della tolleranza funzionale, ma per fare questo è necessario conoscere il costo delle singole lavorazioni e capire come queste sono connesse tramite una catena di tolleranze. I costi di produzione devono essere calcolati in base alla lavorazione scelta e alla tolleranza richiesta al processo. In generale tutte le curve costo-tolleranza hanno un asintoto verticale che rappresenta il limite tecnologico della macchina. Se posso produrre il componente con più processi userò la curva inviluppo delle curve singole per ottenere il minimo. Per calcolare la curva di costo si usa l’ottimizzazione ai minimi quadrati con la curva di Chase, e se dopo questa ottimizzazione si raggiunge il limite tecnologico della lavorazione, posso provare a spostarmi in una lavorazione più performante (con tolleranze più strette) che magari mi costa meno (vedi figura). Nella pratica si deve valutare le curve costo-tolleranza (essenzialmente legato al tempo) per ciascuna lavorazione attraverso dei dati sperimentali. Per questi valori è necessario fare una approssimazione ai minimi quadrati per trovare i valori A, B e k della curva di Chase (con Excel). Successivamente è necessario ottimizzare il sistema che permetta di ottenere una tolleranza funzionale, data dalla somma delle tolleranze dei singoli componenti, al minimo costo, dove il costo è la somma dei costi delle singole lavorazioni (anche in questo caso si può usare un semplice foglio Excel). PROCEDURA PER LA SINTESI DELLA CATENA DI TOLLERANZE, OTTIMIZZANDO I COSTI DI PRODUZIONE E DI QUALITÀ Rendendo le tolleranze più strette, in generale aumentano i costi di produzione, ma aumenta anche la qualità del prodotto che fa ridurre i cosiddetti “Costi di Qualità”. Nasce così un nuovo problema di ottimizzazione a due variabili. Non è facile definire i costi di qualità. Un approccio molto efficace è quello del “dividi et impera”, ovvero si dividono le tolleranze e si valuta l’impatto che ognuna di esse ha nella funzionalità del prodotto. Vediamo l’esempio di questa ruota dentata calettata per interferenza sull’albero. La domanda da porsi è: “cosa succede se cambia l’interferenza?” Se diminuisce ho una graduale diminuzione della coppia trasmissibile fino ad avere lo scalettamento della ruota dall’albero. Se aumenta il pezzo si monta difficilmente e probabilmente quando lo monto si rompe. Alla base di questo studio è quindi necessario conoscere: 1. Modi di non funzionamento del prodotto 2. Per ogni modo il costo associato ad un suo eventuale malfunzionamento (ad esempio lo scalettamento di una ruota ferroviaria sarà più grave dello scalettamento di un riduttore per un ventilatore). Per ogni modo si calcola quindi la probabilità che questo accada ad una data tolleranza ed il costo associato. Si usa la funzione di Taguchi, che prevede un incremento dei costi quadratico allontanandosi dal valore del centro di specifica: 𝐿 = 𝐾(𝑦 − 𝑚)2 Con 𝐾 = costante da determinare, 𝐿 = perdita di qualità, 𝑦 = obiettivo, 𝑚 = valore attuale. Il grafico dell’andamento si può rappresentare come in figura a destra. L’approccio di Taguchi è stato comunque sorpassato dalla statistica. Facendo riferimento all’esempio della ruota dentata visto in precedenza, è possibile che avendo la quota e la tolleranza ottimale di interferenza, questa si scaletti o si rompa comunque? Può dipendere dal coefficiente di attrito, oppure dalla superficie di contatto che dipende a sua volta da un'altra quota. A rottura della ruota può dipendere anche dall’aleatorietà del valore di tensione ammissibile che ha il materiale. Quindi anche se quota e tolleranza sono perfette, possono esserci altre variabili che influenzano la qualità e la funzionalità di un oggetto. Tramite il prodotto di costi associati per il fallimento e la probabilità che il fallimento accada, si trova la curva costi di qualità – tolleranza. Anche se non è sempre vero, devo comunque mettermi in condizioni di avere un valore di tolleranza che mi permetta di stare sicuro al 100%. Resta da sommare i costi di qualità ai costi di produzione, ma come li calcolo? Non posso più usare la curva di Chase, che valeva per una sola lavorazione. Si crea una curva di costi produzione – tolleranza tramite una ottimizzazione punto per punto con la sintesi delle tolleranze. 1. Scelgo una tolleranza funzionale, è tramite la curva di Chase trovo l’ottimo dei costi di produzione per quella tolleranza. 2. Faccio variare la tolleranza funzionale e alla fine trovo una curva che fitta meglio i punti calcolati con il metodo dei minimi quadrati. Adesso ho le curve costi di produzione e costi di qualità versus tolleranza e interferenza. Devo solo sommarle insieme ma parlano lingue differenti, in quanto una è rispetto all’interferenza (differenza di tolleranza dei due componenti), mentre una è rispetto alla tolleranza funzionale del pezzo. Si esegue un cambio di variabile esprimendo i costi di produzione in funzione dell’interferenza (o dell’accoppiamento generale), ottenendo una curva simmetrica rispetto al valore della quota funzionale 𝑋𝐹. Si può notare come prendendo un range di tolleranze stretto (VIOLA), ho costi di produzione elevati, ma costi di qualità bassi, mentre prendendo un range di tolleranze largo (GIALLO), ho costi di produzione bassi ma costi di qualità elevati. Se sommo le due curve trovo le curve di costo totale, trovando anche il range ottimale di tolleranza. A questo punto si valuta tramite la sintesi di tolleranze, le tolleranze da dare ai vari componenti. Worst Case vs. Root Square Statistical (WC vs. RSS) Su catene di tolleranze molto complesse, usare il metodo del Worst Case non è sempre vantaggioso perché spesso può diventare troppo cautelativo. Si utilizza quindi il metodo realistico del Root Square Statistical, dove si ipotizza che la tolleranza funzionale ha una dispersione che segue la legge di propagazione dell’errore, in particolare si ha: 𝑛 𝜎𝐹 = √∑ 𝜎𝑖2 𝑖=1 Dove 𝜎𝑖 sono le dispersioni delle tolleranze dei singoli componenti che definiscono la catena di tolleranze. Una generica lavorazione produce dei componenti che hanno come quota un valore medio 𝜇 e dispersione 𝜎 secondo una distribuzione gaussiana. La tolleranza della macchina (ovvero la capacità di processo) è di circa 𝑇 3𝜎 (pari al 99.7%). La tolleranza viene definita come 𝑇 = 3𝜎, per questo si scrive 𝜎 = è la formula diventa 3 spesso: 𝑛 𝑇𝑖 2 𝜎𝐹 = √∑ ( ) 3 𝑖=1 A livello di calcoli non è difficile, la scelta di WC o RSS dipende da quanto voglio essere cautelativo, in generale RSS è più realistico ma meno dispendioso, mentre il WC è più cautelativo ma costa molto. Lo si può vedere da questo semplice esempio: supponendo di avere 3 lavorazioni con la stessa identica curva di costo, e di avere una tolleranza obiettivo di 0,03 mm si avrebbe: 𝑊𝐶 𝑇1 = 𝑇2 = 𝑇3 = 0,010 𝑚𝑚 𝑇𝐹 𝑅𝑆𝑆 𝑇𝐶 = = 0,017 𝑚𝑚 (il 70% in più‼!) √3 FUNZIONE SENSITIVITÀ Abbiamo considerato finora le catene di tolleranze lineari, vediamo il caso in cui la relazione non lo sia. 𝑋 = √𝐴2 + (𝐶 + 𝐷 − 𝐵)2 𝜕𝑓 2 2 𝜕𝑓 2 𝑇𝑥 = √( ) 𝑇𝐴 + ⋯ + ( ) 𝑇𝐷2 𝜕𝐴 𝜕𝐷 Non è altro che la formulazione generale del problema: se questo è lineare, la sensitività è sempre pari a 1. ALLOCAZIONE SEMPLIFICATA L’approccio di calcolo dei costi di produzione e di qualità è molto complesso e richiede molto tempo per essere messo in atto. Per questo si utilizzano delle soluzioni semplificate che sono più rapide ma meno performanti in termini economici, cioè non calcolano l’ottimo economico della lavorazione. 1. Scalatura proporzionale. Innanzitutto, in una catena di tolleranze, è importante rendere fisse quelle che derivano da componenti standardizzati, ovvero che non decido io. In questa operazione, si diminuisce (o raramente si aumentano) le tolleranze delle varie features che non sono bloccate, proporzionalmente. Vediamo un esempio numerico: La catena di tolleranze è composta da 7 valori (𝐴, … , 𝐺), in cui A, C e G sono fisse perché provenienti da componenti standard. La tolleranza obiettivo che vogliamo è di 0,015 mm. A B C D E F G Iniziale 0,0015 0,008 0,0025 0,0020 0,0060 0,0020 0,0025 Fissata SI NO SI NO NO NO SI La somma attuale dei valori è di 0,0245 mm decisamente superiore alla tolleranza obiettivo. Si procede allora andando a sottrarre dalla tolleranza obiettivo le tolleranze fisse, e successivamente le scalo in maniera proporzionale con P: 0,015 = 0,0015 + 0,0025 + 0,0025 + 𝑃 ∗ (0,008 + 0,002 + 0,006 + 0,002) → 𝑃 = 0.472 Trovo allora la seguente situazione dove i valori finali sono stati trovati moltiplicando gli iniziali per P: A B C D E F G Iniziale 0,0015 0,008 0,0025 0,0020 0,0060 0,0020 0,0025 Fissata SI NO SI NO NO NO SI Finale 0,0015 0,0038 0,0025 0,0010 0,0028 0,0010 0,0025 2. Scalatura con fattori peso. Cerca in qualche modo di risolvere anche il problema dal punto di vista dell’ottimo economico. Si assegna a ciascuna tolleranza un fattore peso arbitrario in base alla difficoltà di realizzazione della suddetta tolleranza. Più è basso il fattore peso, più è facile raggiungere tolleranze strette in quel caso. La funzione della tolleranza finale sarà: 𝑀 𝑁 𝑇𝐹 = ∑ 𝑇𝑖𝐹𝑖𝑠𝑠𝑎 + ∑ 𝑊𝑖 𝑇𝑖𝑛𝑜𝑛 𝐹𝑖𝑠𝑠𝑎 𝑗=1 𝑖=1 A titolo d’esempio, tornando al caso precedente si ha: A B C D E F G Iniziale 0,0015 0,008 0,0025 0,0020 0,0060 0,0020 0,0025 Fissata SI NO SI NO NO NO SI Fattore Peso - 10 - 20 10 20 - Si avrà allora: 10 20 10 20 0,015 = 0,0015 + 0,0025 + 0,0025 + 𝑃 [( ) 0,008 + ( ) 0,002 + ( ) 0,006 + ( ) 0,002] 60 60 60 60 Ovviamente 60 è la somma di tutti i fattori peso assegnati alle tolleranze non fisse. Si è ora in grado di calcolare P: 𝑃 = 2,32 quindi infine si avrà: A B C D E F G Iniziale 0,0015 0,008 0,0025 0,0020 0,0060 0,0020 0,0025 Fissata SI NO SI NO NO NO SI Fattore Peso - 10 - 20 10 20 - Finale 0,0015 0,0031 0,0025 0,0016 0,0023 0,0016 0,0025 Dove le tolleranze finali sono state calcolate con 𝑇𝑓𝑖𝑛𝑎𝑙𝑒 = 𝑃 ∗ 𝑊𝑖 ∗ 𝑇𝑖 La scalatura con fattori peso può essere anche affrontata con il metodo RSS e la formula diventa: 𝑀 𝑁 𝑇𝑓 = √∑ 𝑇2𝐹𝑖𝑠𝑠𝑜 +𝑃 2 ∑(𝑊𝑖 𝑇𝑣𝑎𝑟𝑖𝑎𝑏𝑖𝑙𝑖 )2 𝑗=1 𝑖=1 CASO 3D PROPORZIONALE Nel caso di tolleranza 2D o 3D, il problema si complica nella fase di calcolo della catena di tolleranze, la fase di ottimizzazione rimane invariata. Vengono considerate le sensività delle singole tolleranze sulla tolleranza finale. Si usa il metodo del vector loop illustrato nell’esempio seguente 2D, che considera una ruota libera. Suddetto metodo permette di calcolare la catena di tolleranze partendo dal disegno del componente. La catena è costruita creando dei vettori che partono per le quote significative del prodotto e passano per i punti di contatto. 𝜑 è una tolleranza funzionale ma non è ascrivibile a nessuna lavorazione, è una grandezza derivata = 7° ± 1°. A quali grandezze è associata? Al diametro della sfera, o alla lunghezza della molla. Possono esserci più strade per creare il vector loop, ma si sceglie quella che ha maggiore senso fisico, calcolare la lunghezza di una molla non è sempre semplice. SCELTA DEI MATERIALI La scelta dei materiali differenti da acciaio e ghisa è uno dei più grandi cambiamenti portati da DFM. I materiali vengono scelti con considerazioni economiche. Ciò non vuol dire che il materiale meno costoso sia preferibile, ma il costo totale di acquisto, produzione e servizio deve essere minimo. Non a caso nella progettazione avanzata, il costo del materiale arriva fino al 50% del costo totale del prodotto. Deve essere scelto in modo da garantire le caratteristiche funzionali al minimo costo totale. Il DFM ha introdotto e fatto espandere il mercato e l’uso di materiali non metallici proprio grazie a queste considerazioni. In questo albero rappresentato è fatta una panoramica delle classi e dei materiali più usati nell’ingegneria. REGOLE PER LA SCELTA DEL MATERIALE Uso dei formati commerciali. Si cerca sempre quello più vicino alle specifiche richieste. Uso delle composizioni commerciali. È molto costoso richiedere leghe particolari o con caratteristiche meccaniche non standard. Utilizzo materiali prefiniti. Lasciare volentieri le lavorazioni primarie al fornitore. Utilizzare materiali ad elevata lavorabilità, tipo acciai automatici. Massimizzare l’uso dei materiali riducendo al minimo scarti e sfridi. La domanda che si pone il DFM riguardante l’integrabilità dei componenti del prodotto ha portato a pensare quali sono le caratteristiche veramente irrinunciabili che il componente deve avere. È quindi necessario individuare le caratteristiche richieste al materiale e valutare se materiali simili possono garantire le stesse prestazioni ad un prezzo totale minore. LAVORATI A FREDDO La finitura e le tolleranze generalmente sono migliori sui materiali lavorati a freddo (trafilati, laminati o imbutiti). Si raggiungono tolleranze di 0,06mm e rugosità che vanno da 0,8 a 3 micrometri. Per le piastre e la barre si raggiunge tolleranze ancora più strette, tipo 0,025mm. Per materiali non metallici si hanno tolleranze più elevate a causa della maggiore elasticità del materiale (non è vero per vetro, carbonio e ceramici). La lavorabilità dei materiali lavorati a freddo si riduce rispetto a quelli lavorati a caldo a causa dell’incrudimento del materiale. LAMINATI A CALDO (costa meno perché le forze in gioco sono minori) Sono usati per strutture pesanti, dove non sono richieste rugosità e tollerante particolari. È una delle categorie più usate, costa poco produrli e si ha una elevata scelta di forme, prevalentemente con acciai bassolegati (basso tenore di carbonio), che li rende facilmente lavorabili e saldabili. La lavorabilità di un acciaio dipende sostanzialmente dal suo contenuto di carbonio:

Use Quizgecko on...
Browser
Browser