Chimica dei Nanomateriali 2021-22 PDF

Summary

These lecture notes cover the 2021-2022 course on Nanomaterials Chemistry. The material introduces nanomaterials (0D-3D networks), their historical development, synthesis, properties, and applications. It highlights the importance of surface area in nanomaterials and discusses characterization techniques.

Full Transcript

CHIMICA DEI NANOMATERIALI 2021-22 Prof. Pucci https://unipiit.sharepoint.com/:f:/s/a__td_519312/Ejhl1Tie5sJEuMyMpyJPZiEB3WVKiQDRVzYs2cqzy6TQ3g ?e=zBMM60 1 ...

CHIMICA DEI NANOMATERIALI 2021-22 Prof. Pucci https://unipiit.sharepoint.com/:f:/s/a__td_519312/Ejhl1Tie5sJEuMyMpyJPZiEB3WVKiQDRVzYs2cqzy6TQ3g ?e=zBMM60 1 21/09/2021 Il programma sarà suddiviso in una parte introduttiva relativa ai nanomateriali: - Storia delle nanotecnologie e definizioni - Canni di applicazioni delle nanotecnologie - Introduzione ai nanomateriali (network 0D-3D). D: dimensione 0: indica che per tutte le tre dimensioni che andremo a considerare è rispettato il concetto nano. Nello studio dei materiali si parla di materiali, micromateriali e nanomateriali. Esiste un range (intervallo di dimensione) che ci consente di dire che stiamo studiando un nanomateriale. In letteratura, un nanomateriale ha delle dimensioni comprese tra 1-100 nm. Un micromateriale ha dimensioni che vanno da 100nm in su. In generale, il nostro materiale ha almeno una dimensione all’interno di questa definizione di nanoscala. Questa definizione deriva dalle proprietà dei nanomateriali: all’interno di questo intervallo dimensionale, basta una minima variazione di dimensioni affinchè l’oggetto cambi le sue proprietà. Scendendo nelle dimensioni, ci sarà un esplosione di aria superficiale (quindi cambieranno le caratteristiche del materiale in esame). Il mondo macroscopico è molto poco dominato dalle proprietà della superficie, mentre lo è molto dalle proprietà di volume (bulk). Il numero di atomi che compongono il volume risulta essere superiore rispetto al numero di atomi che compongono la superficie. Questo fa sì che le proprietà legate al volume siano molto più importanti rispetto alle proprietà legate alla superficie. Cosa succede se vado a studiare materiali in cui la superficie inizia a diventare la protagonista, a scapito del volume? Tutte le proprietà che non avevamo considerato (nel mondo macroscopico) prendono il sopravvento per cui, all’interno di questo intervallo abbiamo una variazione enorme di area superficiale ed una variazione enorme di tutte quelle proprietà che, fino al mondo microscopico, noi tendevamo a trascurare. Materiali 0D: per tutte le 3 dimensioni (assi x,y,z) viene rispettato il concetto 1-100 nm. In genere sono nanosfere, nanoparticelle, nanoprismi, nanocubi. Sono degli oggetti che hanno delle dimensioni ridottissime. Parleremo molto di nanoparticelle perché esse permettono di introdurre i concetti di nanoscienza e nanotecnologia. I concetti, definizioni ed equazioni relativi alle nano particelle verranno trasferiti anche ad altri nanomateriali e sistemi nanostrutturati. 2 Un materiale 1 D, è caratterizzato dall’avere, su 3 dimensioni, 2 rispettano le proprietà della nanoscala (1- 100nm) ed 1 no (questa dimensione supera le dimensioni di 100 nm). Questo materiale ha un diametro che sta nel range della nanoscala e può essere lungo anche decine/centinaia di micron, anche millimetri. Questi materiali sono nanofili e nanotubi, a seconda che il materiale presenti una cavità all’interno oppure un volume occupato. I materiali 2 D sono caratterizzati dall’avere una dimensione che rispetta le proprietà della nanoscala (1- 100nm), mentre le altre 2 possono fuoriuscire da questo range. Rientra in questa categoria di materiali il grafene. Esso è un singolo strato di materiale a case di atomi di C e H, che compone la grafite. La grafite è uno degli allotropi del C disponibili in natura. La grafite è costituita da piani di grafene tenuti assieme tramite interazioni secondarie). Un materiale 2D è il piano di grafene, in cui le due dimensioni possono eccedere dal conetto 1-100nm, mentre la nanoscala sta nello spessore. Lo spessore può avere dimensioni atomiche, oppure di piccoli foglietti di grafene impilati tra loro (che stiano nel range della nanoscala). I materiali 3D sono materiali che non rispettano il concetto della nanoscala per tutte le tre dimensioni. Il conetto di nano sta all’interno del materiale. Sono infatti dei materiali porosi, caratterizzati quindi dall’avere dei pori che hanno dimensioni comprese tra 1 e i 100 nm. In natura esistono dei materiali 3D, ovvero le zeoliti. Per ognuno di questi materiali (0D,1D,2D,3D) faremo un’introduzione, un percorso storico, la sintesi, le proprietà e le applicazioni. Per studiare un materiale che ha dimensioni dell’ordine della nanoscala bisogna avere delle apparecchiature particolari e specifiche. Il microscopio ottico ha un limite di risoluzione legato alla lunghezza d’onda che uso per interrogare il materiale. La lunghezza d’onda della luce è dell’ordine delle centinaia di nm, quindi vediamo che questa lunghezza d’onda troppo gande non consente di andare a vedere il dettaglio della nanoscala. Parallelamente alle nanoscienze/nanotecnologie si sono sviluppate delle strumentazioni che permettessero di studiare questi nuovi materiali. Per quanto riguarda la microscopia, siamo passati da un microscopio ottico ad elettronico. L’energia dell’elettrone è elevata e di conseguenza si avrà una lunghezza d’onda piccolissima che permette di abbassare il potere risolutivo del microscopio, permettendo così di andare a studiare la nanoscala. Nel parlare delle proprietà dei nanomateriali dovremmo descrivere alcune tecniche di caratterizzazione. Non saranno solo tecniche microscopiche, ma anche spettroscopiche. La nanoteconogia inizia a svilupparsi negli anni 2000 ed ha avuto una rapida crescita, fino a raggiungere un plateau intorno al 2012. Il concetto Nano deriva dal fatto che sto trattando dei materiali nella nanoscala. Analizzo cosa succede attorno ai 10- 9 m. Perché si parla di controllo? Perché sintetizzare un oggetto di dimensioni comprese tra 10-100 nm non è semplice. Non è semplice nemmeno controllare la stabilità nel tempo. Il filo conduttore del corso sarà quello di riuscire a preparare un nano-oggetto (nanoparticella, nanofilo, nanotubo, nanolayer, nanoporo) e garantirne la stabilità nel tempo. Perché puntualizziamo il concetto di controllo? Nei materiali nanostrutturati, una delle proprietà principali è che la superfice prende il sopravvento sul volume. Questo fatto porta a delle nuove proprietà, ma anche a degli svantaggi. Quanta più superficie produciamo, quanto più il nostro sistema diventa instabile. Bisogna avere controllo perché alla termodinamica non piace un oggetto ricco di superficie: la termodinamica tende 3 a minimizzare al massimo la superficie. Se ho tanta area superficiale, essa cerca di combatterla, in modo da limitare e diminuirla l’area superficiale. Se voglio preparare un oggetto nanostrutturato non devo solo pensare a come prepararlo, ma anche a come fare a renderlo stabile in quanto la termodinamica sfavorirà la sua formazione. Se non pensassi a come stabilizzarlo, la materia si trasformerebbe cercando di abbattere il più possibile questa area superficiale. Storia Chi fu il primo scienziato ad ipotizzare che esistessero dei materiali, appartenenti alla nanoscala, che potessero avere delle proprietà innovative rispetto ai macro-oggetti? Il primo riferimento fu grazie a Richard Feynman (ricercatore americano) che nel 1959 pubblicò un articolo “ C’è tanta roba là in fondo”. Se fossimo in grado di andare a studiare la materia nell’ordine della nanoscala, ci sarebbero tantissimo proprietà che non siamo in grado di prevedere. Man a mano che la dimensione diventava più piccola, la gravità sarebbe diventata meno importante. La gravità è uno dei primi concetti che noi associamo al volume. Le proprietà di superficie, come la tensione superficiale, ma anche quelle come le banalissime forze di van der Waals, possono prendere il sopravvento rispetto alle forze di bulk (come la gravità). Forze di van der Waals: legate ai legami secondari, sono delle forze attrattive che esistono sempre a causa del fatto che si possono avere dei dipoli temporanei anche in sostanze apolari. Nel 1974 il prof. giapponese Norio Taniguchi, coniò il termine “nanotecnologia”. Essa era un processo di separazione, consolidamento, deformazione di materiali atomo per atomo o molecola per molecola. Egli fu tra i primi a capire che l’uomo potesse essere in grado di controllare e guidare l’assemblaggio atomo per atomo, finoal raggiungimento della nanoscala. Nel 1977 Eric Drexler (ricercatore del MIT di Boston) parlò di nanotecnologia, come la capacità (a livello molecolare) di gestire e spostare gli atomi su scala atomica, in modo da creare un sistema che ha dimensioni nano (10-9 m). Nel 1985 ci fu la scoperta del C60, chiamato fullerene. Esso è una delle forme allotropiche del carbonio artificiale. Gli atomi di carbonio sono legati tra loro in modo simile alla grafite (in termini di struttura atomica), in quanto sono atomi di carbonio ibridati sp2. Grazie a questa struttura a nido d’ape, altamente coniugata, questo C60 (60 perché costituito da 60 atomi di carbonio) aveva un diametro delle dimensioni dei nm, è un semiconduttore (conduce elettricità) e viene usato nelle celle solari organiche come accettore di densità elettronica. Nel 1986 si mossero alcune ditte, come l’IBM di Zurigo, e venne prodotto il Microscopio a scansione ad effetto tunnel (STM). Si tratta di un microscopio a contatto, in grado di avere una risoluzione dell’ordine dei nm, cioè in grado di andare a investigare i nuovi nanomateriali. Nel 1991 ci fu la scoperta dei nanotubi di carbonio, ad opera di un ricercatore giapponese. Egli lavorava nel settore di ricerca di telefonini. Egli si occupava di sintesi di fullereni, tuttavia essa veniva condotta grazie ad un processo che prende il nome di Acquo elettrico. Una tremenda scarica elettrica tra due elettrodi di grafite, a causa della scarica elettrica si innalzava moltissimo la temperatura e si aveva la vaporizzazione del carbonio con la conseguente formazione dei fullereni ed una serie di sottoprodotti. Iijima fu il primo ad andare a studiare i sottoprodotti e trovò che si formavano, oltre alle nanoparticelle (0D), anche materiali 1D. Si formavano questi tubuli cavi a base di carbonio, ovvero i nanotubi di carbonio. Dal 1993 in poi crebbero i primi laboratori, i primi stanziamenti anche da parte della comunità europea, scoperta di nuovi materiali. 4 Nel 2005 ci fu l’isolamento di un singolo strato di grafene. Nel diamante ci sono atomi di C sp3 disposti in un reticolo cristallino e legati tramite legami covalenti. Nella grafite abbiamo dei piani di grafene, atomi di C sp2 tenuti insieme da delle interazioni secondarie. Scrivendo con una matita sfaldiamo la grafite in placchette di grafite con degli spessori sempre più ridotti. Nel 2010 fu dato il premio Nobel per gli esperimenti sul grafene, in quanto furono tra i primi ad isolare uno strato di grafene sufficientemente grande ed intatto. Riuscirono a caratterizzare sperimentalmente, con misure di conducibilità elettrica perchè il grafene è un semiconduttore che ha un comportamento metallico. Un singolo strato di grafene ha delle eccellenti proprietà dal punto di vista della conducibilità elettrica. Le nanotecnologie furono scoperte già nel IV secolo. La coppa di Licurgo è caratterizzata dall’avere un doppio colore. Se si guarda con un’illuminazione esterna, essa ha una colorazione verde-gialla; se invece viene illuminata dall’interno ha una colorazione rossa-violetta. Questo è dovuto al fatto che gli antichi lavoratori del vetro usavano colorare il vetro usando dei metalli. Il vetro contaminato da dei metalli nobili (oro, argento ed altri) facevano acquisire al vetro delle particolari colorazioni. Ad oggi sappiamo che questo vetro contiene del metallo sotto forma di nanoparticelle. Queste sono in grado di far comportare il metallo in un modo differente da quanto ci immagineremo. Se prendiamo l’oro o l’argento, essi riflettono la radiazione elettromagnetica. Grazie al legame metallico, gli elettroni di legame assorbono e sparano indietro la radiazione elettromagnetica. Se invece il metallo viene sintetizzato in dimensioni nanometriche, il comportamento di questi elettroni sulla superficie della nanoparticella, avranno un’interazione differente con la radiazione elettromagnetica. Si attivano dei nuovi sistemi di interazione luce-elettrone che porta far avere un comportamento di assorbimento della radiazione elettromagnetica. Se il metallo viene illuminato da una sorgente, esso è in grado di assorbire un colore. Non ci sono solo i fenomeni di assorbimento che vanno a influenzare questi sistemi, ma anche fenomeni di diffusione della radiazione elettromagnetica (scattering). Quando abbiamo una dispersione di particelle liquide nell’aria (nebbia), sappiamo che abbiamo dei fenomeni di diffusione della radiazione elettromagnetica, causati dal fatto che l’oggetto inizia ad avere delle dimensioni dell’ordine della lunghezza d’onda della luce. Quando la lunghezza d’onda della luce va ad interrogare un corpo con delle dimensioni simili alla sua lunghezza d’onda, sappiamo che possono aver luogo dei fenomeni di interferenza e diffusione della radiazione elettromagnetica. Chi studia le nanoscienze e le nanotecnologie? Nel periodo Gennaio-Luglio 2008, l’autore di Nature nanotechnology creò una mappa tenendo conto di due aspetti: - Chi pubblicava, qual era la sua istituzione - Con chi pubblicava Ci sono tanti spot di colore diverso ed ogni spot è attribuito ad una scienza diversa. Nero= materiali; blu= chimica, celeste=ingegneria ecc. Più grosso è lo spot, più autori di quel settore scientifico hanno pubblicato su un dato argomento. Ci sono anche delle interconnessioni che indicano il fatto che, ad esempio, il chimico ha dovuto dialogare tanto con lo scienziato dei materiali o con chi si occupava di biomedicina. Chi si occupava di biomedicina ha a sua volta dovuto dialogare con chi si occupava di medicina clinica ecc. Questo ci fa capire 5 che le nanoscienze e le nanotecnologie sono scienze multidisciplinari. Il Chimico è in grado di sintetizzare il materiale, ma ha bisogno del fisico per mettere a punto un sistema di misura/analisi; ha bisogno di un ingegnere per fare uno scale up dimensionale; ha bisogno di un biologo o medico se l’applicazione di quel nanosistema va nella direzione medica. In questa figura sono mostrati dei prismi di dimensioni differenti. Andando a contare il numero di atomi che compongono il prisma ed il numero di atomi esposi in superfice di che cosa mi accorgo? Un prisma costituito da 562 atomi ha il 45% di atomi esposti in superficie. Scendendo progressivamente di dimensioni, il numero di atomi esposti in superficie aumenta drasticamente. Scendendo verso il nano aumenta il rapporto superficie/volume. Un atomo in superficie non ha completa la sua sfera di coordinazione. Sarà quindi più nudo e molto più reattivo rispetto agli atomi del bulk. Siccome sono più reattivi cercano di stabilizzare la superficie. Questo discorso spiega per quale motivo la termodinamica rema contro alla formazione di nanomateriali. In natura esistono nanomateriali? I nuovi materiali, in genere, nascono perché l’umo cerca di replicare i materiali naturali. - formica: 5mm - diametro capello umano: 60 micron - globulo rosso : 7-8 micron - DNA: dimensioni nanometriche - Eliche del DNA: unità dei nanometri Le nanoscienze e nanotecnologie cercano di prendere spunto da processi, fenomeni e materiali presenti in natura. Le zeoliti sono materiali naturali, che sono state replicate ed adattate alle nuove esigenze ed applicazioni. Il gecko può aderire anche in verticale su vari tipi di superficie. Andando a studiare il meccanismo con cui egli rimane attaccato, abbiamo un esempio di nanoingegneria. Andando a vedere la composizione delle zampe del gecko, si osserva la presenza di un milione di sottilissime setole che hanno un diametro al di sotto dei 10nm. C’è una foresta di setole in grado di andare ad interagire con tutte le tipologie di superficie. Questo perché vengono fruttate le forze di vdW. Una singola forza di van de Waals vale pochissimo, ma essa viene moltiplicata per il milione di punti di aderenza (setole), per cui, essendo il gecko leggero, esso riesce a stare attaccato alle superfici. Avendo tantissime setole di dimensioni piccolissime, ho una esplosione di area superficiale (ho massimizzato la superficie di contatto). Il fatto che si abbiano delle interazioni secondarie garantisce la reversibilità del processo: grazie alla potenza dei suoi muscoli può rompere queste interazioni e generarne delle nuove, spostandosi sulla superfice. 6 Anche il nostro corpo agisce così: quando stiamo troppo immersi nell’acqua succede che il nostro corpo passa da essere una superfice liscia ad una ondulata. Viene aumentata la superficie di contatto perché il nostro corpo capisce che la sensazione tattile è peggiore, quindi cerca di abituarsi al nuovo ambiente in modo da poter riacquisire la stessa sensibilità ed adesione anche sott’acqua. L’unico modo che ha è quello di incrementare l’area superficiale. Un altro esempio sono le cavità: come mai le cavità sono sempre piene di gas? Che interazioni ci possono essere tra un gas ed una cavità solida? Perché devo fare il vuoto, spendendo energia? Ci sono anche in questo caso le forze di vdW che si attivano tra molecole di gas e serbatoi, pori ecc. La natura non ha il vuoto grazie alle forze di vdW. Queste forze sono sempre state trascurare, ma se si scende di dimensioni queste forze sono più presenti e non trascurabili. Anche il nostro corpo è un esempio di materiali nanostrutturati: dente, osso della colonna vertebrale. Sono un composito tra un biopolimero (che ha delle caratteristiche soft) che deve essere rinforzato. Per rinforzare vengono usate delle cariche minerali (fosfati a base di calcio). Andando a vedere come sono disposte questi fosfati a base di calcio, si vede che la struttura è dell’ordine dei 100 nm. Anche in questo caso abbiamo degli esempi di materiali compositi contenenti delle nanostrutture. Come mai è intervenuto l’uomo nei nanomateriali? La natura gestisce e controlla tutti quei materiali e processi che avvengono in condizioni fisiologiche. Non possono essere sopportate le alte temperature e non è compatibile con i conduttori metallici. Si prende quindi esempio dalla natura per poter generare dei nuovi materiali. Come posso ottenere un nanomateriale? 1) Approccio top down. Prendo un materiale macroscopico e lo disgrego (rompo) fino ad arrivare alla nanoscala. Si tratta di un approccio di natura fisica. 2) Approccio bottom up. Parto dai precursori del nanomateriale (atomi o ioni) e li combino tra loro fino a quando arrivo alle dimensioni tra 1 e 100nm, momento in cui fermo la crescita del materiale. Si tratta di un approccio chimico. L’approccio bottom-up, laddove sia possibile utilizzarlo, funziona molto bene perché consente di controllare molto bene le dimensioni della nanoscala. Non è solo importante riuscire ad ottenere 10nm come valore medio. La differenza tra questi due sistemi è la Gaussiana, ovvero la dispersione del valore medio. Quello di dx è migliore! È importante saper sintetizzare bene un nanomateriale: - ottenere una media del valore delle dimensioni (nm) che vogliamo ottenere - avere una scarsa dispersione delle dimensione dal valore medio Perché questo è importante? Perché le nanoscienze sono caratterizzate dal range 1-100nm. Se io vario di poco le dimensioni dell’oggetto, posso osservare una variazione consistente delle proprietà dell’oggetto stesso. È quindi importante avere un controllo della dispersione delle dimensioni in quando posso così ottenere una singola proprietà, piuttosto che una miscela di proprietà. - riuscire a controllare la stabilità delle dimensioni del nanomateriale nel tempo. 7 Se non ho un controllo delle dimensioni, queste particelle iniziano ad interagire tra loro, guidate dalla termodinamica, ed alla fine, da tante particelle di diametro piccolo, ne otterrò una sola di diametro molto più grande. Questo per via della termodinamica. L’approccio bottom-up è quello preferito dal chimico perché c’è un controllo migliore, soprattutto delle dimensioni. Si riesce anche a controllare il valore della dispersione rispetto al valore medio. Di tutti i materiali che studieremo, vedremo che esso è quello preferito, tranne che in un caso: il grafene. Il grafene è 2D e viene preferito un approccio top-down per una ragione di costi. La grafite è abbondantissima sulla crosta terrestre (basso costo), per cui appare più conveniente isolare uno strato di grafene dalla grafite piuttosto che sintetizzarlo a partire da atomi di carbonio e idrogeni. Studieremo entrambi gli approcci (bottom-up e top-down). Gli atomi in superficie sono molto più reattivi (perché manca la coordinazione rispetto agli atomi nel bulk). Hanno più energia superficiale e questa, normalizzata per l’area superficiale prende il nome di tensione superficiale. La tensione superficiale è l’energia della superficie di un oggetto diviso la superficie totale dell’oggetto. Prende il nome di “tensione” superficiale perché questi atomi è come se fossero in tensione, perché è come se cercassero di andare verso l’interno per cercare di completare la loro sfera di coordinazione. Questa voglia di questi atomi in superficie di andare verso l’interno genera una tensione sulla superficie: è come se ci fosse uno strato rigido. Noi non ce ne accorgiamo, ma se ne accorgono i piccoli insetti che possono stare sulla superficie grazie al loro piccolo peso. Questa tensione genera uno strato superficiale energetico ed insetti ed oggetti di piccolo peso riescono ad interagire con la superficie. Come posso calcolare l’energia superficiale? Abbiamo visto che diminuendo le dimensioni in qualche modo raddoppio la superficie ed ho tanti atomi su di essa: mi immagino che l’energia superficiale aumenti. Dal punto di vista termodinamico la tensione superficiale può essere calcolata come un lavoro. Per creare superficie ho bisogno di rompere il materiale e quindi di rompere dei legami. Per rompere questo materiale (parallelepipedo), supponendo di tagliarlo a metà con una lama, mi servirà dell’energia. Questa energia viene tradotta in energia necessaria per la rottura dei legami, in modo da poter generare una nuova superficie. Questa energia superficiale però non viene calcolata solo considerando l’energia necessaria per rompere i legami, ma aggiungendo il fattore legato alla perdita totale della coordinazione degli atomi in superficie. Il lavoro necessario per creare una nuova unità di superficie è il lavoro necessario per rompere i legami e per considerare la mancanza di coordinazione. Si calcola con una formula empirica. Sappiamo che un materiale solido inorganico (come un cristallo) è costituito da più piani cristallini ( a seconda del grado di simmetria e della disposizione degli atomi all’interno del cristallo). Vedremo che non tutti i piani cristallini hanno la stessa energia. Potremo sfruttare questo 8 concetto per preparare da delle nanoparticelle degli oggetti monodimensionali. La formula che applicheremo per capire questa energia ci servirà per capire come mai piani diversi hanno energia superficiale diversa. C’è un rovescio della medaglia, ovvero che se il sistema è più instabile è più reattivo. In superficie ho più atomi più reattivi (per colmare la loro deficienza ellettronica), quindi fanno di tutto pur di accaparrarsi densità elettronica. Quando sintetizziamo un nuovo materiale dobbiamo trovare un modo per stabilizzarlo, in modo da poterlo sfruttare nelle applicazioni industriali. Quali sono i metodi per stabilizzare la superficie? Bisogna limitare la stabilità della superficie. Questi metodi possono essere applicati ai vari nanomateriali. Esistono dei metodi di stabilizzazione elettrostatici- cinetici e dei metodi di stabilizzazione sterica – polimerica – termonimica – etropica. Quali sono le nuove proprietà fisiche e chimiche dei “nano oggetti”, che derivano dall’aumento dell’area superficiale e dalla maggiore reattività?? Sono proprietà ottiche, elettriche, magnetiche, meccaniche, catalitiche, fotocatalitiche. L’avvento delle nanotecnologie ha creato una serie di oggetti con proprietà avanzate e nuove, che possono essere applicate in ambiti diversi. Se massimizzo l’area superficiale incremento l’attività di un catalizzatore. I Nano catalizzatori hanno un’elevatissima attività e selettività in tantissimi ambiti di applicazione. Ambito ambientale: marmitte catalitiche, depurazione e climatizzazione, celle a combustibile. Vediamo un esempio di proprietà catalitiche. Una nanoparticella di ossido di titanio. Siamo circondati dal TiO2, i pigmenti bianchi dei muri contengono TiO2. Scendendo di dimensioni questo biossido di titanio acquisisce delle nuove proprietà poiché la sua energia superficiale diventa importante. Anche il biossido in forma micrometrica aveva delle proprietà, ma in forma di nano particella ne assume di nuove. Il biossido di titanio è un materiale semiconduttore. Normalmente, prendendo un materiale qualsiasi, un elettrone può passare dalla banda di valenza alla banda di conduzione, in seguito all’acquisizione di un pacchetto energia. La banda di valenza viene chiamata anche HOMO (highest occupied molecular orbital); la banda di conduzione LUMO (lowest unoccupied molecular orbital). Posso quindi descrivere un materiale come isolante, semiconduttore o conduttore. In un materiale conduttore (metallo) la BV e la BC si toccano (sono attaccate), quindi l’elettrone può passare da una banda all’altra anche a T ambiente, in maniera libera. 9 Se l’energy gap è altissimo, a T ambiente gli elettroni non saranno in grado di saltare dalla banda di valenza alla banda di conduzione. Bisogna fornire una certa quantità di energia (surplus di energia) per renderlo conduttivo, ma se il gap è troppo alto, l’energia che dovremmo fornire sarà così elevata da far degradare il materiale. In questo caso non potrò mai rendere il materiale in esame conduttore. Infatti i materiali polimerici organici fanno parte degli isolanti e possono essere usati per avvolgere i materiali conduttivi, per non farci prendere la scossa. In una situazione intermedia ho i semiconduttori, posso promuovere un certo elettrone con una energia (sotto forma di calore o energia luminosa) non elevatissima (perché il gap non è elevatissimo). Qui la banda di valenza si caricherà positivamente perché le manca un elettrone e la BC sarà carica negativamente: si crea una coppia buca-elettrone (positiva-negativa). Cosa succede se questi fenomeni nascono sulla superficie? Supponiamo di avere una particella e supponiamo di avere questi atomi che ricevono densità elettronica dall’esterno. Si va quindi a generare una buca-elettrone in prossimità della superficie e quindi avremo zone ricche di cariche negative e positive. Questi sono punti ad elevata reattività. Sulla superficie possono esserci delle contaminazioni atmosferiche, contaminazioni di materiale organico, si può avere acqua (umidità dell’aria) e questa in presenza di buche o elettroni può reagire generando radicali liberi (come OH. ). Sappiamo che questi radicali liberi sono reattivi con le sostanze organiche. Questi nanomateriali di TiO2 hanno un band gap tale da essere facilmente eccitati da una radiazione elettromagnetica (come la luce), da generare queste buche – elettroni in superficie (perché ho una elevata area superficiale). Se sulla superficie ho dei contaminanti (anche atmosferici), allora posso abbattere la carica inquinante semplicemente andando ad irraggiando con la luce. L’oro scendendo di dimensioni acquista una nuova superficie, dei nuovi colori e delle proprietà diverse. Dimensioni diverse, nell’ambito dei nanometri, porta a colori diversi non solo in assorbimento. Esistono altri semiconduttori oltre al TiO2, non ossidi, chiamati punti quantici: quantum dots. Essi sono dei nanocristalli altamente fluorescenti con cui vengono fatti i televisori. I televisori QLED sono basati su diodi ad emissione di luce. Mando un impulso elettrico tale da far passare un elettrone dalla banda di valenza alla banda di conduzione. Questo elettrone torna alla banda di valenza diseccitandosi ed emettendo luce. Questi televisori sono fatti a base di nanocristalli (quantum dots). 22/09/21 C’è stata una crescita delle nanoscienze per via delle proprietà di conducibilità elettrica: non solo metalli, ma anche semiconduttori nanostrutturati. Questo ha garantito una evoluzione della tecnologia: prestazioni dei dispositivi elettronici e rimpicciolimento delle dimensioni. La legge di Moore è questa descritta nella slide. Nel grafico vengono messa in relazione la potenza di calcolo di alcuni processori in funzione degli anni. Un esempio è l’evoluzione della telefonia cellulare. Inizialmente si pensava che più piccolo, meglio era. Poi si comprese che poteva essere usato anche per lavorare. Anche le SIM sono diminuite di dimensioni, non a discapito delle prestazioni. 10 Dove possiamo andare? L’oggetto nano, che risulta essere più performante di un oggetto macro- microscopico, verrà sostituito da qualcos’altro? Ci sarà una fine della legge di Moore, ovvero di questa legge esponenziale della crescita della tecnologia? Si pensa di si. Quando studieremo la conducibilità elettrica dei nanomateriali vedremo che scendendo verso il nano essa viene modificata, per cui si avrà una conducibilità balistica. Essa non avviene per processi diffusivi, ma il passaggio dell’elettrone avrà un limite. Particelle di ossido di ferro. Sono magnetiche. Cosa succede se scendo fino alle dimensioni nano? In presenza di un campo magnetico esse si possono orientare e possono quindi essere guidate. Possono essere usate come agenti di contrasto in MRI (risonanza magnetica imaging), possono essere veicoli di farmaci nel tessuto malato. Queste nanoparticelle vengono inserite nel corpo e, grazie ai campi magnetici vengono guidate già durante la risonanza. Il farmaco viene legato alle nanoparticelle, che essendo molto reattive possono agganciare il farmaco di interesse. Possono essere usati come mezzo per la rimozione di inquinanti metallici o interagenti con i campi magnetici lo strato stabilizzante delle acque. Impiegheremo molto tempo nel discutere la chimica dei nanomateriali a base di carbonio. Sappiamo modificare una sostanza a base di atomi di C e conosciamo la reattività degli atomi di C sp 2. Possiamo usare le reazioni che conosciamo per andare a modificare questi nanomateriali a base di carbonio. Tossicità dei Nanomateriali Questi materiali, già in fase di produzione, possono essere tossici nei confronti dell’operatore? Possono essere tossici nell’utilizzo o a fine vita? Dobbiamo saperlo perché essendo le dimensione così piccola, essi possono penetrare nel nostro corpo (pelle, apparato respiratorio, organi). Ad esempio, particelle di silice causano malattie come la silicosi; particelle inorganiche di amianto causano malattie. Se si trattano micropolveri (come gel di silice) bisogna mettersi delle maschere perché fanno male. C’è una parte di nanoscienze e nanotecnologie che si occupa di studiare la citotossicità e i possibili danni derivanti dal contatto con le nanoparticelle. Tecniche di preparazione e proprietà dei sistemi nanostrutturati 0D Qual è il filo conduttore? 1) Introduzione e definizioni 2) Dimensioni e superficie 11 3) Stabilizzazione cinetica e termodinamica 4) Sintesi 5) Nucleazione 6) Agenti di capping I protagonisti sono i materiali 0D: zero-dimensional-nanostructures Noi faremmo una trattazione semplificata: l’oggetto più semplice da trattare è una sfera. Quindi spesso ipotizzeremo di dover trattare una nanosfera. In tutte e 3 le dimensioni questi materiali rispettano le dimensioni 1-100nm: abbiamo nanocubi, nanoprismi, nanoparticelle in generale. Le applicazioni delle nanoparticelle sono moltissime: ambito ambientale, catalitico (industriale), settore elettronica, agricoltura, creme di bellezza, settore biomedico, settore tessile ecc. Ambito ambientale: rimozione di inquinanti dalle acque In alcune sale operatorie le pareti sono verniciate con TiO2, per cui, al termine dell’operazione, per disinfettare la stanza vengono accese delle lampare che eccitano le nanoparticelle ed i radicali liberi che si formano riescono ad abbattere la carica batterica. Energie rinnovabili: queste particelle riescono a velocizzare alcuni processi e quindi incrementare le prestazioni Definizioni Nanopolvere: le particelle non sono riuscite ad assemblarsi con un ordine ben preciso. Non sono riuscite a generare una fase cristallina, motivo per cui sono amorfe. Nanocristallo: è il contrario della nanopolvere. È una nanoparticella cristallina Parleremo più di nanocristalli che si nanopolveri perché ii primi hanno proprietà migliori rispetto alle seconde. Nanocluster è un caso particolare di nanocristallo. Si intende una nanoparticella cristallina di dimensioni ridottissime, sotto i 10 nm (pochi atomi). Colloide: è una definizione generica. Una NP può essere un colloide, ma un colloide può non essere una NP. Perché un colloide è una particella dispersa in un’altra fase con dimensioni comprese tra gli 1 e 1000nm (si va verso il micro). Un colloide può avere dimensioni maggiori di 100nm. Le dispersioni colloidali furono studiate ben prima dell’avvento delle nanoparticelle. Le nanoparticelle non sono altro che dei colloidi molto piccoli. La scienza dei colloidi è relativa a particelle con dimensioni attorno ai micron. Esempi di colloidi Che cosa sono le dispersioni colloidali? Sono dei materiali eterofasici. Sono particelle che hanno dimensioni comprese tra 1nm ed 1 micron. Sono essere solide, liquide e gassose. Con il termine colloide non si va a identificare con precisione lo stato fisico, ma le dimensioni di questo oggetto. Questo oggetto è disperso in un’altra fase che può essere liquida, solida o gassosa. Colloide e nanoparticella sono accomunate dal fatto di 12 essere delle particelle disperse in un mezzo. Dispersione è un concetto diverso dalla soluzione (e solubilità). Una soluzione è caratterizzata dall’avere un’unica fase: la termodinamica dice che abbiamo una fase in cui l’atomo è disciolto e non posso identificare due fasi distinte. Quando parlo di nanoparticelle o colloidi non parlo di soluzioni, ma di dispersioni. Il dentifricio è abrasivo perché contiene polvere di marmo: si ha una dispersione di particelle solide (colloidali) in una matrice liquida e si forma una pasta. Il fumo è una fase dispersa (particelle solide) all’interno di un gas (atmosfera). Sono tutte dispersioni perché i due mezzi sono incompatibili: le loro fasi rimangono distinte. Possiamo lavorare incrementandone l’area superficiale ( la superficie di contatto tra i due mezzi), sbattendo. La scienza dei nanosistemi prende in prestito dei concetti dalla scienza dei colloidi perché si hanno alcune problematiche simili, legate all’incremento dell’area superficiale. L’emulsione è il mondo della scienza dei colloidi: sono dispersioni di due fluidi (spesso) incompatibili tra loro. Vengono resi stabili grazie alla scienza delle superfici. Quando di parla di nano-dispersioni i concetti relativi a stabilità, termodinamica e la formazione sono gli stessi per i sistemi colloidali. Nanoparticelle: superfici e stabilità 13 Cosa succede al rapporto degli atomi di superficie con quelli di volume se si diminuiscono le dimensioni? Aumenta enormemente il numero degli atomi superficiali. C’è un vantaggio per i fenomeni che accadono sulla superficie, ma svantaggio della stabilità del sistema (questi atomi sono molto più reattivi di quelli del bulk). Uno dei parametri da tenere in considerazione è l’energia del sistema e della superficie. Devo andare a valutare l’energia superficiale, cioè l’energia superficiale per unità di superficie. Da un punto di vista termodinamico, la tensione superficiale viene definita. Siccome spostare un atomo dall’interno della particella alla superficie comporta una spesa in termini energetici perché bisogna dislocare un atomo che ha tutta la sfera di coordinazione completa e bisogna portarlo in superficie , dove quell’atomo non potrà raggiungere la stessa coordinazione iniziale. L’energia che dobbiamo spendere è quantificata come il lavoro che dobbiamo fare per portare l’atomo dal volume alla superficie per fare incrementare la superficie di un certo delta. Nell’espressione dWs = - γdA, l’A è la superficie dA è il pezzettino di superficie in più che abbiamo generato con questo processo. γ è la costante che rapporta il lavoro che spendiamo con la superficie guadagnata ed è definita come tensione superficiale. La tensione superficiale è quindi il lavoro (energia) che noi dobbiamo spendere a P e T costante per far incrementare la superficie della nostra particella di un certo valore dA. Si sottolinea a P e T costante perché se si fa una trattazione termodinamica rigorosa, ovvero per un sistema con un solo componente, chiuso (quindi senza scambi di materia). Qual è l’energia libera totale che bisogna consumare per il processo? Si parte dall’equazione classica dell’energia libera di Gibbs e, visto che ho a che fare con un processo considero le quantità infinitesime. Sapendo la definizione di entalpia ricavo dH. Sapendo la definizione di dU, la sostituisco nella definizione di dH. Ottengo una nuova espressione di dG a cui aggiungo il contributo della tensione superficiale (γdA ). Nell’ultimo punto, se T e P sono costanti, quei termini vanno via e quindi ricavo che dG = γdA. La tensione superficiale può essere anche banalmente calcolata con una formula empirica. Sfrutteremo questa formula per capire come mai i piani cristallini delle nanoparticelle presentano energia diversa. Sappiamo che γ può essere definito come il lavoro necessario per creare un’unità nuova di superficie. 14 Se ho un oggetto e voglio creare una nuova superficie, devo romperlo: si generano 2 nuove superfici (che prima non esistevano perché facevano parte del volume. Il lavoro che devo compiere per far nascere una nuova superficie è stato razionalizzato nella formula quasi empirica. Serve energia per rompere i legami e questo surplus di energia è legato al fatto che gli atomi che si formano in superficie non hanno tutta la sfera di coordinazione completa. ρ è il numero di atomi per unità di superficie che si vengono a generare. Li considero perché si portano dietro un surplus di energia data dal fatto che non hanno la sfera di coordinazione completa. Come quantifico questa energia che si porta dietro ciascun atomo? Questa energia legata alla perdita di coordinazione di ciascun atomo viene quantificata come metà dell’energia libera del legame rotto (ε/2). Dal punto di vista termodinamico γ viene considerata sempre come il rapporto di dG/dA, a P e T costante. In questa tabella parliamo di particelle (sfere) con un certo diametro, di cui viene calcolata la loro superficie totale e la loro energia superficiale. Si parte da una sfera con un certo diametro e si scende di diametro fino alle dimensioni dei nm. Si osserva che l’area superficiale totale e l’energia totale sono elevatissime. Questo si giustifica grazie al fatto che ci saranno più atomi esposti in superficie, che avranno una elevata instabilità. Nella tabella c’è qualcosa di controintuitivo. Si parte da una particella grande e si arriva ad una piccola: abbiamo però detto che diminuendo il diametro incrementa l’area superficiale. La formula dell’area superficiale di una sfera è legata al raggio, quindi come fa ad incrementare l’area superficiale se il raggio diminuisce? Mi aspetterei che diminuendo il raggio (o diametro), l’area superficiale diminuisca. Perché diciamo che l’area superficiale aumenta? Bisogna considerare che da una particella di 1 si otterranno tante piccole particelle di diametro di 1 nm per cui l’area superficiale totale per forza aumenta perché abbiamo più superficie. 15 In questa slide si vede cosa succede se si parte da un cubo di 1x1 cm e la superficie è 6 cm 2. Vado poi a romperlo ad ottenere dei piccoli cubi di lato via via inferiore. La tabella di sopra è giusta perché c’è il termine “totale”: abbiamo preso l’energia superficiale della particella e l’abbiamo moltiplicata per il numero di particelle che si vengono a generare con questo processo. Quante particelle ottengo? Devo fare il rapporto tra i volumi. (10 -7 x3). Nella nanoscienza (e anche nella scienza dei colloidi) nasce un problema: Tutte le volte che abbiamo un incremento di area superficiale, la materia finemente suddivisa non è termodinamicamente stabile. Per creare nuova superficie dobbiamo spendere energia ed, oltrettutto, otteniamo un sistema termodinamicamente instabile. Bisogna renderlo stabile per conservare nel tempo le sue nuove proprietà. Quali meccanismi mette in atto il sistema per rispettare la termodinamica? Se io devo spendere energia per creare un nanosistema, significa che il processo opposto è spontaneo, cioè favorevole alla termodinamica e mi libera energia (perché si limita la superficie). Se questi sistemi di NP ( e dispersioni colloidali) non vengono stabilizzati, ritornano ad avere volumi grandi: da dante particelle ne ottengo una più grande. La termodinamica del sistema mette in atto due processi per ritornare alla dimensioni originali. Ci sono 2 meccanismi. 1) Il meccanismo di sintering (sinterizzazione) che avviene ad alte temperature. Questo avviene in materiali metallici o ceramici. Ho particelle nanostrutturate o microstrutturate che sono organizzate in cluster. Ad alta temperatura diminuiscono i domini (sinterizzazione: unione dei domini di contatto). A noi ci interessano i meccanismi che avvengono a T amb, cioè alle normali temperature di utilizzo dei nanosistemi. Andiamo quindi a studiare i fenomeni a favore della termodinamica, cioè quei fenomeni che la termodinamica mette in atto per abbattere l’energia superficiale delle nanoparticelle. 2) Questo processo prende il nome di Ostwald ripening (maturazione di Ostwald). È un processo che avviene a T amb e comandato dalla diffusione. È un processo di maturazione perché da tante particelle più piccole si passa ad una più grande. La diffusione è governata dalla termodinamica, per cui, se si blocca il processo di diffusione vengono rallentati i processi termodinamici. Una delle prime soluzioni legate ai processi di stabilizzazione delle nanoparticelle era quello di combattere il processo di maturazione di Ostwald, mediante dei meccanismi che andassero a contrastare i fenomeni diffusivi (rallentando la diffusione e la velocità di avvicinamento di queste particelle). Se rallento tantissimo è come se bloccassi il sistema cineticamente: bloccando la cinetica sono in grado di combattere questo problema termodinamico. Un esempio di questo meccanismo sono le goccioline di mercurio che si uniscono a darne una più grande, grazie a gas (aria) che permette il trasporto di materia (termometri a mercurio rotti). 16 Abbiamo una particella grande ed una piccola. Sappiamo che grazie ai processi diffusivi se se forma una più grande. Chi ingloba chi? La particella piccola è più reattiva di quella più grande (ha meno atomi in superficie). Il processo che sta alla base di questo fenomeno è “L’effetto di Gibbs-Thompson”. Le particelle più piccole hanno un potenziale chimico maggiore di quelle più grandi. Si realizzerà un trasporto di materia (diffusione), mediato dal mezzo disperdente, che porterà ad ingrossare le gocce grandi a scapito di quelle piccole. Se c’è questo effetto ci sarà anche un’equazione che regola questo processo: L’equazione di Kelvin 17 Questa equazione viene riadattata alla solubilità del sistema. La particella più piccola è più reattiva, ovvero più solubile di quella più grande all’interno del mezzo (anche se parliamo sempre di dispersioni). La solubilità di una particella dotato di un certo raggio, grazie all’equazione di Kelvin, viene calcolata sulla base della solubilità di un raggio infinito (solubilità bulk) per un esponenziale. Nell’esponenziale abbiamo la tensione superficiale, il volume molare, la costante dei gas, la T in kelvin (assoluta) e il raggio (che compare al denominatore). Se si va a plottare (graficare) la solubilità in funzione del raggio delle particelle, si vede un incremento della solubilità delle particelle particolarmente marcato quando le particelle iniziano ad essere più piccole di un micron, ovvero quando ci avviciniamo al range dei nm. Abbiamo quindi un trasporto di materia: le particelle più piccole, che hanno maggiore reattività e solubilità, tendono a sciogliersi nel mezzo e vengono trasportate per diffusione verso la particella più grande e vanno ad incrementare il volume di queste ultime ed a diminuire l’energia superficiale totale del sistema. Il processo di Ostwald è comandato dalla termodinamica e dal fatto che le particelle più piccole sono più reattive: si ha il passaggio di materia per rispettare le leggi della termodinamica. Ovviamente Questo processo è governato dalla diffusione: se il mezzo lo consente si avrà il trasferimento di materia. Se il mezzo in cui sono disperse le particelle ostacola (da un punto di vista cinetico) questo trasporto, il fenomeno non avviene. Meccanismi di stabilizzazione Ecco come stabilizzare la superficie di una NP, nanomateriale, colloide. Possiamo parlare di sistemi nanostrutturati stabilizzati mediante degli approcci elettrostatici (cariche vive esposte in superficie). Questa prende il nome di stabilizzazione cinetica (perché spesso comandato da delle leggi diffusive). Fu la prima ad essere compresa perché si vedeva che le particelle crescevano, quindi intervennero andando a contrastare i fenomeni diffusivi: si va a giocare sulla cinetica dell’avvicinamento delle particelle. Spesso questa stabilizzazione cinetica non era sufficiente. Fu infatti necessario aggirare la termodinamica, cercando di modificare la superficie del sistema, in modo che sia la termodinamica ad impedire l’avvicinamento delle particelle. La stabilizzazione termodinamica è caratterizzata dall’avere dei processi che contrastano l’avvicinamento delle particelle, tenendole ben separate. Questa stabilizzazione può essere chiamata anche sterica, polimerica ed entropica (l’entropia che gioca un ruolo determinante nella stabilizzazione). Viene chiamata polimerica perché fu scoperta grazie all’uso di polimeri: essi possono essere aggangiati sulla superficie delle NP garantendone la stabilizzazione. Stabilizzazione elettrostatica (cinetica) 18 Sulla superficie possono accumularsi cariche elettrostatiche o cariche vive. Pensiamo alla natura di alcune particelle, come alle particelle metalliche (o neutre): gli atomi in superifice rispetto a quelli del bulk presentano un difetto di elettroni (sono cariche positive) perché c’è una mancanza di coordinazione. Di conseguenza, tutte le specie che possono donare densità elettronica possono avvicinarsi. La superficie si può approssimare a qualcosa di debolmente carico positivamente o ad un qualcosa fortemente amante degli elettroni/molecole che siano in grado di donare densità elettronica. Possono esserci anche le particelle ad esempio di SiO2 o TiO2. Il bulk è caratterizzato da questa stechiometria, ma a livello della superficie gli atomi di Ti saranno legati ad altri atomi di Ti mediante ponti ad ossigeno. Rimane però un sito coordinativo libero, per cui ci sarà un ossidrile. Quindi avremo una superficie ricca di gruppi ossidrilici. Ad esempio il vetro ha sulla superficie questi gruppi OH, che vanno ad interagire bene con l’umidità atmosferica (goccioline d’acqua). Quindi a seconda del pH posso avere l’ossidrile dissociato o associato. Regolando il pH posso trasformare la carica che ho sulla superficie della particella. Diversi sistemi di nanomateriali possono presentare in superficie delle cariche, più o meno vive, o comunque una facilità di ricevere densità elettronica (ad esempio particelle metalliche che non hanno la coordinazione completa). Per cui la superficie può essere pensata come un mezzo ricco di ioni. Per andare a studiare quali sono i meccanismi che vanno a stabilizzare le nanoparticelle, in genere prendiamo due particelle e proviamo ad avvicinarle. Questo si fa per vedere se il processo di avvicinamento è favorito (come direbbe la termodinamica) o sfavorito, se ho lavorato bene nella stabilizzazione della nanoparticella. Prendiamo due particelle che hanno una superficie ricca di ioni (accumulati mediante i processi di sopra), disperse in un mezzo disperdente polare (es: acqua) e le avviciniamo. Si fa in acqua perché l’acqua è il mezzo più semplice da usare. Che cosa succede a queste particelle che possiedono un accumulo di carica? Ci aspettiamo che due cariche dello stesso segno tendano a respingersi. Posso sfruttare l’accumulo in superficie di cariche per cercare di impedire questo avvicinamento tra particelle grazie ad una repulsione elettrostatica? Se metto certi tipi di particelle in acqua ad un certo pH o con delle sostanze ioniche che preferenzialemtne vadano a ricoprire la superficie, posso ottenere una stabilizzazione delle particelle? Questo fu il modo in cui si scoprì questo tipo di stabilizzazione. 19 Abbiamo due particelle uguali e cerchiamo di avvicinarle tra loro: la superficie avrà una carica positiva o negativa (spesso positiva) e sulla superficie si distribuiranno tutti i controioni che staranno a ridosso della particella. La trattazione fatta all’interno di questo grafico mostra che cosa succede se ho un piano (derivante dalla superficie della nanoparticella). Faccio riferimento ad un piano come se la curvatura della NP non ci fosse e vedo che sulla superficie ci sono delle cariche (positive) e vado a vedere come varia il potenziale elettrico in funzione dalla distanza dalla superificie. La superficie, essendo carica, attrarrà una serie di controioni (che saranno negativi). Vedo quindi cosa succede alle cariche negative, man a mano che mi allontano dalla superficie. “h piccolo” è la distanza dal piano (della particella). Se vado a misurare il potenziale elettrico (direttamente proporzionale alla concentrazione degli ioni) si osserva che il potenziale elettrico diminuisce in maniera lineare all’inizio, perché vicino alla superficie si sono tanti controioni adesi al piano, mentre allontanandoci ce ne saranno di meno. Ci sono 2 strati diversi: - il 1 è lo strato di stern in cui si ha una caduta di potenziale lineare. In esso identifico la massima concentrazione di controioni. - Il 2° strato prende il nome di strato di Gouy. Si ha una linea di demarcazione tra i 2 strati in cui vedo che nel secondo strato il potenziale decade in maniera esponenziale. La linea di confine di demarcazione è la variazione dell’andamento (da lineare ad esponenziale) del potenziale. La linea di demarcazione prende il nome di piano di Helmotz, in cui abbiamo che H=h, questo piano divide i 2 andamenti differenti. Qui i controioni sono più liberi di diffondere perché sentono meno l’attrazione verso il piano della superficie della NP. Nello strato di stern all’inizio vedo la massima concentrazione degli ioni, man mano che mi allontano la concentrazione diminuisce, fino ad arrivare ad un plateau quando il numero di controioni raggionge il valore minimo raggiungibile con la distanza. Il trucco per avere una buona stabilizzazione cinetica è quello di andare a spostare il piano di Helmotz (la linea di demarcazione) il più a destra possibile. Questo significa che ci sono molti più controioni adesi alla superficie, quindi si ha uno strato più spesso: quindi ci sarà una stabilizzazione migliore delle NP. Le NP, se vedono uno strato di un astessa carica non possono compenetrarsi ed avvicinarsi perché si ha una repulsione elettrostatica. Più la repulsione si osserva a distanze maggiori più il sistema sarà stabile. Se noi immaginiamo le 2 NP senza stabilizzazioni, queste tenderanno ad avvicinarsi e ad unirsi grazie alle interazioni tra le particelle, ovvero le forze di VdW, che sono inversamente proporzionali a d6 (d distanza). Questo significa che quanto più mi allontano, quanto meno le due particelle sentiranno l’una dell’altra. Se il piano di Helmotz è spostato in avanti faccio in modo che le due particelle non interagiscono: all’aumentare di d6 l’energia delle forze di van der Waals diminuisce prepotentemente. Per questo motivo cerchiamo di spostare più avanti il piano di cariche. 28/09/21 Stiamo vedendo la stabilizzazione che avviene in un ambiente polare (in acqua), poiché le prime stabilizzazioni furono state studiate in acqua (mezzo non tossico). 20 Possiamo immaginare che in acqua ci possano essere degli adsorbimenti preferenziali sulla superficie delle particelle in generale. La superficie delle NP è reattiva ed alcune sono ricche di gruppi OH, quindi a seconda del pH posso avere una dissociazione in soluzione. Vedremo come mai un numero troppo grande di ioni porta ad una destabilizzazione. La scorsa volta abbiamo considerato, nella trattazione, un ingrandimento della NP ottenendo un piano, ipotizzando che la superficie possedesse delle cariche positive. Abbiamo visto la disposizione dei controioni in funzione della distanza dalla superficie della NP. Ci sono due zone: una in cui i controioni sono molto adesi e risentono molto dell’attrazione elettrostatica, in cui il potenziale ha una caduta lineare. Oltrepassato un certo piano, chiamato piano di Helmotz, si ha un andamento esponenziale fino ad un plateau. Per studiare come avviene la stabilizzazione, si va a studiare cosa accade nello strato di Gouy oltre il piano di Helmotz. Studiamo questa zona perché sarà questa la zona che gioca il ruolo fondamentale nella repulsione tra due particelle che si stanno avvicinando. Per studiare la stabilità delle particelle, sia da un punto di vista termodinamico, che cinetico, si parte da due particelle che si avvicinano. Il piano interessato dalle interazioni tra le particelle sarà quello più lontano: dobbiamo andare a vedere quale legge guida questo andamento esponenziale e quali sono i parametri che lo fanno calare più o meno dolcemente. Ci sarà una differenza se la curva del potenziale decade secondo la curva rossa o secondo la curva nera. Se sono nel caso della curva rossa ci sarà una maggiore repulsione tra le 2 NP; nel caso della nera le due NP risentiranno di un potenziale più basso, cioè di una repulsione inferiore. L’intensità della repulsione sarà direttamente proporzionale al valore assoluto del potenziale, più il potenziale è alto più la repulsione sarà forte. È quindi interessante qual è la legge che governa la caduta di potenziale e quali sono i parametri. Vediamo che per h ≥ H, (h= distanza), si entra quindi nello strato di Gouy e il potenziale decade in maniera proporzionale, con questa legge. Questa legge ci dice che tutto dipende dalla differenza di h e H (H è una costante per il sistema che sto investigando, h è la variabile perché ci spostiamo dal piano), k indica come la curva va più o meno dolcemente. 1/k è definita come la “lunghezza di schermo” di debye-huckel. 1/k è un parametro che ci dice quanto è stabilizzato il sistema, ovvero quanta repulsione c’è. Questa è definita da: delle costanti (costante di Faraday), una radice quadrata con le costanti dielettriche del mezzo disperdente e del vuoto, R che è la costante dei gas, T che è la temperatura (parametrò che può variare). La costante di schermo può quindi essere influenzata dalla temperatura cui svolgo l’esperimento. T è la temperatura assoluta quindi è sempre positiva. Al denominatore troviamo la sommatoria della concentrazione degli ioni moltiplicata per la loro rispettiva carica al quadrato. Al denominatore ho la concentrazione totale degli ioni del sistema, mentre al numeratore ho la temperatura. 1) Se 1/k è grande, allora k nell’esponenziale è piccolo. Se k è piccolo, esso avrà poca influenza nella caduta di esponenziale 2) Se 1/k è piccolo, allora k è grande e l’esponenziale andrà giù drasticamente. 21 Per stabilizzare le 2 NP in una dispersione acquosa ricca di ioni bisogna minimizzare il valore di k (deve essere il più piccolo possibile). Questo è l’unico modo con cui posso lavorare per avere una certa stabilità. Per avere k piccolo, in modo da avere una caduta di potenziale blanda, in modo che anche per distanze più grandi si abbia una certa repulsione tra le due particelle (stanno distanti ed evito la maturazione di Ostwald), 1/k deve essere grande. Per avere 1/k grande, a meno di tutte le costanti presenti, devo avere il numeratore più grande possibile ed il denominatore il più piccolo possibile (compatibilmente con la situazione). Se aumento la T, aumenta 1/k e k diminuisce. Aumentando la temperatura sembrerebbe che le due particelle non abbiano tendenza ad avvicinarsi. La T può essere aumentata fino ad un certo punto, poi si arriva all’ebollizione del mezzo disperdente o a situazioni di instabilità del sistema. Perché alzando la temperatura il sistema diventa più stabile? La T aumentata fa sì che aumenti l’agitazione termica (e quindi il moto browniano), cosa che pare sfavorire l’avvicinamento delle NP, evitando le interazioni tra di esse e la variazione delle loro dimensioni. Il denominatore dice che non devo eccedere con la concentrazione degli ioni: deve essercene un numero tale da garantire lo strato di stabilizzazione. Non posso però eccedere perché altrimenti ottengo il fenomeno opposto. Perché se aumento troppo (ad esempio, aggiungendo un sale dopo la sintesi) la 1/k diminuisce e k aumenta. Quindi un elevata concentrazione di ioni può far perdere la stabilizzazione. Cosa succede se vogliamo far interagire due particelle? L’attrazione la ho quando le due particelle iniziano a sentire questo potenziale attrattivo (che può derivare anche dalle forze di vdW). Devo capire che per andare a generare queste forze il sistema ha bisogno di tempo, e questo tempo dipende dall’energia cinetica delle particelle. Se do troppo energia (aumento troppo la temperatura) alle particelle le interazioni non possono avvenire. Per quanto riguarda il denominatore, se aumento troppo la concentrazione (anche aggiungendo ioni dall’esterno), avrò localmente una concentrazione troppo alta di ioni (positivi o negativi) che devono essere in qualche modo neutralizzati. Si avrà un certo richiamo di carica verso quella determinata zona, in modo da mantenere la concentrazione più bassa, e la carica che prima era addossata sulla superficie della particella, si staccherà per andare a neutralizzare questa eccessiva concentrazione di ioni. La superficie della particella risulterà essere nuda, quindi avremo una maggiore probabilità di crescita perché ci sarà una stabilizzazione minore. Questo concetto viene preso in prestito dalla scienza dei colloidi. Un esempio è la preparazione della maionese: se si aggiunge troppo sale all’interno dell’emulsione ci sarà separazione di fase. Per cui la concentrazione delle cariche non può essere aumentata troppo. Come faccio a regolare la concentrazione delle cariche? Nella definizione di concentrazione ho una quantità relativa alla massa (moli) ed al denominatore ho una quantità relativa al volume (Litri). Poiché 1/k dipende dalla concentrazione, non posso aggiungere altri ioni dall’esterno perché andrebbero a modificare il numeratore della concentrazione. Inoltre, nella formula 1/k ho z2, quindi se uso Sali di Mg avrò un 22. Bisogna quindi stare attenti alla carica degli ioni. Un altro problema di queste NP sintetizzate e stabilizzate con metodi cinetici è il loro recupero. Dobbiamo allontanare il solvente (diminuisce il volume), quindi aumenterà la temperatura. Per come abbiamo sintetizzato le NP, non possiamo portare a secco il sistema eliminando il solvente. Se diminuisco il volume in modo da ottenere il soluto, ho la costante di 22 schermo che viene pesantemente modificata. Le NP non possono assolutamente essere eliminate dal volume del mezzo con cui le abbiamo sintetizzate. Questo tipo di stabilizzazione dipende da molti parametri: legati alla temperatura, concentrazione degli ioni. Si ha una stabilizzazione non legata a leggi termodinamiche, ma a moti diffusivi: per questo motivo è cinetica. Vediamo come cambia il potenziale (energia del sistema) di queste due particelle dal punto di vista cinetico, quando le voglio avvicinare. Abbiamo due diverse situazioni. Ci sono due particelle uguali sferiche di raggio. C’è uno strato stabilizzante (di ioni addossati alla particella e responsabili del potenziale di repulsione). In mezzo c’è il liquido che abbiamo usato per la sintesi e conservazione delle particelle. Per andare a vedere come varia l’energia del sistema le avvicino: vado a vedere come cambia l’energia libera del sistema, andando a modificare la distanza tra le due particelle. Ipotizzo che quando le due particelle sono lontane esse non si respingono, né si attraggono. Quando si avvicinano, poiché sono stabilizzate cineticamente, ci saranno ioni di carica uguale, per cui ci sarà una repulsione. Se le avvicino tanto ( i due potenziali sono sovrapposti), ci sarà un potenziale di attrazione. Sappiamo che l’energia di interazione è inversamente proporzionale alla distanza (forze di vdW 106), quindi se la distanza è piccolissima posso avere un potenziale attrattivo (minimo) ed irreversibile. Dal disegno si capisce che, per superare la barriera, sarà necessario superare una barriera di potenziale data dal potenziale di repulsione. Quanto detto si traduce con la teoria DLVO. L’energia totale del sistema è data dalla somma del potenziale di attrazione e quello di repulsione. Nel grafico abbiamo l’energia potenziale (y) contro la distanza tra le due particelle (x). La curva continua è la curva risultante tra la combinazione della somma tra il potenziale di attrazione (VA) e quello di repulsione (VE). La curva continua parte da 0: quando le due particelle sono lontane non ci sono interazioni. Nel caso generale essa a 2 minimi. 1) Un minimo secondario si ha quando la distanza è ancora elevata, ma ci può essere una interazione attrattiva temporanea (energie bassa) tra qualche particella (2,3,4). Questa interazione è completamente reversibile: non crea danni alla stabilità del sistema. 2) La curva risultante presenta, a una certa distanza, una barriera energetica. Questo è il potenziale positivo che dice che se le due particelle vogliono incontrarsi, esse devono superare una barriera energetica. La presenza di questo potenziale mostra che abbiamo agito in modo da avere una repulsione tra le due particelle: esse sono stabilizzate correttamente. Quando le 2 NP superano la barriera energetica, la curva precipita ed inizierà ad esistere un potenziale attrattivo tra le due particelle. Ci sarà un minimo primario ed irreversibile: le 2 NP interagiscono (Ostwald ritening: 23 perdita della stabilità delle particelle ed il loro conseguente accrescimento, separazione di fase e precipitazione delle NP). Qui si vede meglio il grafico. Nel minimo secondario (Vmin) c’è la formazione reversibile di aggregati in cui le particelle non sono fisicamente in contatto tra loro (flocculati). Possono essere dovuti a delle piccole interazioni temporanee. Con una minima agitazione (termica) il flocculato va via (noi vediamo una piccola opalescenza che va via dopo aver agitato). Se abbiamo un minimo primario (Vmax), l’attrazione tra le particelle è così grande che non siamo in grado, nemmeno fornendo energia dall’esterno (calore o energia meccanica) di andare a rompere le interazioni in quanto è partito l’Oswald ritening. Come varia il grafico andando a variare i paramentri presenti nella costante di schermo (vario la T, concentrazione e carica degli ioni)? Nella figura sotto si vede che la barriera energetica si abbassa progressivamente, fino ad annullarsi. Si arriva ad ottenere un potenziale negativo, cioè un potenziale attrattivo. Ricapitolando: La stabilizzazione cinetica è la più semplice da ottenere in un mezzo polare (acquoso), può essere presente in tanti tipi di NP (metalli, ossidi semiconduttori), funziona bene in soluzioni diluti e d a temperatura ambiente (fino a 30-50°C). Tuttavia bisogna stare attenti a diversi parametri: Non posso variare la concentrazione delle specie: il rapporto massa/volume non deve aumentare (al massimo può diminuire). Non posso ridisperdere le particelle che stanno coagulando tra di loro, una volta iniziata la maturazione di Ostwald. Se vogliamo sintetizzare particelle dotate di una certa stabilità nel tempo, eliminare il problema della concentrazione degli ioni, un sistema più stabile o spostare le particelle in un mezzo diverso dall’acqua come solventi organici? [In un mezzo organico gli ioni non vengono diffusi: gli ioni diffondono in un mezzo che li rende solubili (acqua o solventi polari).] Per fare questo devo pensare ad un altro tipo di stabilizzazione, ovvero la: Stabilizzazione termodinamica / sterica / polimerica / entropica 24 25 Quali sono le specie che posso usare per garantire stabilizzazione di questo tipo? Partiamo sempre dal fatto che la superficie deve essere stabilizzata. Questa viene modificata con degli agenti che possono agganciarsi ad essa. Esempio: Derivato di una specie organica, che può agganciarsi alla superficie. È costituito da una testa polare (rosso) che interagisce con la superficie della particella ed una coda (blu) che interagisce con il mezzo e serve alla solubilità delle NP in esso. La parte blu va a guidare la disperdibilità delle particelle nel mezzo: - se la parte blu è solubile in acqua le particelle si possono disperdere bene in acqua (ad esempio, grazie alla presenza di eteroatomi); - se fosse una lunga catena alchilica, le particelle possono essere disperse, e stabilizzate, in un solvente organico (anche idrocarburico). La parte blu la scelgo in base al mezzo in cui voglio ottenere le particelle. La superficie della particella è un posto povero di densità elettronica, quindi un donatore di densità elettronica può interagire con la superficie (nell’esempio abbiamo un anello benzenico e tre OH: sistema ricco di carica). Quindi questi stabilizzanti sono formati da 2 parti, una parte (testa) va ad interagire con la superficie, l’altra (coda) esplica la funzione disperdente e di stabilizzazione, interagendo con il mezzo. Come interagisce la specie organica sulla superficie della particella? In diversi modi, a seconda della natura specie organica che vado ad utilizzare. 26 Nell’esempio abbiamo: - una specie che all’inizio ha delle specie polari (che interagiscono bene con la superficie della particella ed in fondo delle specie non interagenti con la superficie - una specie che ha una parte centrale che può andare ad interagire con la superficie e delle code non interagenti con la superficie. Ipotizziamo di avere una NP sferica con attaccati questi agenti alla superficie: ci saranno le teste attaccate alla superficie della NP e le code che invece interagiscono con il mezzo solvente. Consideriamo la particella gemella. Le code saranno ben distese: significa che esse sono affini con il solvente (si sciolgono bene nel mezzo disperdente nella particelle). Qual è il meccanismo di stabilizzazione? Devo forzare l’incontro tra le due particelle, diminuendo la distanza tra esse. Il piano della NP è piano e non sferico: non ho più il raggio di curvatura perché sto considerando un ingrandimento. H è la distanza delle particelle (non è il piano di Helmotz) L è la distanza tra l’ultima parte della coda dell’agente stabilizzante e la superficie della NP. Da questo capiamo perché si chiama stabilizzazione polimerica: più è lungo è L più è elevata la stabilizzazione. Vediamo come cambia l’energia del sistema in funzione della distanza tra le due particelle (H): diminuisco la distanza, le NP si avvicinano, vedo come varia l’energia libera del sistema. 1) Primo caso: high coverage (alta copertura), cioè ci sono tanti agenti stabilizzanti sulla superficie. Quando siamo in corrispondenza del piano H=2L, significa che le estremità 2 catene (che sono ben distese perché ho scelto un ottimo solvente) iniziano a toccarsi, il ΔG schizza in alto. Il ΔG sarà positivo: si tratta di un processo non spontaneo termodinamicamente. Finale: le code iniziano a toccarsi; Iniziale: le particelle sono lontane. Dobbiamo andare a valutare cosa avviene dal punto di vista entalpico ed entropico. L’entropia è direttamente proporzionale al disordine, cioè ai gradi di libertà: più gradi di libertà ci sono, più l’entropia è elevata. Nella situazione iniziale le code sono libere di muoversi ed hanno moltissimi gradi di libertà, anche in base alla lunghezza aumenta il numero di gradi di libertà (configurazionale). Nella situazione finale, l’entropia diminuisce perché le catene iniziano a compenetrarsi tra loro e ad attorcigliarsi, perdendo dei gradi di libertà: quando le NP si avvicinano si osserva una diminuzione di entropia. Sf C0. Il contributo volumetrico è sempre favorevole alla termodinamica (infatti c’è un segno”-“): punto di vista volumetrico, la formazione di nuovo volume è favorevole termodinamicamente, quindi la nucleazione è favorita. Purtroppo ho un sistema in cui ho pochi atomi nel volume, quindi questo contributo conta poco. Il termine C/C0 si trasforma 1 + σ. Lo ricavo così: Se σ = 0, C = C0: ln1=0, quindi il contributo volumetrico è zero. Per avere un contributo volumetrico (cioè un qualcosa che abbia segno negativo) è neccessario che C > C0. La concentrazione C deve essere superiore della linea di solubilità. 35 Tuttavia non basta avere C0 + un elemento infinitesimo: deve esserci un determinato ΔC. Come mai? Dall’espressione di sopra capiamo che per avere un contributo volumetrico (qualcosa che sia a favore della termodinamica) ho bisogno che σ > 0, cioè che C > C0. Devo considerare anche il termine legato alla superficie (Δμs, che sarebbe la variazione di energia libera di Gibbs superficiale). Questa è data dalla variazione di energia libera di Gibbs per unità di superficie [cioè l’energia superficiale per unità di area, cioè la tensione superficiale (γ)] moltiplicata per la superficie dell’oggetto che sta nucleando. Il Δμs è un termine positivo (>0), quindi è un qualcosa che va contro alla termodinamica. Questo contributo superficiale (positivo) si contrappone al contributo volumetrico (negativo). Per capire quando il processo può avvenire devo andare a vedere qual è la risultante tra il termine volumetrico e quello superficiale. Metto insieme i due contributi. Potremmo variare anche T e concentrazione. Qui la variabile è il raggio: vado a vedere cosa accade auumentando le dimensioni delle particelle. Aumentando il raggio il ΔGv diminuisce di tanto: creo tanti legami all’interno del bulk. Il termine suoerficiale schizza verso l’alto. Analizziamo la curva risultante tra le curve legate al termine volumetrico e superficiale. Essa parte positiva, raggiunge un massimo e poi cala verso valori negativi. Questa curva mostra quindi che se ho tanti atomi in superficie, queste particelle saranno così reattive (e molto solubili) da non essere stabili nel generare un processo di nucleazione termodinamicamente favorito. Quando si formano le prime particelle esse sono solubili; quando entro nella zona metastabile le particelle tendono a crescere di dimensioni, ma sono così piccole da non nucleare. Questo è quello che avviene nella curva nella parte positiva: processo sfavorito perché il ΔG>0. Una volta raggiunto il raggio critico, la curva tende a diminuire fino ad arrivare ad un certo raggio in cui il ΔG r2, quindi il termine volumetrico ha un effetto maggiore. Abbiamo chiarito matematicamente come mai per raggi piccoli ho questo massimo di variazione di energia libera(ΔG*) sfavorevole al processo di nucleazione: devo accumulare una certa sovrassaturazione, tale che i raggi delle particelle che sto preparando siano sufficientemente grandi da dare il via (termodinamicamente) al processo di nucleazione. Quando inizia ad accadere qualcosa di positivo per la nucleazione? Quando supero il massimo, il contributo superficiale sta crescendo gradualmente sempre meno rispetto al contributo volumetrico. Voglio andare a vedere dov’è questo massimo di ΔG* ed rC (critico). 36 Come immaginiamo il r*? Più le particelle sono grandi, più hanno probabilità di nucleare. Il raggio critico dipende da γ e ΔGv. Il “-“ non ci deve spaventare perché il ΔGv si porta dietro un “-“, quindi il raggio diventa positivo. La tensione superficiale dipende dalla chimica della particella che voglio sintetizzare (è l’energia superficiale per unità di superficie) è svincolata dal raggio. Se l’energia superficiale (γ) è alta, anche il r* critico dovrà essere grande. Se r* è piccolo allora γ è piccolo, oppure ΔGv è grande (in valore assoluto). Questo significa che non devo aspettare tempi di reazione sufficientemente lunghi affinchè il processo di nucleazione possa avvenire. Si fa un discorso analogo per il ΔG*. Sostituiamo il valore di ΔGv. Otteniamo una nuova espressione del ΔG*. Ci sono delle costanti e delle variabili: T e σ. T in realtà è un ΔT, ovvero il sottoraffreddamento di cui ho bisogno. Tralasciamo la tensione superficiale: Per avere un ΔG* piccolo (cioè un processo di nucleazione favorito già nei primi istanti di reazione) ho bisogno che σ sia molto grande (c’è tanta sovrasaturazione) il denominatore risulta molto grande. Se ho una grade sovrasaturazione, il ΔG*, cioè la barriera energetica che devo superare per avere nucleazione, risulterà essere più piccola. Aumentando la sovrasaturazione ho probabilità di avere una barriera energetica da superare più piccola: la nucleazione avviene prima e con meno impedimenti. Per quanto riguarda il ΔT( sottoraffreddamento), cioè quanto mi discosto dalla temperatura di equilibrio, più sottoraffreddo il sistema più il denominatore cresce, quindi il ΔG* risulterà essere piccolo. Quanto detto corrisponde a quello che si vede nel grafico: ho nucleazione tanto più sovrassaturo/sottoraffreddo il sistema. Cosa succede se incremento la sovrassaturazione? Come cambia il ΔG totale, in funzione del raggio, se incremento σ, ovvero se faccio avvenire un processo in cui ho subito un quantitativo elevato di concentrazione di specie oltre la soglie di solubilità? Ho nucleazione anche per raggi più piccoli. Ho abbassato la barriera energetica (ΔG*). Il ΔG* ha al denominatore il (ΔGv)2 ; r* ha il termine (ΔGv). Questo ΔGv a sua votla dipende dalla T e da σ. Aumentando il valore di σ diminuiscono ΔG* e r*: la curva si appiattisce e sposta verso sinistra. 37 La temperatura ha lo stesso effetto: schiacciamento della curva e spostamento verso sx del r*. C’è una distinzione. Mentre posso incrementare σ di quanto voglio, non posso fare lo stesso sulla temperatura. Devo considerare che essa va a giocare sulla cinetica della reazione: se faccio avvenire la reazione temperatura troppo bassa, rallento la cinetica. Il mezzo di reazione influenza la reazione: se faccio la reazione in acqua, raffreddando, potrei avere un solido e quindi una situazione congelata in cui le specie non hanno mobilità. Bisogna fare attenzione a non sottoraffreddare troppo perché potrei avere problemi cinetici: una viscosità così elevata da limitare l’avvicinamento delle specie e la loro crescita in raggio. La termodinamica non c’entra nulla: si tratta di un problema cinetico. [Sperimentalmente, per facilitare la nucleazione molte volte si potrebbe sfregare una bacchetta di vetro sulla superficie del contenitore di reazione, oppure si possono mettere piccoli germi di cristallo e in questi casi la nucleazione sarà molto più veloce. In questi casi si parla di nucleazione eterogenea. ] Diagrmamma di La Mer Studiava i colloidi. Studia il fenomeno della nucleazione nel corso del tempo. In asse x c’è il tempo di reazione; sull’asse y la [soluto], cioè C. Il diagramma è suddiviso in 3 zone: eventi che avvengono in 3 tempi diversi. Per capire cosa accade devo andare a vedere i parametri in ordinata (linee orizzontali tratteggiate), ovvero le concentrazioni di soluto. La Cs di La Mer è la concentrazione di solubilità: corrisponde alla nostra C0. C’è un gap di concentrazione che corrisponde a quello di cui avevamo parlato prima ( concentrazione sopra alla curva di 𝑛𝑢 nucleazione): la 𝐶𝑚ⅈ𝑛 è la concentrazione minima di nucleazione. Egli mantiene la Temperatura costante. La curva rappresenta la concentrazione (C) del soluto nel tempo. Al tempo 0 ho solo i precursori che dovranno reagire tra di loro: non ho nessuna specie. Essi reagiscono ed aumenta la loro concentrazione con il passare del tempo. La concentrazione aumenta 𝑛𝑢 (quasi linearmente), sorpassando la soglia di solubilità, fino al valore di 𝐶𝑚ⅈ𝑛. Da qui in poi si ha una 𝑛𝑢 deviazione dall’andamento lineare. Tra Cs e 𝐶𝑚ⅈ𝑛 si ha una zona di sovrassaturazione, in cui non si ha nessuna nucleazione. Nel momento della nucleazione cresce più lentamente perché qualcosa sta uscendo: parte della concentrazione andrà nella nuova fase. La curva perde di linearità, ci sarà un plateau (la concentrazione dei precursoi è = alla quantità di sostanza che va nella nuova fase), poi si avrà una diminuzione (ho finito i precursori). Si ha la diminuzione perché sono comunque in condizioni di sovrassaturazione, ma sto consumando le riserve. La curva scenderà poi al di sotto della soglia di nucleazione non avrò più nucleazione. - Fase I: vedo che la reazione è partita ed entra nel regime di sovrassaturazione (non ha ancora nucleato). 38 - Fase II: il sistema inizia a nucleare e ci sarà una parte di accrescimento limitato (supponiamo di aver stabilizzato bene il sistema in modo che le particelle non possano avvicinarsi più di un tot). - Fase III: non ho più il fenomeno della nucleazione, quindi posso avere solamente accrescimento. Si ha un lavoro sperimentale. Si osserva come varia il diametro delle particelle sintetizzate in funzione del tempo di reazione. Abbiamo delle gaussiane che identificano il numero di particelle con un preciso valore di diametro. La prima è relativa ad una reazione durata 30 min: la distribuzione è stretta

Use Quizgecko on...
Browser
Browser