Molte delle tecnologie che ci circondano sono legate, a vario titolo, all’ottica e ai fenomeni ottici. Non parlo solamente di lenti, occhiali e binocoli, ma anche di strumenti modernissimi, come laser, fibre ottiche, satelliti, microscopi, ma anche televisori, schermi LCD o i banali lettori CD-DVD. Lo stesso premio nobel per la fisica 2014 è stato assegnato a Akasaki, Amano e Nakamura per i loro lavori pioneristici su i primi LED a luce blu. Dagli sviluppi dell’ottica dipenderà fortemente la nostra tecnologia futura: usare i fotoni per trasmettere informazioni, invece degli elettroni, renderà i computer quantistici del futuro delle macchine dalle potenzialità immense.
Ma tra le varie branche che costituiscono l’ottica, particolare importanza sta acquistando negli ultimi anni la cosidetta “ottica non-lineare”, che oggi trova spazio in infinite tecnologie, dai blu-ray ai dispositivi medicali, e che è l’argomento principale di questo articolo. Ma prima di potervi mostrare le infinite potenzialità di una disciplina così complessa è necessario fare una piccola introduzione sulla natura della luce e sul concetto di non linearità.
La natura della luce è sempre stata un dilemma che ha contrapposto scienziati tra i più illustri. Se in certe condizioni infatti la luce sembra comportarsi come un’onda, in altre sembra invece comportarsi come se fosse costituita da tanti microscopici corpuscoli. E’ stato solo ai primi del ‘900, grazie alla nascita della meccanica quantistica, che si è finalmente riusciti a trovare un modello teorico che riuscisse a giustificare questo comportamento ambiguo. Nonostante un’estrema complessità formale, le conclusioni a cui si giunse si possono riassumere semplicemente dicendo che la luce non è né un’onda né una particella, ma qualcosa di intermedio. Si pensi ad esempio all’ombra di un cilindro proiettata su uno schermo. A seconda di come il cilindro è illuminato, quello che ci apparirà sarà un cerchio o un rettangolo, sebbene il cilindro ovviamente non sia né un cerchio, né un rettangolo né una specie di intermedio tra i due. Lo stesso vale per la luce: a seconda del tipo di esperimento si può comportare sia da onda che da particella, sebbene non sia nessuna delle due.
Le due descrizioni sono complementari. Da una parte possiamo dire che la luce è formata da fotoni, cioè da “quanti” di energia. Ogni quanto ha un’energia che è proporzionale alle frequenza della luce. Questo concetto è espresso dalla celeberrima equazione di Planck: E=hv. In questa equazione E è l’energia della radiazione, h è una costante, la costante di Planck, mentre v (la lettera greca ni) è la frequenza della luce. L’energia della radiazione luminosa, sebbene si parli di fotoni, è quindi correlata alla sua frequenza, che è una proprietà tipicamente ondulatoria. Da questo punto di vista la luce è vista appunto come una radiazione ondulatoria elettromagnetica. In pratica quindi si tratta di una perturbazione dello spazio provocata da un campo elettrico che oscilla, e che oscillando produce un campo magnetico correlato. Il campo elettrico associato alla luce aumenta e diminuisce quindi periodicamente d’intensità e la distanza tra due creste dell’onda è appunto la lunghezza d’onda della radiazione. Dal punto di vista matematico, si può scrivere che l’energia del campo elettrico è descritta dall’equazione E=E0cos(ωt), in cui ω è semplicemente ω=2πv, cioè è direttamente legata alla frequenza. E0 è invece l’intensità massima del campo elettrico. Se la frequenza raddoppia, raddoppia quindi anche ω. Quando tra due grandezze c’è un relazione simile, cioè che al raddoppiare dell’una raddoppia anche l’altra, si dice che il fenomeno in questione è lineare. Un esempio può essere quello di spazio e velocità. Spazio e velocità sono correlati tra di loro linearmente, infatti s=vt. Se il tempo è costante, al raddoppiare della velocità raddoppia lo spazio percorso. Viceversa, la relazione tra accelerazione e spazio è un relazione non lineare, perché al raddoppiare dell’accelerazione lo spazio percorso quadruplica. Nella relazione tra spazio e accelerazione, s=1/2at2, si vede infatti come questa volta il tempo è elevato al quadrato. Quando in una relazione compaiono degli elevamenti a potenza possiamo infatti dire con ragionevole certezza che le grandezze in questione sono correlate in modo non-lineare.
Abbiamo prima detto che una radiazione elettromagnetica è in pratica un campo elettrico oscillante che si propaga nello spazio. Cosa succede quando questo campo elettrico interagisce con la materia? Ovviamente il comportamento dell’onda cambia: basti pensare ad esempio al fenomeno per il quale una matita immersa in un bicchiere d’acqua ci appare spezzata in due a causa della differente interazione della luce con l’aria e con l’acqua. Il comportamento di un materiale che interagisce con la luce può essere descritto da un’equazione molto semplice che collega da una parte l’intensità del campo elettrico e dall’altra una proprietà intrinseca e caratteristica di ogni materiale, chiamata polarizzabilità, una proprietà che tiene conto di quanto facilmente un campo elettrico può interagire con le cariche che compongono il materiale.
Se il campo elettrico (e quindi l’intensità della radiazione luminosa) è molto debole, allora la relazione tra le due grandezze è lineare: P=P0 + χ(1)E . χ(1) è una costante di proporzionalità chiamata “suscettibilità elettrica”. Se è molto grande, allora anche un campo elettrico debole può produrre grandi variazioni nella polarizzabilità, se è molto piccola invece serve un campo elettrico molto grande per produrre delle variazioni apprezzabili di P.
Quando l’intensità del campo elettrico è molto alta, ecco che compaiono anche effetti non lineari. L’equazione prima riportata è infatti solo un’approssimazione! Nella realtà l’equazione da utilizzare avrebbe una forma simile a questa:
P=P0 + χ(1)E + χ(2)E2 + χ(3)E3 + …
Come si vede ecco che ora iniziano ad apparire anche gli effetti non lineari, in quanto compaiono dei terminu in cui l’intensità del campo elettrico è elevata al quadrato (termine del secondo ordine) e addirittura al cubo (termini del terzo ordine). Ma in questo caso χ(2) e χ(3) sono veramente piccolissimi: è quindi necessario che E sia molto, molto grande prima che diventino importanti! Che vuol dire che l’intensità deve essere molto alta? Vuole dire che non basta una bella giornata di sole, e nemmeno una lampada molto potente: serve un laser! Quando si lavora con i laser gli effetti non lineari diventano importanti. Ma perché vale la pena parlarne? L’interesse collegato a questi fenomeni è dovuto alle tante possibilità tecnologiche a loro correlate. In questo articolo parleremo delle applicazioni più interessanti: il raddoppio di frequenza, un effetto del secondo ordine, e l’assorbimento di due fotoni, un fenomeno del terzo ordine.
Con raddoppio di frequenza si intende la possibilità di raddoppiare la frequenza di una radiazione facendola passare per un materiale apposito. Se prendiamo l’equazione di prima P=P0 + χ(1)E + χ(2)E2 e sostituiamo ad E l’espressione che avevamo introdotto all’inizio dell’articolo, otteniamo che P=P0 + χ(1)E0cos(ωt) + χ(2)E02cos2(ωt). Per una proprietà puramente matematica della funzione coseno, vale questa relazione: 2cos2(ωt)= 1+cos(2ωt). Queste aride formule matematiche ci hanno riservato una grandissima sorpresa: partendo da una radiazione di frequenza ω se ne è generata anche una di frequenza 2ω! Una banalità? Tutt’altro, e gli esempi sono molteplici. I laser più economici e di semplice costruzione sono infatti quelli che producono luce infrarossa. Tuttavia la luce infrarossa per tante applicazioni non è molto utile: essendo una luce a bassissima frequenza può trasmettere solo poche informazioni ed è quasi invisibile ad occhio nudo. Inoltre è anche una luce molto poco energetica: l’intensità della luce infatti ci dice quanti fotoni arrivano al bersaglio in un certo momento, ma è la frequenza a dirci qual è la loro energia. E’ un po’ la differenza che c’è tra lanciare ad una persona dieci palline da ping pong o spararle con un solo proiettile. Non tutti i materiali sono però capaci di produrre questo effetto di raddoppiamente di frequenza, ma solo quelli dotati di una caratteristica molto peculare: l’assenza di simmetria.
Un’altra caratteristica fondamentale del materiale in esame deve essere la stessa velocità di propagazione per l’onda con frequenza ω e quella con frequenza 2ω, un fenomeno proprio di alcuni materiali detti “birifrangenti”. Uno dei primi materiali utilizzati fu il normalissimo quarzo α naturale, che forma cristalli non simmetrici in cui dei tetraedri, formati da un silicio e quattro ossigeni, sono legati tra di loro a formare un’elica. Un altro materiale che oggi come oggi è di fondamentale importanza è il diidrogeno fosfato di potassio (KDP). Si tratta di un materiale che, oltre a possedere le qualità “minime” di cui sopra, ha anche un’altra caratteristica molto appetibile: può formare dei cristalli di grossissime dimensioni, anche superiori al metro!
Come scrivevo prima uno degli utilizzi più interessanti del raddoppiamento di frequenza (o più correttamente “generazione di seconda armonica”, SHG) è quello di permettere di ottenere un laser nel visibile, quindi molto energetico, utilizzando l’attrezzatura richiesta per un laser infrarosso, molto meno onerosa. I laser verdi che si trovano in commercio funzionano proprio così: in realtà sono laser a infrarossi il cui raggio viene fatto passare attraverso un cristallo di un materiale attivo per la SHG. In particolare, contengono in genere un laser a Nd:YVO4 (cioè cristalli di ortovanadato di ittrio contenenti piccolissime quantità di neodimio) che invia luce infrarossa a 1064nm su un cristallo di KDP, che genera radiazione laser verde a 532nm. I laser verdi “portatili” hanno infatti molte proprietà superiori rispetto quelli rossi: sono molto più potenti, permettono di illuminare oggetti più distanti e permettono di vedere non solo il puntino della luce che incide su una superficie, ma anche il raggio stesso nell’aria. Quest’ultima proprietà li rende ad esempio fondamentali per indicare stelle e costellazioni.
Simile è l’idea dietro i laser blu, che hanno permesso l’ingresso del blu-ray nelle nostre vite. Mentre i normali DVD e CD-ROM vengono infatti letti da una laser rosso, i blu-ray vengono letti da un laser blu. Come detto precedentemente, l’uso del laser blu permette di conservare sullo stesso supporto fisico molti più dati. L’importanza di questi materiali, e soprattutto di quei giganteschi cristalli di KDP, è evidente quando pensiamo che sono alla base di un promettente reattore per la fusione nucleare, che è in fase di studio negli USA, il National Ignition Facility.
La fusione nucleare è una tecnica di produzione dell’energia che ha molti vantaggi, come l’essere totalmente eco-friendly e il produrre quantità smisurate di energia. E’ in pratica la stessa reazione che permette al Sole di riscaldarci da miliardi di anni. Al contrario della fissione nucleare, non richiede infatti l’utilizzo di ingenti quantità di materiali radioattivi e soprattutto non produce scorie tossice. Tuttavia ha un gigantesco svantaggio, che ne rende ancora impossibile l’utilizzo oltre che in quale selezionatissimo e costosissimo impianto sperimentale: le altissime temperature richieste. E’ questo l’ostacolo fondamentale che purtroppo ne sta bloccando lo sviluppo.
In questa centrale l’idea di base è quella di concentrare la potenza di numerosi laser in un solo piccolo punto, in cui verrà messo un microscopico reattore chiamato “hohlraum” all’interno del quale (si spera) sarà possibile innescare la reazione di fusione. I laser necessari devono essere non solo estremamenti potenti, per fornire una luce molto intensa (cioè devono essere capaci di inviare moltissimi fotoni in pochissimo tempo), ma anche produrre una luce molto energetica (cioè ogni fotone deve avere una grandissima energia). Per questo motivi sono necessari dei laser che lavorino con luce ultravioletta. In questo caso si utilizzano ben 192 giganteschi laser a infrarossi, ognuno dei quali fa passare la propria luce attraverso due cristalli di KDP disposti in successione. Purtroppo ancora solo una parte esigua della luce prodotta è alla fine utilizzabile: la generazione di seconda armonica ha infatti una resa solo del 50% e di questa solo un 20% alla fine riesce a essere sfruttato efficacemente per ottenere le condizioni necessarie per la fusione nucleare.
Esistono anche altri materiali che possono essere utilizzati per l’SHG, come il fosfotitanato di potassio (KTiOPO4, KTP) o come il β-borato di bario (BaB2O4,BBO), ma la ricerca moderna si sta orientando sulla messa a punto di altri sistemi basati su molecole organiche, cioè molecole a base di carbonio, che per le loro proprietà optoelettroniche potrebbero definitivamente sostituire i cristalli inorganici, che al momento sono invece i più utilizzati.
Alcune molecole organiche hanno invece un impiego diffuso in molte applicazioni, anche cliniche, per un altro fenomeno ottico non lineare: l’assorbimento di due fotoni.
Quando un oggetto ci appare di un determinato colore, questo vuol dire che il pigmento che lo ricopre assorbe i fotoni che hanno una lunghezza d’onda complementare a quella della luce corrispondente al colore che osserviamo. In parole povere, se un oggetto ci appare di colore blu vuole dire che l’oggetto in questione assorbe tutti i fotoni rossi. Nelle molecole, gli elettroni sono disposti infatti in una serie di livelli energetici a energia crescente. I fotoni possono interagire con gli elettroni cedendo loro energia e facendoli passare a un livello energetico superiore, ma solo se l’energia del fotone è esattamente uguale a quella corrispondente alla differenza di energia tra i due livelli. Se il fotone è più energetico o se è meno energetico non verrà assorbito. Quindi se un pigmento è blu vuole dire che la differenza tra i livelli elettronici è tale da essere colmata da un fotone rosso, tutti gli altri passano indisturbati.
Una volta che l’elettrone ha assorbito un fotone, si ritrova in uno stato a energia superiore, uno stato generalmente molto instabile. In tempi brevissimi (nell’ordine di qualche nanosecondo!) l’elettrone ritorna al suo stato fondamentale e può farlo seguendo due vie: o rilasciando l’energia in eccesso all’ambiente in maniera non-radiativa (cioè senza emettere luce, attraverso le vibrazioni molecolari, attraverso gli urti e così via) oppure disperdendo una parte dell’energia in eccesso sempre in maniera non-radiativa e riemettendo poi un secondo fotone di energia un po’ inferiore rispetto a quella del fotone di partenza. Questo secondo fenomeno si chiama fluorescenza. Una sostanza fluorescente può essere illuminata con luce UV (quindi molto energetica) e riemettere luce visibile, meno energetica. L’uso di sostanza fluorescenti è ormai un must nella biologia e nella microscopia moderna: usando delle “sonde” fluorescenti è infatti possibile marcare una determinata proteina e determinare la sua posizione nella cellula ed è possibile ottenere risoluzioni e sensibilità molto superiori rispetto alla microscopia classica. E’ una tecnica ormai usatissima da più di cinquant’anni, ma ha una serie di svantaggi, tra i quali il fatto di avere una bassissima risoluzione spaziale (cioè che anche se la luce è collimata precisamente in un punto, in realtà fluoresce praticamente tutto il campione in cui la luce passa) e il fatto che usando una luce molto energetica spesso si producono danni sia ai tessuti organici (per questo è così importante l’uso di creme anti-UV quando si prende il Sole) sia alle stesse molecole utilizzate come sonde fluorescenti, che dopo un po’ di tempo che sono esposte alla luce UV tendono a degradarsi.
L’assorbimento a due fotoni (TPA, two-photon absorption) è un fenomeno del terzo ordine che consiste nell’assorbimento di due fotoni, invece che di uno, per coprire la stessa differenza energetica tra due livelli. Se quindi in una certa molecola la transizione elettronica richiederebbe ad esempio un fotone UV di lunghezza d’onda 200nm, potrei invece utilizzare due fotoni visibili di lunghezza d’onda 400nm (ricordate che l’energia di un fotone aumenta all’aumentare della frequenza e diminuisce all’aumentare della lunghezza d’onda).
La possibilità di un processo di assorbimento di due fotoni era già stata prevista teoricamente nel 1931 dalla fisica tedesca Maria Goeppert-Mayer nella sua tesi di dottorato. In suo onore, oggi l’unità di misura per la sezione efficace di assorbimento bifotonico (un parametro che esprime la probabilità che avvenga l’assorbimento) è misurata proprio in Goeppert-Mayer (GM). Fu però solo nel 1961, con l’avvento dei laser, che finalmente fu possibile dimostrare sperimentalmente la sua felice intuizione. I materiali adeguati per questo tipo di processi sono principalmente dei materiali organici e non è più necessario che siano asimmetrici o che diano birifrangenza. In generale sono necessarie lunghe molecole organiche con molti legami coniugati e che contengano anche dei gruppi elettrondonatori e/o elettronaccettori. Una schematizzazione spesso utilizzata è quella di indicare questo tipo di molecole con acronimi come D-π-D o D-π-A (Donatore-π-Donatore/Accettore).
Essendo un processo addirittura del terzo ordine, è richiesta una luce intensissima per farlo avvenire. Se per i processi del secondo ordine era necessario un laser, qui serve un laser a impulsi, cioè così potente da non poter fornire un raggio di luce continuo, ma tanti impulsi di luce intensissimi. Essendo così fortemente dipendente dall’intensità della luce, si può ottenere una risoluzione spaziale straordinaria. Infatti solo nel punto focale del fascio è possibile avere l’energia necessaria per promuovere la transizione elettronica, mentre il resto del campione non interagisce minimamente con la luce incidente. Questo permette non solo di poter ottenere informazioni biologiche con una precisione disarmante, ma anche di poter modellare in maniera precisissima molte micromacchine e microsensori, come i sensori di accelerazione e di assetto presenti nei nostri smartphone e tablet.
Per questo tipo di microfabbricazione 3D (two-photon initiated polymerization, TPP) si utilizza un gel costituito da una piccolissima quantità di fotoiniziatore, cioè una molecola attiva per la TPA, immersa in un gel contenente dei monomeri, cioè delle molecole che possono reagire tra di loro formando poi delle catene di polimeri. In questo caso il processo di polimerizzazione è però reso possibile solo se il fotoiniziatore è stato attivato dalla luce, e quindi avviene solamente nel punto focale del raggio laser. E’ possibile quindi ricreare con la luce l’immagine tridimensionale dell’oggetto desiderato e poi rimuovere l’eccesso di monomero con un solvente. In questa maniera è possibile ottenere micromacchine con una risoluzione inferiore ai 100nm, con addirittura parti mobili e parti flessibili.
Un’altra applicazione dell’assorbimento di due fotoni è nei materiali per la limitazione ottica. Il fatto che l’intensità di TPA sia così fortemente legata all’intensità della luce vuole infatti dire che è possibile realizzare dei dispositivi che permettono di limitare la quantità di luce che li attraversa. Se la luce in entrata diventa troppo intensa, il materiale risponde aumentando l’intensità di assorbimento. In questo modo la luce in uscita non supera mai una certa intensità. Questo è necessario ad esempio se si vogliono costruire degli occhiali per proteggere gli occhi di chi opera con i laser o con luci estremamente intense, per proteggere i sensori ottici e così via.
Ciò che è stato presentato in questo articolo è ovviamente solo una minima parte di un mondo estremamente ampio, variegato e dagli sviluppi imprevedibili. Un mondo che, purtroppo, per quanto affascinante e importante non trova ancora molto spazio nella divulgazione e nella didattica (anche universitaria) della chimica in Italia. Forse però la prossima volta che inserirete un blu-ray nel vostro lettore o che farete ruotare lo schermo del vostro tablet, sfruttandona i microscopici sensori di assetto, saprete cosa c’è dietro questa tecnologia.