mercoledì 29 maggio 2024

Fisica e biologia si alleano: e nasce la biologia quantistica

 

Fisica e biologia si alleano: e nasce la biologia quantistica

di Achille De Tommaso

 

C’è stato un tempo, non molto tempo fa, in cui i biologi giuravano nero su bianco che la meccanica quantistica non poteva avere alcun ruolo nei sistemi della vita. Io stesso, in un mio articolo, paventavo che l’era della Fisica stesse per cedere il passo a quella della Biologia.

Oggi ci affidiamo all’analisi del DNA per scoprire la vera origine di una traccia biologica, e i risultati sono sempre precisi: Il DNA non commette errori. In realtà il DNA può commetterne e può portare a mutazioni. E questa possibile verità ci viene spiegata dalla Meccanica Quantistica; una alleanza tra Biologia e Fisica.

***

I due filamenti della famosa doppia elica del DNA sono collegati insieme da legami a idrogeno tra le basi, che forniscono la colla che le tiene insieme. Questi legami sono come i pioli di una scala elicoidale che costituisce la struttura a doppia elica scoperta nel 1952 da James Watson e Francis Crick. 

Normalmente, queste basi del DNA (chiamate A, C, T e G) seguono regole rigide su come si legano insieme: A si lega sempre a T e C sempre a G. Questo stretto accoppiamento è determinato dalla forma delle molecole, che si adattano insieme come pezzi di un puzzle. Ma, se la natura dei legami idrogeno cambia leggermente, ciò può causare la rottura della regola di accoppiamento, portando al collegamento delle basi sbagliate e quindi ad un errore di duplicazione. Questi errori sono conosciuti da tempo, e fanno parte, oggi della teoria evolutiva, ma il loro studio è significativo quando si presenti una mutazione.

Sebbene questo fatto fosse previsto da Crick e Watson, utilizzando sofisticati modelli computerizzati, un team di fisici e chimici dell'Università del Surrey ha dimostrato che tali errori nella copiatura possono verificarsi a causa delle strane regole del mondo quantistico.  Il team, con sede presso il Leverhulme Quantum Biology Doctoral Training Center; fa parte del programma di ricerca del Surrey nel nuovo entusiasmante campo della biologia quantistica. Ha dimostrato che questa modificazione nei legami tra i filamenti del DNA è molto più diffusa di quanto si pensasse finora.  Il team ha utilizzato un approccio chiamato sistemi quantistici aperti per determinare i meccanismi fisici che potrebbero far sì che i protoni saltino tra i filamenti di DNA. Ma, cosa più intrigante, ha trovato che è grazie a un meccanismo quantistico ben noto, ma quasi magico, chiamato tunneling, che è simile ad un fantasma che passi attraverso un muro solido, che riescano ad attraversarlo.

Fin qui la notizia scientifica, ma entriamo nel dettaglio:

Il fenomeno del tunneling in fisica quantistica è un concetto affascinante che si basa sulla possibilità per una particella di attraversare una barriera di potenziale anche se non ha energia sufficiente per superarla secondo le leggi classiche della fisica. Ma, intendiamoci, il tunneling non è un processo esotico, importante solo per effetti fisici speciali; ha già parecchie applicazioni, come il diodo tunnel, la microscopia a tunneling a scansione (tunneling elettronico) o la microscopia ottica che opera in modalità tunneling di fotoni. Ma oggi si scopre che possa fare molto di più: i processi fisici e chimici che sono cruciali nelle teorie sull’origine e l’evoluzione della vita possono essere ricondotti direttamente agli effetti del tunneling quantistico.

Questo avviene perché, secondo la teoria quantisticala particella non ha una posizione o un'energia ben definita, ma esiste come un'onda di probabilità che si estende nello spazio. Di conseguenza, anche se la maggior parte della probabilità vede la particella sul lato iniziale della barriera, c'è una piccola ma non trascurabile possibilità che essa si trovi dall'altra parte della stessa.

Nel contesto delle mutazioni del DNA, l'applicazione del concetto di tunneling viene considerato in modalità analoga: il DNA è costituito da una lunga sequenza di basi azotate, e le mutazioni si verificano quando questa sequenza viene alterata. Queste mutazioni possono essere causate da vari fattori, come l'esposizione a radiazioni o a sostanze chimiche dannose.

Ora, se consideriamo il DNA come una sorta di "barriera", possiamo immaginare che le particelle (ad esempio, agenti mutageni come raggi UV o composti chimici) possano "tunnelizzare" in maniera quantistica attraverso questa barriera, causando danni al DNA e potenzialmente portando a mutazioni. Anche se le leggi della fisica classica suggerirebbero che la barriera del DNA dovrebbe proteggere la sua integrità, la meccanica quantistica ci insegna che esiste sempre una possibilità di tunneling, anche se molto piccola.

Questa scoperta è importante, perché ci aiuterà a comprendere meglio i meccanismi alla base delle mutazioni genetiche e, con esse, delle malattie genetiche, aprendo la strada a potenziali approcci terapeutici per prevenirle o trattarle.

E aprendo la strada ad altre scoperte della biologia quantistica e, ad altri fatti della vita fisiologica, finora ritenuti inspiegabili.

 

RIFERIMENTI

http://ebook.scuola.zanichelli.it/sadavabiologia/section-4/la-struttura-del-dna/section-4/la-struttura-del-dna#

https://www.nature.com/articles/s42005-022-00881-8

https://www.eurekalert.org/news-releases/951771

 

Evoluzione dell'intelligenza artificiale: macchine autoreplicanti, da Von Neumann ai giorni nostri

 

Evoluzione dell'intelligenza artificiale: macchine autoreplicanti, da Von Neumann ai giorni nostri

di Achille De Tommaso

 

Nel vasto panorama dell'intelligenza artificiale, si fa spazio un intreccio affascinante tra antiche visioni e moderne scoperte scientifiche. È sorprendente scoprire che l'idea di macchine capaci di auto-riproduzione non è una novità dei nostri tempi, ma risale addirittura alla prima metà del Novecento, quando il genio di John Von Neumann intravvide l'ipotetica possibilità di tali creature. Ancor più sorprendente è il fatto che questa visione anticipasse addirittura le fondamenta della biologia moderna, con il concetto dell'RNA messaggero: una microscopica macchina, che copia le informazioni del DNA e le trasmette ad una struttura, che le utilizza per fabbricare proteine. Ma c’è di più: Von Neumann, in realtà, stabilì le regole logiche alla base di tutte le modalità di autoreplicazione, siano esse biologiche, meccaniche o digitali: von Neumann dimostra che è necessario un meccanismo che non solo sia capace di riprodurre un determinato essere, ma anche le istruzioni che caratterizzano quell’essere.

***

Per decenni, l’intelligenza artificiale autoreplicante è stata fonte di fascino e preoccupazione. Lo sviluppo dell'intelligenza artificiale autoreplicante è stato un processo continuo di innovazione e scoperta dalle prime teorie di John Von Neumann ad oggi. 

Il matematico e informatico John Von Neumann propose per primo il concetto di macchine autoreplicanti negli anni '40. Von Neumann pensava che fosse possibile creare macchine autoreplicanti che utilizzassero materie prime ed energia provenienti dall'ambiente circostante per creare copie di se stesse. All’epoca, questa idea era rivoluzionaria e servì come base per la creazione di un’intelligenza artificiale autoreplicante.

I primi esperimenti con macchine autoreplicanti furono condotti negli anni '50 e '60. I ricercatori crearono semplici robot in grado di assemblare repliche di se stessi partendo da parti semplici. Sebbene questi primi test fossero rozzi, dimostrarono che le macchine erano capaci di autoreplicarsi.

L’idea dell’intelligenza artificiale autoreplicante è diventata poi più complessa con l’avanzare dell’informatica. I ricercatori hanno iniziato a creare programmi per computer autoreplicanti negli anni '80. Nel bene e nel male: infatti, questi programmi, noti come virus, sono diventati rapidamente un problema serio per gli utenti di computer.  Come sappiamo bene, virus informatici possono invadere, replicarsi e diffondersi su altri computer, provocando danni e interruzioni del sistema.

I ricercatori hanno iniziato a esaminare poi in dettaglio il potenziale dei robot autoreplicanti negli anni ’90. A quel tempo si iniziò ad istruire i robot a costruire duplicati di se stessi, con attrezzature e materiali molto specializzati e sofisticati. L'idea a quel tempo fu anche di sviluppare robot in grado di viaggiare su altri pianeti e fermarsi i lì, stabilendo nuove colonie man mano che viaggiavano.

Con l’avvento della tecnologia di stampa 3D nei primi anni 2000, l’intelligenza artificiale autoreplicante ha poi fatto notevoli progressi. I ricercatori sono stati in grado di creare facilmente strutture e parti complesse grazie alla stampa 3D, che ha creato nuove opportunità di autoreplicazione. Gli scienziati hanno così cominciato a creare robot in grado di duplicarsi utilizzando la tecnologia di stampa 3D, consentendo loro così di adattarsi all’ambiente circostante.

L’intelligenza artificiale autoreplicante è oggi una componente cruciale del settore della robotica. Le aziende stanno sviluppando robot in grado di manutenersi e ripararsi da soli, per ridurre la necessità dell’intervento umano. I robot autoreplicanti vengono utilizzati in campi come l’estrazione mineraria, l’esplorazione spaziale e l’agricoltura dove possono svolgere compiti troppo rischiosi o impegnativi per le persone.

I potenziali effetti dell’IA autoreplicante, tuttavia, possono non essere tutti piacevoli. Si teme che l’intelligenza artificiale autoreplicante possa mettere in pericolo la sicurezza delle persone. Se l’intelligenza artificiale autoreplicante dovesse diventare fuori controllo, potrebbe rapidamente contrastare qualsiasi tentativo di controllarla duplicandosi rapidamente. Molti ricercatori nutrono serie preoccupazioni riguardo a questo scenario, noto anche come scenario “grey goo”.

Lo scenario "grey goo" è un concetto teorico che si riferisce a una situazione ipotetica in cui nanorobot autoreplicanti, progettati per eseguire determinate funzioni, perdono il controllo e iniziano a riprodursi incontrollabilmente, consumando tutte le risorse disponibili sulla Terra e trasformando tutto ciò che incontrano in massa informe di nanorobot simile a una sostanza grigia, da cui il termine "grey goo" (in italiano "melma grigia").

Questo scenario, coniato dallo scrittore Eric Drexler negli anni '80, solleva gravi preoccupazioni riguardo alla sicurezza e al controllo delle tecnologie autoreplicanti, specialmente quando si tratta di nanotecnologie avanzate. Se i nanorobot progettati per riprodursi e svolgere determinate funzioni dovessero perdere il loro sistema di controllo o essere soggetti a malfunzionamenti, potrebbero proliferare senza limiti, consumando risorse vitali come aria, acqua e suolo, mettendo in pericolo la vita sulla Terra.

Sebbene lo scenario "grey goo" sia attualmente considerato più una speculazione fantascientifica che una reale minaccia, solleva importanti questioni etiche e morali riguardo alla responsabilità nell'uso e nello sviluppo delle tecnologie autoreplicanti. La gestione del rischio e la sicurezza sono quindi elementi cruciali da considerare quando si sviluppano e si implementano tali tecnologie.

Ci sono anche incertezze sul fatto che diffuse perdite di posti di lavoro potrebbero derivare dall’IA autoreplicante mentre le macchine iniziano a sostituire le persone in molti settori. Le macchine autoreplicanti potrebbero superare il lavoro umano man mano che si sviluppano in sofisticatezza e potenza, lasciando molte persone senza lavoro o altri mezzi di sussistenza.

Nonostante queste preoccupazioni, l’intelligenza artificiale autoreplicante presenta vantaggi che non possono essere ignorati. Settori come quello manifatturiero e quello edile potrebbero subire una rivoluzione grazie ai robot autoreplicanti, che aumenterebbero l’efficienza e ridurrebbero i costi. Potrebbero anche essere impiegati per scoprire e colonizzare nuovi pianeti, creando nuove opportunità per la civiltà umana.

In conclusione, dai primi concetti di John Von Neumann ad oggi, lo sviluppo dell’intelligenza artificiale autoreplicante è stato un processo continuo di innovazione e scoperta.  È fondamentale valutare attentamente i vantaggi e gli ostacoli, mentre continuiamo a sviluppare un’intelligenza artificiale che sia anche autoreplicante. Per evitare di mettere in pericolo la società umana, è essenziale assicurarsi che queste macchine siano costruite e programmate pensando alla sicurezza.

https://www.amazon.it/dp/B0CP4TKTVD

 

POST IN EVIDENZA

INTERFACCIA CERVELLO-COMPUTER NELLA DIFESA MILITARE

Entro il 2040, le interfacce cervello-computer (BCI) avanzate forniranno al combattente americano notevoli vantaggi. Le BCI permettono una...