Foto di Growtika su Unsplash

cattivi scienziati

L'AI ha scoperto una nuova legge fisica? Cosa dice davvero il preprint sulle ampiezze di scattering

Enrico Bucci

La macchina entra nel territorio della scoperta scientifica, ma la lettura accurata del lavoro chiarisce i confini di questo contributo. Il ruolo degli scienziati e gli scenari che si aprono

Quando ha iniziato a circolare in tutto il mondo la notizia che un sistema di intelligenza artificiale avrebbe derivato una “nuova legge” in fisica teorica, l’attenzione si è concentrata subito sull’idea di una soglia superata: una macchina che entra nel territorio della scoperta scientifica. In casi come questo l’unico modo per orientarsi consiste nel tornare alla descrizione reale di ciò che è stato fatto, in questo caso un preprint appena depositato, e seguirne con calma i passaggi e capire dove si colloca davvero il contributo. La lettura diretta del lavoro permette di ricostruire con precisione ciò che è stato fatto e, soprattutto, di capire in quale senso si possa parlare di “risultato”.

 

Il contesto della ricerca 

Il contesto è quello delle ampiezze di scattering, un concetto fondamentale della fisica delle particelle. Quando due particelle si incontrano e interagiscono, la teoria non prevede un esito deterministico ma una distribuzione di probabilità: certe trasformazioni sono più probabili, altre meno. Le ampiezze di scattering sono le grandezze matematiche da cui queste probabilità si ricavano. In pratica, rappresentano il cuore dei calcoli che permettono di collegare le equazioni della teoria ai risultati osservabili negli esperimenti. Nel lavoro si studiano le ampiezze che coinvolgono gluoni, le particelle responsabili dell’interazione forte, cioè della forza che tiene insieme i costituenti del nucleo atomico.

                               

Dentro questo quadro teorico, ben sviluppato da decenni, esistono molte classi di processi con proprietà matematiche diverse. Una di queste riguarda configurazioni particolari in cui quasi tutte le particelle hanno la stessa elicità, cioè lo stesso orientamento del loro stato di rotazione rispetto alla direzione del moto. In condizioni ordinarie, alcune di queste ampiezze risultano nulle, e questo fatto è noto da tempo. Il lavoro prende le mosse proprio da qui, ma introduce una condizione cinematica speciale. In parole semplici, invece di considerare solo le situazioni fisicamente realizzabili con grandezze reali, si esplora un regime matematico più generale, in cui le variabili possono assumere valori complessi o in cui la struttura dello spazio-tempo viene trattata con una firma matematica diversa. Questo tipo di estensione è pratica corrente nella fisica teorica, perché consente di far emergere proprietà nascoste delle equazioni.

In questo regime particolare accade qualcosa di significativo. Quelle ampiezze che, nel caso più comune, risultano nulle possono diventare diverse da zero. La questione, a quel punto, non è più se esistano, ma come si comportino e se esista una forma generale per descriverle quando il numero di particelle coinvolte cresce. È qui che si colloca il cuore del lavoro: l’individuazione di una formula compatta che descrive un’intera famiglia di questi casi speciali.

Per capire il senso di questo risultato conviene fermarsi un momento su che cosa significhi trovare una formula in questo contesto. Nella fisica teorica molte quantità si ottengono attraverso procedimenti ricorsivi, cioè costruendo casi complessi a partire da casi più semplici. Esistono metodi sistematici per farlo, basati sull’idea di scomporre un’interazione complicata in interazioni elementari e poi ricomporle. Questi metodi funzionano, ma producono spesso espressioni lunghe e poco trasparenti. Avere una formula chiusa significa disporre di una regola diretta che vale per tutti i casi della famiglia, senza dover ricostruire ogni volta il risultato passo per passo.

Il lavoro racconta con chiarezza come questa formula sia emersa. La struttura generale del problema era già nota: il tipo di ampiezze, il regime cinematica in cui diventano non nulle, il modo di calcolarle tramite procedimenti ricorsivi. Ciò che mancava era una forma semplice e generale. In questo spazio ben definito è stata proposta una congettura iniziale generata con l’aiuto di un modello linguistico. Una congettura, in matematica e in fisica teorica, è una proposta: una forma possibile che sembra funzionare, ma che deve essere dimostrata e verificata.

Da quel momento in poi il lavoro segue un percorso classico. La formula viene dimostrata con metodi analitici, cioè con passaggi matematici espliciti che mostrano perché deve essere vera. Poi viene controllata con un metodo indipendente, basato su una costruzione ricorsiva standard, per assicurarsi che produca gli stessi risultati. Infine, viene sottoposta a una serie di test di consistenza che ogni ampiezza di scattering deve soddisfare: simmetrie, relazioni note tra configurazioni diverse, proprietà che derivano dalla struttura profonda della teoria. Il fatto che la formula superi questi controlli è il punto scientificamente rilevante.

Un aspetto interessante, spiegato nel lavoro, riguarda la struttura stessa di queste ampiezze nel regime considerato. Invece di variare in modo continuo, assumono valori costanti all’interno di regioni ben definite dello spazio dei parametri e cambiano solo quando si attraversano confini precisi tra una regione e l’altra. È un comportamento matematico ordinato, che suggerisce una struttura sottostante semplice e che rende plausibile l’esistenza di una formula compatta.

 

Il ruolo dell’intelligenza artificiale

Dentro questo percorso si capisce anche il ruolo effettivo dell’intelligenza artificiale. Non entra come fonte di una nuova teoria, né come sistema che modifica le ipotesi di base della fisica. Il problema è formulato dai fisici, il formalismo è quello costruito negli anni dalla comunità, i metodi di verifica sono quelli standard. Il contributo specifico sta nell’aver suggerito una forma possibile per la soluzione generale di un sotto-problema ben definito. Il lavoro scientifico vero e proprio consiste poi nel dimostrare che quella forma è corretta e nel collocarla dentro la struttura teorica esistente.

A questo punto diventa necessario chiarire meglio la natura di questo contributo, perché è qui che si concentra la parte più fraintesa dell’intera vicenda. La congettura iniziale non nasce da una comprensione fisica del problema nel senso umano del termine. Nasce dalla capacità del modello di lavorare in modo estremamente efficiente nello spazio delle espressioni matematiche. Un modello linguistico è addestrato su enormi quantità di testi, e tra questi testi rientra anche una grande quantità di letteratura scientifica e matematica. Questo significa che ha interiorizzato, in forma statistica, strutture ricorrenti, schemi di scrittura simbolica, modi tipici di costruire formule compatte a partire da relazioni più complesse.

Quando viene esposto a un problema ben formulato, con vincoli chiari e con esempi di casi particolari, il modello è in grado di esplorare rapidamente combinazioni simboliche che rispettano quei vincoli. In altre parole, opera come un generatore estremamente efficiente di forme candidate. Non calcola nel senso classico, non dimostra, non verifica: propone strutture plausibili che condensano pattern presenti nei dati di partenza. È proprio questa capacità di condensazione che diventa utile in un contesto come quello delle ampiezze di scattering, dove si sa che esiste una struttura ordinata sottostante ma non si è ancora riusciti a esprimerla in forma compatta.

L’efficienza deriva da un fatto molto semplice: un essere umano esplora lo spazio delle possibili formule con lentezza, guidato dall’intuizione e dall’esperienza; un modello linguistico può attraversare quello spazio in modo molto più rapido, perché opera per analogia statistica su una quantità enorme di esempi impliciti. Quando il problema è posto in modo sufficientemente preciso, questa esplorazione può produrre oggetti matematici che somigliano a soluzioni generali. La maggior parte di queste proposte non è corretta, ma alcune lo sono, e una di queste può diventare una congettura da testare.

                            

Il contributo reale, quindi, sta in questa fase iniziale: la generazione di una forma compatta che si dimostra poi compatibile con tutte le proprietà richieste. La dimostrazione, la verifica e l’interpretazione restano attività umane e seguono percorsi standard. Il modello accelera la fase esplorativa, quella in cui si cercano strutture candidate, e lo fa in modo particolarmente efficace quando il problema è ben delimitato e ricco di regolarità matematiche.

Questo tipo di dinamica non è estraneo alla storia della disciplina. Molte formule importanti sono nate come intuizioni, come pattern intravisti in calcoli particolari e poi generalizzati. Qui la differenza è che l’intuizione iniziale è stata prodotta da uno strumento capace di esplorare combinazioni simboliche con grande rapidità. Il significato scientifico del risultato sta però nella dimostrazione e nella verifica, cioè nei passaggi che trasformano una proposta in un oggetto solido della teoria.

Seguendo da vicino il lavoro, il quadro che emerge è preciso. Il contenuto fisico di fondo resta quello stabilito dal formalismo delle interazioni tra gluoni. Il risultato riguarda la forma matematica con cui una certa classe di ampiezze può essere descritta in un regime speciale. La novità sta nella compattezza e nella generalità della formula, che permette di cogliere in un colpo solo ciò che prima richiedeva costruzioni iterative. In fisica teorica questo tipo di semplificazione ha valore perché rende più visibile la struttura delle equazioni e può facilitare sviluppi successivi.

 

Nuove possibilità per l'AI nella scienza

Il contributo si colloca quindi all’interno di un processo ben riconoscibile: un problema noto, una regione particolare dello spazio delle soluzioni, una congettura iniziale, una dimostrazione rigorosa, controlli indipendenti. In questo quadro emerge con chiarezza anche un aspetto più generale, che va oltre il singolo risultato. Siamo di fronte a una nuova applicazione importante degli strumenti linguistici in un ambito che fino a poco tempo fa non rientrava tra i loro usi naturali. La capacità di muoversi nello spazio delle espressioni simboliche, di individuare strutture compatte e di suggerire congetture matematiche mostra una versatilità inattesa e una reale efficienza operativa.

Allo stesso tempo, proprio la lettura accurata del lavoro chiarisce i confini di questo contributo. Il modello opera come uno strumento a disposizione degli scienziati, inserito in un processo che resta interamente guidato da chi conosce il problema, ne definisce i vincoli, verifica i risultati e li interpreta nel contesto della teoria. La fase decisiva, quella che trasforma una proposta in conoscenza consolidata, resta affidata alla dimostrazione e ai controlli concettuali. L’episodio mostra quindi la maturazione di una tecnologia capace di entrare con efficacia in territori inizialmente non esplorati, contribuendo alla fase esplorativa del lavoro teorico, e allo stesso tempo ne definisce con precisione il ruolo: uno strumento potente, flessibile e sempre più utile, integrato nella pratica scientifica, al di là delle semplificazioni e delle letture enfatiche che nascono quando non si segue con attenzione ciò che è stato effettivamente ottenuto, ipotizzando la comparsa di uno “scienziato artificiale” che, almeno in questa occasione, non è certo avvenuta.

 

Di più su questi argomenti: