Scienze

Matematica, c'è un problema impossibile persino per l'intelligenza artificiale

Un'équipe di matematici e informatici ha trovato un'analogia tra una particolare questione connessa all'apprendimento automatico, la tecnica con cui l'Ai "impara" a risolvere problemi, e l'ipotesi del continuo, un paradosso logico che Gödel mostrò essere irrisolvibile
2 minuti di lettura
LOGICA matematica vs intelligenza artificiale, uno a zero e palla al centro. Un’équipe di scienziati del Technion-Iit di Haifa, in Israele, e di altri istituti di ricerca, ha appena scoperto che a partire una particolare questione connessa all’apprendimento automatico – anche noto come machine learning, l’insieme di tecniche con cui le intelligenze artificiali imparano a risolvere problemi – emerge un paradosso logico analogo alla cosiddetta "ipotesi del continuo", problema che Kurt Gödel, già negli anni quaranta, mostrò essere irrisolvibile. I risultati dello studio, pubblicati sulla rivista Nature Machine Intelligence, indicano quindi che alcuni dei "limiti di dimostrabilità" intrinseci alla matematica valgono anche per l'intelligenza artificiale: "In poche parole," - scrivono gli autori nel lavoro - "possiamo dire che non tutto in matematica è dimostrabile. Abbiamo mostrato che anche l’apprendimento automatico condivide questo destino".

•QUANTO È GRANDE L’INFINITO?
Per comprendere i risultati cui sono giunti i ricercatori israeliani è bene fare un passo indietro. Tornando, per la precisione, agli anni settanta del XIX secolo, quando Georg Cantor, principale sviluppatore della cosiddetta "teoria degli insiemi", mostrò che non tutti gli insiemi infiniti sono uguali. Si considerino per esempio, dice Cantor, l’insieme dei numeri interi (0, 1, -1, 2, -2, etc.) e l’insieme dei numeri reali (che comprende, oltre agli interi, anche i numeri razionali, cioè quelli esprimibili come rapporto tra interi, e quelli irrazionali, non esprimibili come rapporto tra interi, come π e √2). Entrambi gli insiemi, ovviamente, contengono infiniti elementi, ma in qualche modo l’infinito del secondo – noto anche come "continuo" – è più grande dell’infinito del primo: Cantor ipotizzò che non potessero esistere insiemi di dimensione intermedia, ovvero più grandi dell’insieme degli interi ma più piccolo di quelli dei reali. Si tratta della cosiddetta "ipotesi del continuo", alla cui dimostrazione lavorarono, nei decenni a seguire, diversi logici e matematici di spessore. Ma senza alcun successo, almeno fino al 1940, quando il matematico austriaco Kurt Gödel (e, successivamente, anche il collega statunitense Paul Cohen) comprese che l’ipotesi del continuo non poteva essere dimostrata a partire dagli assiomi standard della teoria degli insiemi.

•DALLA LOGICA ALL’AI
Cosa c’entra tutto questo con l’intelligenza artificiale? Nel loro articolo, i ricercatori guidati dall’informatico Shai Ben-David hanno mostrato che anche un problema dell’apprendimento automatico, la cosiddetta learnability – un concetto legato alle capacità di un algoritmo di imparare a partire da un insieme limitato di dati –, è matematicamente analogo all’ipotesi del continuo. Ovvero, in altre parole, non è dimostrabile a partire da assiomi. "La learnability", spiega Davide Castelvecchi in un commento al paper pubblicato sul blog di Nature, "è definita come la capacità di fare previsioni su un grande insieme di dati usandone solo una piccola parte. Il collegamento con il problema di Cantor è che ci sono infiniti modi di scegliere l’insieme più piccolo, ma la dimensione di questo infinito non è nota". Gli autori, in sostanza, hanno ricondotto il problema della learnability per l’apprendimento automatico a quello dell’ipotesi del continuo, mostrando quindi che il primo si trova in una sorta di limbo da cui non si può scappare.

•UN PROBLEMA PIÙ PROFONDO DEGLI ALTRI
In realtà, quello appena scoperto non è l’unico problema irrisolvibile algoritmicamente. Dopo i lavori di Gödel, infatti, già Alan Turing mostrò l’esistenza di una classe di problemi che nessun algoritmo sarebbe stato certamente in grado di risolvere in un numero finito di passi. Ma in questo caso la questione è più profonda, come ha spiegato, sempre a Nature, Peter O’Hearn, informatico della University College London, non coinvolto nello studio: "L’irrisolvibilità della learnability è direttamente connessa all’incompletezza intrinseca di ogni linguaggio matematico. La scoperta sarà probabilmente importante per lo sviluppo della teoria dell’apprendimento automatico, anche se non sono sicuro che avrà molto impatto pratico".