Archivio 2019 278 seminari

\emph{Simplicial volume} is a homotopy invariant of compact manifolds introduced by Gromov in the early '80s. It measures the complexity of manifolds in terms of (real) singular chains. Despite its topological meaning, simplicial volume has many applications in geometry. For instance it provides useful information about the Riemannian volume of negatively curved manifolds. However, as soon as we consider non-compact manifolds its geometric meaning is much more mysterious. Indeed, one may extend the notion of simplicial volume to non-compact manifolds by considering locally finite homology, but its behaviour is not yet well understood. Among the key ingredients for studying the simplicial volume of (non-)compact manifolds, \emph{amenable groups} play a fundamental role. Recall that amenable groups are groups carrying invariant means. The aim of this talk is to investigate the relation between simplicial volume and amenable groups. More precisely, after having introduced the notion of \emph{amenable covering} of compact manifolds, we will discuss a classical vanishing result for the simplicial volume. Later we will construct special amenable coverings of non-compact manifolds. This will allow us to obtain the corresponding vanishing result in this setting. If there will be enough time, we will discuss a striking application of these results: the simplicial volume of the product of at least three non-compact manifolds always vanishes. Some results presented in this talk are part of a joint work with Roberto Frigerio.
Nella teoria classica delle approssimazioni diofantee l'insieme "Bad" è costituito dai numeri reali che sono male approssimabili dai razionali: si tratta di un insieme di misura zero e dimensione uno nella retta reale. Proprietà metriche più fini sono state studiate in dettaglio, sia nel caso classico che in varie generalizzazioni, in contesti legati alla dinamica su spazi omogenei ed altri spazi di moduli. L'insieme Bad ammette un'esaustione in sottoinsiemi Bad(c), la cui dimensione converge a 1 quando il parametro c>0 tende a zero. Nel caso classico D. Hensley ha ottenuto il primo ordine in c nello sviluppo asintotico della dimensione, attraverso un'analoga stima della dimensione dell'insieme dei numeri reali la cui frazione continua ha tutti i coefficienti parziali uniformemente limitati. Presenterò una generalizzazione della formula asintotica di Hensley nel contesto dei gruppi Fuchsiani, considerando l'insieme dei punti del bordo dello spazio iperbolico che sono male approssimabili per l'azione di un lattice non-uniforme G in PSL(2,R) ed un'esaustione di tale insieme in sottoinsiemi Bad(G,c), in termini di un parametro c>0. L'"espansione al bordo" di Bowen e Series permette di approssimare Bad(G,c) con insiemi di Cantor definiti dinamicamente, la cui dimensione può essere stimata con grande precisione tramite tecniche di formalismo termodinamico introdotte da Ruelle e Bowen. Un'analisi perturbativa del raggio spettrale dell'operatore di trasferimento fornisce la dimensione di Bad(G,c) al primo ordine in c.
Da uno spazio vettoriale V si ricava il sistema dei sottospazi lineari L, ordinato per inclusione, e l'anello degli endomorfismi R. Escludendo dim(V)<3, e con cura se dim(V)=3, seguendo von Staudt da L si ricostruisce V, e seguendo Birkhoff / Menger si caratterizza L, ma NON si ha una equivalenza. Generalizzando a moduli (o oggetti abeliani) V tali che ogni endomorfismo ha nucleo e immagine sommandi diretti, seguendo von Neumann si ha una equivalenza tra R e L, che si caratterizzano come anelli con inversa generalizzata (ogni x ha un y tale che xyx=x) e reticoli modulari complementati, con un sistema di unità matriciali di ordine n>2 in R e una base omogenea di ordine n in L (arguesiano se n=3). Il contesto generale chiarisce che V si ricostruisce solo a meno di equivalenze di Morita. L'equivalenza di von Neumann è archetipica per studiare altri casi. Due sono notevoli: [1] Partendo da uno spazio di Hilbert H, si ha una equivalenza tra gli anelli con involuzione A di operatori lineari continui tali che A=A'' (dove X' indica l'anello degli operatori che commutano con ogni x in X) e gli associati poset con involuzione P(A) delle proiezioni (idempotenti autoaggiunti, ordinati per divisibilità ef=e, con 1-e ortocomplemento di e), sempre escludendo i casi in cui una immagine omomorfa sia del tipo escluso sopra per V. Per i fondamenti logici della meccanica quantistica (i casi esclusi hanno intepretazione logico - quantistica della loro esclusione), von Neumann era particolarmente interessato al sottocaso indecomponibile (e=0,1 le uniche proiezioni che danno una decomposizione diretta) e ``finito'' (xy=1 implica yx=1 in A, ovvero P(A) modulare): von Neumann caratterizza P(A) come geometria continua con ortogonalità che permette libera mobilità e univocamente determina una probabilità di transizione; A è l'anello degli elementi limitati (sottoanello generato dalle proiezioni) dentro l'anello R associato a L=P(A). [2] Altri tipi di moduli (o oggetti abeliani) V ammettono una equivalenza come sopra, per esempio il caso di Baer - Inaba - J\'onsson / Monk dei moduli su anelli artiniani a ideali principali, caso che include i gruppi abeliani finiti e gli spazi vettoriali finito dimensionali con l'azione di una trasformazione lineare o antilineare. Se l'equivalenza per un singolo V è rara, accade invece sempre che una catagoria abeliana di vari V si ricostruisca dal reticolo associato. Il risutato finale (combinando Freyd - Mitchell per categorie abeliane e il teorema di G. Hutchinson per i reticoli) è che tre teorie in tre diversi linguaggi permettono di fare le stesse cose: (algebra lineare classica) moduli su un anello (algebra lineare moderna) categorie abeliane (geometria d'incidenza sintetica moderna) reticoli modulari con 0 in cui gli elementi sono raddoppiabili: $\forall x\exists y,z$: $x\vee y=y\vee z=z\vee x$ & $x\wedge y=y\wedge z=z\wedge x=0.$
Corso di Dottorato "Metodi variazionali e PDE per l’elaborazione delle immagini"- Cicli di seminari In this course we will present some classical and recent approaches for some problems in image reconstruction (denoising, deblurring, inpainting, shadow-removal…) formulated in terms of appropriate minimisation problems in infinite-dimensional functional spaces. We will further draw connections between these minimisation problems and parabolic Partial Differential Equations (PDEs) based on non-linear diffusion and possibly combined with transport terms. For the practical implementation of the models above, we will review standard finite difference stencils discussing their extensions to anisotropic diffusion and diffusion-transport problems. The course will be complemented by some practical MATLAB classes where simple exemplar problems will be solved by means of some reference iterative algorithms. Classical examples of imaging problems (denoising, deblurring, inpainting, segmentation..). Formulation as ill-posed inverse problems. Variational regularisation methods: regularisation term VS data fitting. Statistical interpretation: MAP estimation (2h) Sobolev spaces, standard methods in calculus of variations: a review. Total variation, the space of functions of bounded variations (2h) Second-order parabolic PDEs for image processing: heat equation, mean-curvature flow. Applications to image processing: linear VS non-linear PDEs. Regularisation of non-smoothness: lagged diffusivity. Anisotropic diffusion and diffusion-transport problems. (4h) Finite differences stencils for PDE-based imaging models. (2h) Numerical implementation and simulations in MATLAB for PDE-based models for image reconstruction (deblurring, inpainting, face fusion). (5h) Gli orari e le aule saranno specificati alla pagina web del dottorato ed inviati di volta in volta secondo il calendario 9/5: 2h (Teoria), mattina - 10/5: 2h (Teoria), mattina - 13/5: 2h (Teoria), mattina 14/5: 2h (Laboratorio), mattina 15/5: 2h (Teoria), mattina + 1h (Laboratorio), pomeriggio 16:5: 2h (Teoria), mattina - 17/5: 2h (Laboratorio), mattina
Da uno spazio vettoriale V si ricava il sistema dei sottospazi lineari L, ordinato per inclusione, e l'anello degli endomorfismi R. Escludendo dim(V)<3, e con cura se dim(V)=3, seguendo von Staudt da L si ricostruisce V, e seguendo Birkhoff / Menger si caratterizza L, ma NON si ha una equivalenza. Generalizzando a moduli (o oggetti abeliani) V tali che ogni endomorfismo ha nucleo e immagine sommandi diretti, seguendo von Neumann si ha una equivalenza tra R e L, che si caratterizzano come anelli con inversa generalizzata (ogni x ha un y tale che xyx=x) e reticoli modulari complementati, con un sistema di unità matriciali di ordine n>2 in R e una base omogenea di ordine n in L (arguesiano se n=3). Il contesto generale chiarisce che V si ricostruisce solo a meno di equivalenze di Morita. L'equivalenza di von Neumann è archetipica per studiare altri casi. Due sono notevoli: [1] Partendo da uno spazio di Hilbert H, si ha una equivalenza tra gli anelli con involuzione A di operatori lineari continui tali che A=A'' (dove X' indica l'anello degli operatori che commutano con ogni x in X) e gli associati poset con involuzione P(A) delle proiezioni (idempotenti autoaggiunti, ordinati per divisibilità ef=e, con 1-e ortocomplemento di e), sempre escludendo i casi in cui una immagine omomorfa sia del tipo escluso sopra per V. Per i fondamenti logici della meccanica quantistica (i casi esclusi hanno intepretazione logico - quantistica della loro esclusione), von Neumann era particolarmente interessato al sottocaso indecomponibile (e=0,1 le uniche proiezioni che danno una decomposizione diretta) e ``finito'' (xy=1 implica yx=1 in A, ovvero P(A) modulare): von Neumann caratterizza P(A) come geometria continua con ortogonalità che permette libera mobilità e univocamente determina una probabilità di transizione; A è l'anello degli elementi limitati (sottoanello generato dalle proiezioni) dentro l'anello R associato a L=P(A). [2] Altri tipi di moduli (o oggetti abeliani) V ammettono una equivalenza come sopra, per esempio il caso di Baer - Inaba - J\'onsson / Monk dei moduli su anelli artiniani a ideali principali, caso che include i gruppi abeliani finiti e gli spazi vettoriali finito dimensionali con l'azione di una trasformazione lineare o antilineare. Se l'equivalenza per un singolo V è rara, accade invece sempre che una catagoria abeliana di vari V si ricostruisca dal reticolo associato. Il risutato finale (combinando Freyd - Mitchell per categorie abeliane e il teorema di G. Hutchinson per i reticoli) è che tre teorie in tre diversi linguaggi permettono di fare le stesse cose: (algebra lineare classica) moduli su un anello (algebra lineare moderna) categorie abeliane (geometria d'incidenza sintetica moderna) reticoli modulari con 0 in cui gli elementi sono raddoppiabili: $\forall x\exists y,z$: $x\vee y=y\vee z=z\vee x$ & $x\wedge y=y\wedge z=z\wedge x=0.$
Il calcolo della probabilità degli eventi rari è l’obiettivo principale della teoria delle grandi deviazioni. Per esempio, in un caso semplice, si può considerare l’evento in cui una somma di variabili aleatorie di Bernoulli raggiunge un valore che è più grande della sua media. Un problema completamente differente e più complesso, è il calcolo delle grandi deviazioni di funzionali non lineari di variabili Bernoulliane, come per esempio i polinomi cubici. Un ambito in cui un problema di questo tipo insorge è, per esempio, lo studio delle reti complesse. In questo seminario presenterò il comportamento della funzione dei cumulanti (scaled cumulant generating function) del numero dei triangoli nel contesto del modello denso di Erdӧs-Rényi. La funzione dei cumulanti è strettamente connessa alla teoria delle grandi deviazioni in quanto, quando è possibile applicare il teorema di Gärtner-Ellis, essa risulta essere la trasformata di Legendre della funzione delle grandi deviazioni. L’obiettivo di questa comunicazione è duplice: da un lato, descrivere l’estensione di un noto metodo Monte Carlo, chiamato algoritmo Cloning, formalizzata per approssimare la funzione dei cumulanti di un’osservabile additiva nel contesto dei grafi random. Dall’altro, mantenendo il focus sull’osservabile triangoli, presentare l’indagine numerica che è stata svolta nella regione dei parametri dove l’espressione analitica di tale funzione non è nota (regime di rottura delle repliche).
Gradient projection (GP) methods have proved to be very efficient in the solution of optimization problems in which the projection onto the feasible set can be computed cheaply. In this seminar we, at first, review the theoretical results and algorithmic techniques developed for the case of bound constrained quadratic programming problems (BQPs). Then, we propose a gradient-based framework, called "Proportionality-based Subspace Accelerated framework for Quadratic Programming" (PSAQP), for quadratic programming problems. Inspired by the gradient projection conjugate gradient (GPCG) algorithm for convex BQPs [J. J. Moré and G. Toraldo, SIAM J. Optim., 1 (1991), pp. 93{113], our approach alternates between two phases until convergence: an identification phase, which performs gradient projection iterations until either a candidate active set is identified or no reasonable progress is made, and an unconstrained minimization phase, which reduces the objective function in a suitable space defined by the identification phase. The proposed framework differs from GPCG not only because it deals with a more general class of problems, but mainly for the way it stops the minimization phase. Indeed, thanks to a component-wise reformulation of the first-order KKT conditions, we introduce a way to estimate the Lagrange multipliers which is exploited to formulate an efficient criterion to switch between the two phases. If the objective function is bounded, every method fitting in the framework converges to a stationary point thanks to a suitable application of the GP method in the identification phase. For strictly convex problems, finite convergence is proved even in the case of degeneracy of the solution. Numerical experiments show that practical algorithms in this framework are competitive with reference algorithms for the solution of synthetic and real-life problems subject to bounds only or to bounds and a single linear constraint.
È matematicamente certo. Fate l’ipotesi che voi siate matematici e il vostro partner sia, per esempio, neurochirurgo. Vi presentate a cena, con un gruppo di nuovi amici. Fate quattro chiacchiere e dopo un po’ viene fuori che siete un ricercatore in matematica. Un attimo di sconcerto, sguardi di divertito stupore, e poi vi chiedono: «ma perché, cosa c'è da ricercare, in matematica?» Guardandosi tra loro, insistono: «non è già tutto scoperto?» E sicuramente almeno uno affermerà, con orgoglio: «io, la matematica, non l'ho mai capita!» Ma il peggio è che, mentre voi cercate di spiegare cosa mai giustifichi il vostro, peraltro misero, stipendio, i commensali scopriranno la professione del vostro partner. Fine dei vostri tre minuti di protagonismo: con sguardo stavolta sognante, il vicino di tavola si rivolgerà alla vostra metà, innanzi tutto convinto di essere in grado di intavolare una conversazione su argomenti di comune interesse, poi mentalmente calcolando il suo stipendio assolutamente rispettabile, per poi perdersi definitivamente dietro al fascino che il camice bianco evoca nella mente di chiunque. Voi scomparirete inesorabilmente, a far compagnia a ricordi tendenzialmente sgradevoli di numeri, equazioni, formule e simili inutilità. Insomma, nell'immaginario comune, il medico è un’attrazione, il matematico è un nerd. Sottili varianti si possono ottenere sostituendo a vostro piacimento "neurochirurgo" con “ingegnere elettronico", "magistrato", "architetto", "promotore finanziario", "biologo marino" e, addirittura, "fisico". C’è poco da fare, esiste un problema di rappresentazione della matematica e dei matematici nell’immaginario popolare, ed è un problema serio. In questo seminario ci proponiamo di chiarirne i termini, provando anche a esplorare possibili soluzioni. Purtroppo, anche alla fine di questa chiacchierata, non sarà ancora chiaro se queste esistano: in caso positivo, però, sappiamo già che certamente non saranno uniche!
This talk summarizes two modeling studies on the motor cortex and the cerebellum. The motor cortex is the final cortical pathway to motor circuits in the spinal cord, but its functional role has long been debated, particularly whether the motor cortex represents movement kinematics or dynamics. To resolve this issue, I modeled the visuomotor transformation using Newton-Euler equations of motion that has been used in robotics, and proposed that neural activities in the motor cortex represent vector cross products in the equations. This model explains a wide variety of the characteristics reported in the motor cortex in a unified manner. The cerebellum is hypothesized to predict a future state of the body from a current state and a corollary discharge, the computation known as an internal forward model. Although this hypothesis has been supported from a number of clinical, psychophysical and neuroimaging studies, a direct neurophysiological evidence is missing. I analyzed firing rates of mossy fibers (cerebellar inputs), Purkinje cells (outputs from cerebellar cortex), and dentate cells (cerebellar outputs) recorded from a behaving monkey. I found that the cerebellar outputs provided predictive information about future inputs to the cerebellum, providing direct neurophysiological evidence for the forward-model hypothesis of the cerebellum. [1] Tanaka, H., & Sejnowski, T. J. (2013). Computing reaching dynamics in motor cortex with Cartesian spatial coordinates. Journal of Neurophysiology, 109(4), 1182-1201. [2] Tanaka, H., & Sejnowski, T. J. (2015). Motor adaptation and generalization of reaching movements using motor primitives based on spatial coordinates. Journal of Neurophysiology, 113(4), 1217-1233. [3] Tanaka, H., Ishikawa, T., & Kakei, S. (2019). Neural Evidence of the Cerebellum as a State Predictor. The Cerebellum, 1-23.