Show simple item record

dc.contributor.advisorLamberti, Pedro Walter
dc.contributor.authorRiveaud, Leonardo Esteban
dc.date.accessioned2020-10-16T19:02:45Z
dc.date.available2020-10-16T19:02:45Z
dc.date.issued2020
dc.identifier.urihttp://hdl.handle.net/11086/16528
dc.descriptionTesis (Doctor en Física)--Universidad Nacional de Córdoba. Facultad de Matemática, Astronomía, Física y Computación, 2020.es
dc.description.abstractEsta tesis se encuadra en el marco de la Teoría de la Información. Como aporte original, introducimos una nueva entropía que generaliza la entropía de Shannon. Realizamos un exhaustivo estudio de sus propiedades y exploramos posibles ámbitos de aplicación. Por otro lado, y como objetivo principal de este trabajo, definimos y estudiamos cuantificadores de distinguibilidad entre distribuciones de probabilidad. Estos cuantificadores de distinguibilidad, también llamados divergencias, permiten discriminar dos distribuciones de probabilidad, que por su propio carácter estadístico, es difícil o imposible discriminar. Se investiga el mapeo de señales a distribuciones de probabilidad y por el uso de las divergencias se logra estudiar las propiedades estadísticas de las señales. Definimos aquí dos divergencias distintas: una proveniente de una novedosa interpretación de la divergencia de Kullback-Leibler; la otra generaliza a la distancia Euclidiana y permite una nueva interpretación de la divergencia de Jensen-Shannon. En los dos casos se hicieron aplicaciones tanto a señales de origen natural como simuladas.es
dc.description.abstractThis thesis is framed within the framework of Information Theory. As an original contribution, we introduce a new entropy that generalizes the Shannon entropy. We carry out an exhaustive study of its properties and explore possible areas of application. On the other hand, and as the main objective of this work, we define and study distinguishable quantifiers between probability distributions. These distinguishable quantifiers, also called divergences, make it possible to discriminate two probability distributions, which due to their own statistical nature, is difficult or impossible to discriminate. The mapping of signals to probability distributions is investigated and by the use of divergences it is possible to study the statistical properties of the signals. We define here two different divergences: one stemming from a novel interpretation of the Kullback-Leibler divergence; the other generalizes to the Euclidean distance and allows a new interpretation of the Jensen-Shannon divergence. In both cases, applications were made to both natural and simulated signals.en
dc.language.isospaes
dc.rightsAtribución-NoComercial-CompartirIgual 4.0 Internacional*
dc.rightsAtribución-NoComercial-CompartirIgual 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/*
dc.subjectTeoría de la Informaciónes
dc.subjectEntropíaes
dc.subjectStatistical Physicsen
dc.subjectInformation Theoryen
dc.titleMedidas de distinguibilidad entre distribuciones de probabilidad : aspectos teóricos y aplicaciones al estudio de las series temporaleses
dc.typebachelorThesises
dc.description.filFil: Riveaud, Leonardo Esteban. Universidad Nacional de Córdoba. Facultad de Matemática, Astronomía, Física y Computación; Argentina.es


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record

Atribución-NoComercial-CompartirIgual 4.0 Internacional
Except where otherwise noted, this item's license is described as Atribución-NoComercial-CompartirIgual 4.0 Internacional