Información del autor
Autor Gassiat, Élisabeth |
Documentos disponibles escritos por este autor (1)
Crear una solicitud de compra Refinar búsqueda
TÃtulo : Universal Coding and Order Identification by Model Selection Methods Tipo de documento: documento electrónico Autores: Gassiat, Élisabeth, Mención de edición: 1 ed. Editorial: [s.l.] : Springer Fecha de publicación: 2018 Número de páginas: XV, 146 p. 5 ilustraciones ISBN/ISSN/DL: 978-3-319-96262-7 Nota general: Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos. Idioma : Inglés (eng) Palabras clave: TeorÃa de la codificación TeorÃa de la información EstadÃsticas TeorÃa de la codificación y la información TeorÃa y métodos estadÃsticos. Clasificación: 003.54 Resumen: El propósito de estas notas es resaltar las conexiones de largo alcance entre la TeorÃa de la Información y la EstadÃstica. De hecho, la codificación universal y la compresión adaptativa están estrechamente relacionadas con la inferencia estadÃstica sobre procesos y el uso de métodos de máxima verosimilitud o bayesianos. El libro está dividido en cuatro capÃtulos, el primero de los cuales presenta a los lectores la codificación sin pérdidas, proporciona un lÃmite inferior intrÃnseco para la longitud de la palabra clave en términos de la entropÃa de Shannon y presenta algunos métodos de codificación que pueden lograr este lÃmite inferior, siempre que la distribución fuente sea conocido. A su vez, el CapÃtulo 2 aborda la codificación universal en alfabetos finitos y busca encontrar procedimientos de codificación que puedan lograr la tasa de compresión óptima, independientemente de la distribución de la fuente. También cuantifica la velocidad de convergencia de la tasa de compresión con la tasa de entropÃa de la fuente. Estos poderosos resultados no se extienden a infinitos alfabetos. En el CapÃtulo 3, se muestra que no existen códigos universales sobre la clase de fuentes ergódicas estacionarias sobre un alfabeto contable. Este resultado negativo impulsa al menos dos enfoques diferentes: la introducción de subclases más pequeñas de fuentes conocidas como clases de envolvente, sobre las cuales la codificación adaptativa puede ser factible, y la redefinición del criterio de rendimiento centrándose en comprimir el patrón del mensaje. Finalmente, el CapÃtulo 4 aborda la cuestión de la identificación del orden en estadÃstica. Esta pregunta pertenece a la clase de problemas de selección de modelos y surge en diversas situaciones prácticas en las que el objetivo es identificar un número entero que caracterice el modelo: la longitud de dependencia de una cadena de Markov, el número de estados ocultos de una cadena de Markov oculta y el número de poblaciones para una mezcla de poblaciones. Las ideas y técnicas de codificación desarrolladas en capÃtulos anteriores nos permiten obtener nuevos resultados en esta área. Este libro es accesible a cualquier persona con un nivel de posgrado en Matemáticas y atraerá tanto a los teóricos de la información como a los matemáticos estadÃsticos. Excepto el CapÃtulo 4, se detallan todas las pruebas y se revisan todas las herramientas necesarias para comprender el texto. Nota de contenido: 1. Lossless Coding -- 2.Universal Coding on Finite Alphabets -- 3.Universal Coding on Infinite Alphabets -- 4.Model Order Estimation -- Notation -- Index. Tipo de medio : Computadora Summary : The purpose of these notes is to highlight the far-reaching connections between Information Theory and Statistics. Universal coding and adaptive compression are indeed closely related to statistical inference concerning processes and using maximum likelihood or Bayesian methods. The book is divided into four chapters, the first of which introduces readers to lossless coding, provides an intrinsic lower bound on the codeword length in terms of Shannon's entropy, and presents some coding methods that can achieve this lower bound, provided the source distribution is known. In turn, Chapter 2 addresses universal coding on finite alphabets, and seeks to find coding procedures that can achieve the optimal compression rate, regardless of the source distribution. It also quantifies the speed of convergence of the compression rate to the source entropy rate. These powerful results do not extend to infinite alphabets. In Chapter 3, it is shown that there are no universal codes over the class ofstationary ergodic sources over a countable alphabet. This negative result prompts at least two different approaches: the introduction of smaller sub-classes of sources known as envelope classes, over which adaptive coding may be feasible, and the redefinition of the performance criterion by focusing on compressing the message pattern. Finally, Chapter 4 deals with the question of order identification in statistics. This question belongs to the class of model selection problems and arises in various practical situations in which the goal is to identify an integer characterizing the model: the length of dependency for a Markov chain, number of hidden states for a hidden Markov chain, and number of populations for a population mixture. The coding ideas and techniques developed in previous chapters allow us to obtain new results in this area. This book is accessible to anyone with a graduate level in Mathematics, and will appeal to information theoreticians and mathematicalstatisticians alike. Except for Chapter 4, all proofs are detailed and all tools needed to understand the text are reviewed. Enlace de acceso : https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...] Universal Coding and Order Identification by Model Selection Methods [documento electrónico] / Gassiat, Élisabeth, . - 1 ed. . - [s.l.] : Springer, 2018 . - XV, 146 p. 5 ilustraciones.
ISBN : 978-3-319-96262-7
Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos.
Idioma : Inglés (eng)
Palabras clave: TeorÃa de la codificación TeorÃa de la información EstadÃsticas TeorÃa de la codificación y la información TeorÃa y métodos estadÃsticos. Clasificación: 003.54 Resumen: El propósito de estas notas es resaltar las conexiones de largo alcance entre la TeorÃa de la Información y la EstadÃstica. De hecho, la codificación universal y la compresión adaptativa están estrechamente relacionadas con la inferencia estadÃstica sobre procesos y el uso de métodos de máxima verosimilitud o bayesianos. El libro está dividido en cuatro capÃtulos, el primero de los cuales presenta a los lectores la codificación sin pérdidas, proporciona un lÃmite inferior intrÃnseco para la longitud de la palabra clave en términos de la entropÃa de Shannon y presenta algunos métodos de codificación que pueden lograr este lÃmite inferior, siempre que la distribución fuente sea conocido. A su vez, el CapÃtulo 2 aborda la codificación universal en alfabetos finitos y busca encontrar procedimientos de codificación que puedan lograr la tasa de compresión óptima, independientemente de la distribución de la fuente. También cuantifica la velocidad de convergencia de la tasa de compresión con la tasa de entropÃa de la fuente. Estos poderosos resultados no se extienden a infinitos alfabetos. En el CapÃtulo 3, se muestra que no existen códigos universales sobre la clase de fuentes ergódicas estacionarias sobre un alfabeto contable. Este resultado negativo impulsa al menos dos enfoques diferentes: la introducción de subclases más pequeñas de fuentes conocidas como clases de envolvente, sobre las cuales la codificación adaptativa puede ser factible, y la redefinición del criterio de rendimiento centrándose en comprimir el patrón del mensaje. Finalmente, el CapÃtulo 4 aborda la cuestión de la identificación del orden en estadÃstica. Esta pregunta pertenece a la clase de problemas de selección de modelos y surge en diversas situaciones prácticas en las que el objetivo es identificar un número entero que caracterice el modelo: la longitud de dependencia de una cadena de Markov, el número de estados ocultos de una cadena de Markov oculta y el número de poblaciones para una mezcla de poblaciones. Las ideas y técnicas de codificación desarrolladas en capÃtulos anteriores nos permiten obtener nuevos resultados en esta área. Este libro es accesible a cualquier persona con un nivel de posgrado en Matemáticas y atraerá tanto a los teóricos de la información como a los matemáticos estadÃsticos. Excepto el CapÃtulo 4, se detallan todas las pruebas y se revisan todas las herramientas necesarias para comprender el texto. Nota de contenido: 1. Lossless Coding -- 2.Universal Coding on Finite Alphabets -- 3.Universal Coding on Infinite Alphabets -- 4.Model Order Estimation -- Notation -- Index. Tipo de medio : Computadora Summary : The purpose of these notes is to highlight the far-reaching connections between Information Theory and Statistics. Universal coding and adaptive compression are indeed closely related to statistical inference concerning processes and using maximum likelihood or Bayesian methods. The book is divided into four chapters, the first of which introduces readers to lossless coding, provides an intrinsic lower bound on the codeword length in terms of Shannon's entropy, and presents some coding methods that can achieve this lower bound, provided the source distribution is known. In turn, Chapter 2 addresses universal coding on finite alphabets, and seeks to find coding procedures that can achieve the optimal compression rate, regardless of the source distribution. It also quantifies the speed of convergence of the compression rate to the source entropy rate. These powerful results do not extend to infinite alphabets. In Chapter 3, it is shown that there are no universal codes over the class ofstationary ergodic sources over a countable alphabet. This negative result prompts at least two different approaches: the introduction of smaller sub-classes of sources known as envelope classes, over which adaptive coding may be feasible, and the redefinition of the performance criterion by focusing on compressing the message pattern. Finally, Chapter 4 deals with the question of order identification in statistics. This question belongs to the class of model selection problems and arises in various practical situations in which the goal is to identify an integer characterizing the model: the length of dependency for a Markov chain, number of hidden states for a hidden Markov chain, and number of populations for a population mixture. The coding ideas and techniques developed in previous chapters allow us to obtain new results in this area. This book is accessible to anyone with a graduate level in Mathematics, and will appeal to information theoreticians and mathematicalstatisticians alike. Except for Chapter 4, all proofs are detailed and all tools needed to understand the text are reviewed. Enlace de acceso : https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...]