| TÃtulo : |
The Projected Subgradient Algorithm in Convex Optimization |
| Tipo de documento: |
documento electrónico |
| Autores: |
Zaslavski, Alexander J., Autor |
| Mención de edición: |
1 ed. |
| Editorial: |
[s.l.] : Springer |
| Fecha de publicación: |
2020 |
| Número de páginas: |
VI, 146 p. |
| ISBN/ISSN/DL: |
978-3-030-60300-7 |
| Nota general: |
Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos. |
| Palabras clave: |
Optimización matemática Cálculo de variaciones Análisis numérico Cálculo de variaciones y optimización |
| Ãndice Dewey: |
519.6 |
| Resumen: |
Esta monografÃa enfocada presenta un estudio de algoritmos de subgradiente para problemas de minimización restringida en un espacio de Hilbert. El libro es de interés para expertos en aplicaciones de optimización a la ingenierÃa y la economÃa. El objetivo es obtener una buena solución aproximada del problema en presencia de errores computacionales. La discusión toma en consideración el hecho de que para cada algoritmo su iteración consta de varios pasos y que los errores computacionales para diferentes pasos son diferentes, en general. El libro es especialmente útil para el lector porque contiene soluciones a una serie de problemas difÃciles e interesantes en la optimización numérica. El algoritmo de proyección de subgradiente es una de las herramientas más importantes en la teorÃa de optimización y sus aplicaciones. Un problema de optimización se describe mediante una función objetivo y un conjunto de puntos factibles. Para este algoritmo, cada iteración consta de dos pasos. El primer paso requiere un cálculo de un subgradiente de la función objetivo; el segundo requiere un cálculo de una proyección sobre el conjunto factible. Los errores computacionales en cada uno de estos dos pasos son diferentes. Este libro muestra que el algoritmo analizado genera una buena solución aproximada si todos los errores de cálculo están acotados desde arriba por una pequeña constante positiva. Además, si se conocen los errores de cálculo para los dos pasos del algoritmo, se descubre una solución aproximada y cuántas iteraciones se necesitan para ello. Además de su interés matemático, las generalizaciones consideradas en este libro tienen un significado práctico significativo. |
| Nota de contenido: |
1. Introduction -- 2. Nonsmooth Convex Optimization -- 3. Extensions -- 4. Zero-sum Games with Two Players -- 5. Quasiconvex Optimization -- References. |
| En lÃnea: |
https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...] |
| Link: |
https://biblioteca.umanizales.edu.co/ils/opac_css/index.php?lvl=notice_display&i |
The Projected Subgradient Algorithm in Convex Optimization [documento electrónico] / Zaslavski, Alexander J., Autor . - 1 ed. . - [s.l.] : Springer, 2020 . - VI, 146 p. ISBN : 978-3-030-60300-7 Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos.
| Palabras clave: |
Optimización matemática Cálculo de variaciones Análisis numérico Cálculo de variaciones y optimización |
| Ãndice Dewey: |
519.6 |
| Resumen: |
Esta monografÃa enfocada presenta un estudio de algoritmos de subgradiente para problemas de minimización restringida en un espacio de Hilbert. El libro es de interés para expertos en aplicaciones de optimización a la ingenierÃa y la economÃa. El objetivo es obtener una buena solución aproximada del problema en presencia de errores computacionales. La discusión toma en consideración el hecho de que para cada algoritmo su iteración consta de varios pasos y que los errores computacionales para diferentes pasos son diferentes, en general. El libro es especialmente útil para el lector porque contiene soluciones a una serie de problemas difÃciles e interesantes en la optimización numérica. El algoritmo de proyección de subgradiente es una de las herramientas más importantes en la teorÃa de optimización y sus aplicaciones. Un problema de optimización se describe mediante una función objetivo y un conjunto de puntos factibles. Para este algoritmo, cada iteración consta de dos pasos. El primer paso requiere un cálculo de un subgradiente de la función objetivo; el segundo requiere un cálculo de una proyección sobre el conjunto factible. Los errores computacionales en cada uno de estos dos pasos son diferentes. Este libro muestra que el algoritmo analizado genera una buena solución aproximada si todos los errores de cálculo están acotados desde arriba por una pequeña constante positiva. Además, si se conocen los errores de cálculo para los dos pasos del algoritmo, se descubre una solución aproximada y cuántas iteraciones se necesitan para ello. Además de su interés matemático, las generalizaciones consideradas en este libro tienen un significado práctico significativo. |
| Nota de contenido: |
1. Introduction -- 2. Nonsmooth Convex Optimization -- 3. Extensions -- 4. Zero-sum Games with Two Players -- 5. Quasiconvex Optimization -- References. |
| En lÃnea: |
https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...] |
| Link: |
https://biblioteca.umanizales.edu.co/ils/opac_css/index.php?lvl=notice_display&i |
|  |