Información del autor
Autor Andrei, Neculai |
Documentos disponibles escritos por este autor (3)
Crear una solicitud de compra Refinar búsqueda
TÃtulo : A Derivative-free Two Level Random Search Method for Unconstrained Optimization Tipo de documento: documento electrónico Autores: Andrei, Neculai, Mención de edición: 1 ed. Editorial: [s.l.] : Springer Fecha de publicación: 2021 Número de páginas: XI, 118 p. 14 ilustraciones, 13 ilustraciones en color. ISBN/ISSN/DL: 978-3-030-68517-1 Nota general: Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos. Idioma : Inglés (eng) Palabras clave: Optimización matemática La investigación de operaciones ciencia de la gestión Mejoramiento Investigación de Operaciones Ciencias de la Gestión Clasificación: 519.6 Resumen: El libro está dirigido a estudiantes de posgrado e investigadores en matemáticas, informática e investigación operativa. El libro presenta un nuevo método/algoritmo de optimización sin derivados basado en puntos de prueba generados aleatoriamente en dominios especÃficos y donde los mejores se seleccionan en cada iteración mediante el uso de una serie de reglas. Este método es diferente de muchos otros métodos bien establecidos presentados en la literatura y demuestra ser competitivo para resolver muchos problemas de optimización sin restricciones con diferentes estructuras y complejidades, con un número relativamente grande de variables. Experimentos numéricos intensivos con 140 problemas de optimización sin restricciones, con hasta 500 variables, han demostrado que este enfoque es eficiente y robusto. Estructurado en 4 capÃtulos, el CapÃtulo 1 es introductorio. El capÃtulo 2 está dedicado a presentar un método de búsqueda aleatoria sin derivadas de dos niveles para una optimización sin restricciones. Se supone que la función minimizadora es continua, de lÃmite inferior y se conoce su valor mÃnimo. El capÃtulo 3 demuestra la convergencia del algoritmo. En el CapÃtulo 4, se muestran las prestaciones numéricas del algoritmo para resolver 140 problemas de optimización sin restricciones, de los cuales 16 son aplicaciones reales. Esto muestra que el proceso de optimización tiene dos fases: la fase de reducción y la de estancamiento. Finalmente, se presentan las prestaciones del algoritmo para resolver un número de 30 problemas de optimización sin restricciones a gran escala con hasta 500 variables. Estos resultados numéricos muestran que este enfoque basado en el método de búsqueda aleatoria de dos niveles para optimización sin restricciones es capaz de resolver una gran diversidad de problemas con diferentes estructuras y complejidades. Hay una serie de problemas abiertos que se refieren a los siguientes aspectos: la selección del número de prueba o el número de puntos de prueba locales, la selección de los lÃmites de los dominios donde los puntos de prueba y los puntos de prueba locales se generan aleatoriamente y un criterio para iniciar la búsqueda de lÃnea. Nota de contenido: 1. Introduction -- 2. A Derivative-free Two Level Random Search Method for Unconstrained Optimization -- 3. Convergence of the Algorithm -- 4. Numerical Results -- 5. Conclusions -- Annex A. List of Applications -- Annex B. List of Test Functions -- Annex C. Detailed Results for 30 Large-Scale Problems -- Annex D. Detailed Results for 140 Problems. Tipo de medio : Computadora Summary : The book is intended for graduate students and researchers in mathematics, computer science, and operational research. The book presents a new derivative-free optimization method/algorithm based on randomly generated trial points in specified domains and where the best ones are selected at each iteration by using a number of rules. This method is different from many other well established methods presented in the literature and proves to be competitive for solving many unconstrained optimization problems with different structures and complexities, with a relative large number of variables. Intensive numerical experiments with 140 unconstrained optimization problems, with up to 500 variables, have shown that this approach is efficient and robust. Structured into 4 chapters, Chapter 1 is introductory. Chapter 2 is dedicated to presenting a two level derivative-free random search method for unconstrained optimization. It is assumed that the minimizing function is continuous, lowerbounded and its minimum value is known. Chapter 3 proves the convergence of the algorithm. In Chapter 4, the numerical performances of the algorithm are shown for solving 140 unconstrained optimization problems, out of which 16 are real applications. This shows that the optimization process has two phases: the reduction phase and the stalling one. Finally, the performances of the algorithm for solving a number of 30 large-scale unconstrained optimization problems up to 500 variables are presented. These numerical results show that this approach based on the two level random search method for unconstrained optimization is able to solve a large diversity of problems with different structures and complexities. There are a number of open problems which refer to the following aspects: the selection of the number of trial or the number of the local trial points, the selection of the bounds of the domains where the trial points and thelocal trial points are randomly generated and a criterion for initiating the line search. Enlace de acceso : https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...] A Derivative-free Two Level Random Search Method for Unconstrained Optimization [documento electrónico] / Andrei, Neculai, . - 1 ed. . - [s.l.] : Springer, 2021 . - XI, 118 p. 14 ilustraciones, 13 ilustraciones en color.
ISBN : 978-3-030-68517-1
Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos.
Idioma : Inglés (eng)
Palabras clave: Optimización matemática La investigación de operaciones ciencia de la gestión Mejoramiento Investigación de Operaciones Ciencias de la Gestión Clasificación: 519.6 Resumen: El libro está dirigido a estudiantes de posgrado e investigadores en matemáticas, informática e investigación operativa. El libro presenta un nuevo método/algoritmo de optimización sin derivados basado en puntos de prueba generados aleatoriamente en dominios especÃficos y donde los mejores se seleccionan en cada iteración mediante el uso de una serie de reglas. Este método es diferente de muchos otros métodos bien establecidos presentados en la literatura y demuestra ser competitivo para resolver muchos problemas de optimización sin restricciones con diferentes estructuras y complejidades, con un número relativamente grande de variables. Experimentos numéricos intensivos con 140 problemas de optimización sin restricciones, con hasta 500 variables, han demostrado que este enfoque es eficiente y robusto. Estructurado en 4 capÃtulos, el CapÃtulo 1 es introductorio. El capÃtulo 2 está dedicado a presentar un método de búsqueda aleatoria sin derivadas de dos niveles para una optimización sin restricciones. Se supone que la función minimizadora es continua, de lÃmite inferior y se conoce su valor mÃnimo. El capÃtulo 3 demuestra la convergencia del algoritmo. En el CapÃtulo 4, se muestran las prestaciones numéricas del algoritmo para resolver 140 problemas de optimización sin restricciones, de los cuales 16 son aplicaciones reales. Esto muestra que el proceso de optimización tiene dos fases: la fase de reducción y la de estancamiento. Finalmente, se presentan las prestaciones del algoritmo para resolver un número de 30 problemas de optimización sin restricciones a gran escala con hasta 500 variables. Estos resultados numéricos muestran que este enfoque basado en el método de búsqueda aleatoria de dos niveles para optimización sin restricciones es capaz de resolver una gran diversidad de problemas con diferentes estructuras y complejidades. Hay una serie de problemas abiertos que se refieren a los siguientes aspectos: la selección del número de prueba o el número de puntos de prueba locales, la selección de los lÃmites de los dominios donde los puntos de prueba y los puntos de prueba locales se generan aleatoriamente y un criterio para iniciar la búsqueda de lÃnea. Nota de contenido: 1. Introduction -- 2. A Derivative-free Two Level Random Search Method for Unconstrained Optimization -- 3. Convergence of the Algorithm -- 4. Numerical Results -- 5. Conclusions -- Annex A. List of Applications -- Annex B. List of Test Functions -- Annex C. Detailed Results for 30 Large-Scale Problems -- Annex D. Detailed Results for 140 Problems. Tipo de medio : Computadora Summary : The book is intended for graduate students and researchers in mathematics, computer science, and operational research. The book presents a new derivative-free optimization method/algorithm based on randomly generated trial points in specified domains and where the best ones are selected at each iteration by using a number of rules. This method is different from many other well established methods presented in the literature and proves to be competitive for solving many unconstrained optimization problems with different structures and complexities, with a relative large number of variables. Intensive numerical experiments with 140 unconstrained optimization problems, with up to 500 variables, have shown that this approach is efficient and robust. Structured into 4 chapters, Chapter 1 is introductory. Chapter 2 is dedicated to presenting a two level derivative-free random search method for unconstrained optimization. It is assumed that the minimizing function is continuous, lowerbounded and its minimum value is known. Chapter 3 proves the convergence of the algorithm. In Chapter 4, the numerical performances of the algorithm are shown for solving 140 unconstrained optimization problems, out of which 16 are real applications. This shows that the optimization process has two phases: the reduction phase and the stalling one. Finally, the performances of the algorithm for solving a number of 30 large-scale unconstrained optimization problems up to 500 variables are presented. These numerical results show that this approach based on the two level random search method for unconstrained optimization is able to solve a large diversity of problems with different structures and complexities. There are a number of open problems which refer to the following aspects: the selection of the number of trial or the number of the local trial points, the selection of the bounds of the domains where the trial points and thelocal trial points are randomly generated and a criterion for initiating the line search. Enlace de acceso : https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...]
TÃtulo : Continuous Nonlinear Optimization for Engineering Applications in GAMS Technology Tipo de documento: documento electrónico Autores: Andrei, Neculai, Mención de edición: 1 ed. Editorial: [s.l.] : Springer Fecha de publicación: 2017 Número de páginas: XXIV, 506 p. 68 ilustraciones, 66 ilustraciones en color. ISBN/ISSN/DL: 978-3-319-58356-3 Nota general: Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos. Idioma : Inglés (eng) Palabras clave: Optimización matemática Modelos matemáticos Algoritmos Mejoramiento Modelización Matemática y Matemática Industrial Clasificación: 519.6 Resumen: Este libro presenta los detalles teóricos y el rendimiento computacional de los algoritmos utilizados para resolver aplicaciones de optimización no lineal continua integradas en GAMS. Dirigido a cientÃficos y estudiantes de posgrado que utilizan métodos de optimización para modelar y resolver problemas en programación matemática, investigación de operaciones, negocios, ingenierÃa e industria, este libro permite a los lectores con experiencia en optimización no lineal y álgebra lineal utilizar la tecnologÃa GAMS para comprender y utilizar sus importantes capacidades para optimizar algoritmos para modelar y resolver problemas o aplicaciones de optimización no lineal continua, compleja y a gran escala. Comenzando con una descripción general de los métodos de optimización no lineal restringida, este libro continúa ilustrando aspectos clave del modelado matemático a través de tecnologÃas de modelado basadas en lenguajes de modelado orientados algebraicamente. A continuación, se presenta la caracterÃstica principal de GAMS, un lenguaje de orientación algebraica que permite la representación algebraica de alto nivel de modelos de optimización matemática, para modelar y resolver aplicaciones de optimización no lineal continua. Se presentan más de 15 aplicaciones reales de optimización no lineal en representación algebraica y GAMS que se utilizan para ilustrar el rendimiento de los algoritmos descritos en este libro. Los resultados, métodos y técnicas teóricos y computacionales efectivos para la resolución de problemas de optimización no lineal, se detallan a través de los algoritmos MINOS, KNITRO, CONOPT, SNOPT e IPOPT que trabajan en tecnologÃa GAMS. Nota de contenido: 1. Introduction -- 2. Mathematical modeling using algebraically oriented languages for nonlinear optimization -- 3. Introduction to GAMS technology -- 4. Applications of continuous nonlinear optimization -- 5. Optimality conditions for continuous nonlinear optimization -- 6. Simple bound constraint optimization -- 7. Penalty and augmented Langrangian methods -- 8. Penalty-Barrier Algorithm -- 9. Linearly Constrained Augmented Lagrangian -- 10. Quadratic programming -- 11. Sequential quadratic programming -- 12. A SQP Method using only Equalit Constrained Sub-problem -- 12. A Sequential Quadratic Programming Algorithm with Successive Error Restoration -- 14. Active-set Sequential Linear-Quadratic Programming -- 15. A SQP algorithm for Large-Scale Constrained Optimization -- 16. Generalized Reduced Gradient with sequential linearization -- 17. Interior point methods -- 18. Filter methods -- 19. Interior Point Sequential Linear-Quadratic Programming -- 20. Interior Point Filer Line-Search IPOPT -- 21. Numerical studies. Tipo de medio : Computadora Summary : This book presents the theoretical details and computational performances of algorithms used for solving continuous nonlinear optimization applications imbedded in GAMS. Aimed toward scientists and graduate students who utilize optimization methods to model and solve problems in mathematical programming, operations research, business, engineering, and industry, this book enables readers with a background in nonlinear optimization and linear algebra to use GAMS technology to understand and utilize its important capabilities to optimize algorithms for modeling and solving complex, large-scale, continuous nonlinear optimization problems or applications. Beginning with an overview of constrained nonlinear optimization methods, this book moves on to illustrate key aspects of mathematical modeling through modeling technologies based on algebraically oriented modeling languages. Next, the main feature of GAMS, an algebraically oriented language that allows for high-level algebraicrepresentation of mathematical optimization models, is introduced to model and solve continuous nonlinear optimization applications. More than 15 real nonlinear optimization applications in algebraic and GAMS representation are presented which are used to illustrate the performances of the algorithms described in this book. Theoretical and computational results, methods, and techniques effective for solving nonlinear optimization problems, are detailed through the algorithms MINOS, KNITRO, CONOPT, SNOPT and IPOPT which work in GAMS technology. Enlace de acceso : https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...] Continuous Nonlinear Optimization for Engineering Applications in GAMS Technology [documento electrónico] / Andrei, Neculai, . - 1 ed. . - [s.l.] : Springer, 2017 . - XXIV, 506 p. 68 ilustraciones, 66 ilustraciones en color.
ISBN : 978-3-319-58356-3
Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos.
Idioma : Inglés (eng)
Palabras clave: Optimización matemática Modelos matemáticos Algoritmos Mejoramiento Modelización Matemática y Matemática Industrial Clasificación: 519.6 Resumen: Este libro presenta los detalles teóricos y el rendimiento computacional de los algoritmos utilizados para resolver aplicaciones de optimización no lineal continua integradas en GAMS. Dirigido a cientÃficos y estudiantes de posgrado que utilizan métodos de optimización para modelar y resolver problemas en programación matemática, investigación de operaciones, negocios, ingenierÃa e industria, este libro permite a los lectores con experiencia en optimización no lineal y álgebra lineal utilizar la tecnologÃa GAMS para comprender y utilizar sus importantes capacidades para optimizar algoritmos para modelar y resolver problemas o aplicaciones de optimización no lineal continua, compleja y a gran escala. Comenzando con una descripción general de los métodos de optimización no lineal restringida, este libro continúa ilustrando aspectos clave del modelado matemático a través de tecnologÃas de modelado basadas en lenguajes de modelado orientados algebraicamente. A continuación, se presenta la caracterÃstica principal de GAMS, un lenguaje de orientación algebraica que permite la representación algebraica de alto nivel de modelos de optimización matemática, para modelar y resolver aplicaciones de optimización no lineal continua. Se presentan más de 15 aplicaciones reales de optimización no lineal en representación algebraica y GAMS que se utilizan para ilustrar el rendimiento de los algoritmos descritos en este libro. Los resultados, métodos y técnicas teóricos y computacionales efectivos para la resolución de problemas de optimización no lineal, se detallan a través de los algoritmos MINOS, KNITRO, CONOPT, SNOPT e IPOPT que trabajan en tecnologÃa GAMS. Nota de contenido: 1. Introduction -- 2. Mathematical modeling using algebraically oriented languages for nonlinear optimization -- 3. Introduction to GAMS technology -- 4. Applications of continuous nonlinear optimization -- 5. Optimality conditions for continuous nonlinear optimization -- 6. Simple bound constraint optimization -- 7. Penalty and augmented Langrangian methods -- 8. Penalty-Barrier Algorithm -- 9. Linearly Constrained Augmented Lagrangian -- 10. Quadratic programming -- 11. Sequential quadratic programming -- 12. A SQP Method using only Equalit Constrained Sub-problem -- 12. A Sequential Quadratic Programming Algorithm with Successive Error Restoration -- 14. Active-set Sequential Linear-Quadratic Programming -- 15. A SQP algorithm for Large-Scale Constrained Optimization -- 16. Generalized Reduced Gradient with sequential linearization -- 17. Interior point methods -- 18. Filter methods -- 19. Interior Point Sequential Linear-Quadratic Programming -- 20. Interior Point Filer Line-Search IPOPT -- 21. Numerical studies. Tipo de medio : Computadora Summary : This book presents the theoretical details and computational performances of algorithms used for solving continuous nonlinear optimization applications imbedded in GAMS. Aimed toward scientists and graduate students who utilize optimization methods to model and solve problems in mathematical programming, operations research, business, engineering, and industry, this book enables readers with a background in nonlinear optimization and linear algebra to use GAMS technology to understand and utilize its important capabilities to optimize algorithms for modeling and solving complex, large-scale, continuous nonlinear optimization problems or applications. Beginning with an overview of constrained nonlinear optimization methods, this book moves on to illustrate key aspects of mathematical modeling through modeling technologies based on algebraically oriented modeling languages. Next, the main feature of GAMS, an algebraically oriented language that allows for high-level algebraicrepresentation of mathematical optimization models, is introduced to model and solve continuous nonlinear optimization applications. More than 15 real nonlinear optimization applications in algebraic and GAMS representation are presented which are used to illustrate the performances of the algorithms described in this book. Theoretical and computational results, methods, and techniques effective for solving nonlinear optimization problems, are detailed through the algorithms MINOS, KNITRO, CONOPT, SNOPT and IPOPT which work in GAMS technology. Enlace de acceso : https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...]
TÃtulo : Nonlinear Conjugate Gradient Methods for Unconstrained Optimization Tipo de documento: documento electrónico Autores: Andrei, Neculai, Mención de edición: 1 ed. Editorial: [s.l.] : Springer Fecha de publicación: 2020 Número de páginas: XXVIII, 498 p. 93 ilustraciones, 90 ilustraciones en color. ISBN/ISSN/DL: 978-3-030-42950-8 Nota general: Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos. Idioma : Inglés (eng) Palabras clave: Optimización matemática Modelos matemáticos Mejoramiento Modelización Matemática y Matemática Industrial Clasificación: 519.6 Resumen: Se conocen dos enfoques para resolver problemas de optimización sin restricciones a gran escala: el método cuasi-Newton de memoria limitada (método de Newton truncado) y el método del gradiente conjugado. Este es el primer libro que detalla los métodos de gradiente conjugado, mostrando sus propiedades y caracterÃsticas de convergencia, asà como su desempeño para resolver problemas y aplicaciones de optimización sin restricciones a gran escala. También se analizan las comparaciones con los métodos de Newton truncado y de memoria limitada. Los temas estudiados en detalle incluyen: métodos de gradiente conjugado lineal, métodos de gradiente conjugado estándar, aceleración de métodos de gradiente conjugado, hÃbridos, modificaciones del esquema estándar, BFGS precondicionado sin memoria y tres términos. También se tratan otros métodos de gradiente conjugado con agrupación de valores propios o con la minimización del número de condición de la matriz de iteración. Para cada método, se proporcionan el análisis de convergencia, el rendimiento computacional y las comparaciones con otros métodos de gradiente conjugado. La teorÃa detrás de los algoritmos de gradiente conjugado presentada como metodologÃa se desarrolla con una exposición clara, rigurosa y amigable; el lector comprenderá sus propiedades y su convergencia y aprenderá a desarrollar y probar la convergencia de sus propios métodos. Se proporcionan numerosos estudios numéricos con comparaciones y comentarios sobre el comportamiento de algoritmos de gradiente conjugado para resolver una colección de 800 problemas de optimización sin restricciones de diferentes estructuras y complejidades con el número de variables en el rango [1000,10000]. El libro está dirigido a todos aquellos interesados ​​en desarrollar y utilizar nuevas técnicas avanzadas para resolver problemas complejos de optimización sin restricciones. Investigadores de programación matemática, teóricos y profesionales de la investigación de operaciones, profesionales de la ingenierÃa e investigadores de la industria, asà como estudiantes de posgrado en matemáticas, Ph.D. y estudiantes de maestrÃa en programación matemática, encontrarán mucha información y aplicaciones prácticas para resolver problemas de optimización sin restricciones a gran escala y aplicaciones mediante métodos de gradiente conjugado. Nota de contenido: 1. Introduction -- 2. Linear Conjugate Gradient Algorithm -- 3. General Convergence Results for Nonlinear Conjugate Gradient Methods -- 4. Standard Conjugate Gradient Methods -- 5. Acceleration of Conjugate Gradient Algorithms -- 6. Hybrid and Parameterized Conjugate Gradient Methods -- 7. Conjugate Gradient Methods as Modifications of the Standard Schemes -- 8. Conjugate Gradient Methods Memoryless BFGS Preconditioned -- 9. Three-Term Conjugate Gradient Methods -- 10. Other Conjugate Gradient Methods -- 11. Discussion and Conclusions -- References -- Author Index -- Subject Index. Tipo de medio : Computadora Summary : Two approaches are known for solving large-scale unconstrained optimization problemsЀ”the limited-memory quasi-Newton method (truncated Newton method) and the conjugate gradient method. This is the first book to detail conjugate gradient methods, showing their properties and convergence characteristics as well as their performance in solving large-scale unconstrained optimization problems and applications. Comparisons to the limited-memory and truncated Newton methods are also discussed. Topics studied in detail include: linear conjugate gradient methods, standard conjugate gradient methods, acceleration of conjugate gradient methods, hybrid, modifications of the standard scheme, memoryless BFGS preconditioned, and three-term. Other conjugate gradient methods with clustering the eigenvalues or with the minimization of the condition number of the iteration matrix, are also treated. For each method, the convergence analysis, the computational performances and the comparisons versus other conjugate gradient methods are given. The theory behind the conjugate gradient algorithms presented as a methodology is developed with a clear, rigorous, and friendly exposition; the reader will gain an understanding of their properties and their convergence and will learn to develop and prove the convergence of his/her own methods. Numerous numerical studies are supplied with comparisons and comments on the behavior of conjugate gradient algorithms for solving a collection of 800 unconstrained optimization problems of different structures and complexities with the number of variables in the range [1000,10000]. The book is addressed to all those interested in developing and using new advanced techniques for solving unconstrained optimization complex problems. Mathematical programming researchers, theoreticians and practitioners in operations research, practitioners in engineering and industry researchers, as well as graduate students in mathematics,Ph.D. and master students in mathematical programming, will find plenty of information and practical applications for solving large-scale unconstrained optimization problems and applications by conjugate gradient methods. Enlace de acceso : https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...] Nonlinear Conjugate Gradient Methods for Unconstrained Optimization [documento electrónico] / Andrei, Neculai, . - 1 ed. . - [s.l.] : Springer, 2020 . - XXVIII, 498 p. 93 ilustraciones, 90 ilustraciones en color.
ISBN : 978-3-030-42950-8
Libro disponible en la plataforma SpringerLink. Descarga y lectura en formatos PDF, HTML y ePub. Descarga completa o por capítulos.
Idioma : Inglés (eng)
Palabras clave: Optimización matemática Modelos matemáticos Mejoramiento Modelización Matemática y Matemática Industrial Clasificación: 519.6 Resumen: Se conocen dos enfoques para resolver problemas de optimización sin restricciones a gran escala: el método cuasi-Newton de memoria limitada (método de Newton truncado) y el método del gradiente conjugado. Este es el primer libro que detalla los métodos de gradiente conjugado, mostrando sus propiedades y caracterÃsticas de convergencia, asà como su desempeño para resolver problemas y aplicaciones de optimización sin restricciones a gran escala. También se analizan las comparaciones con los métodos de Newton truncado y de memoria limitada. Los temas estudiados en detalle incluyen: métodos de gradiente conjugado lineal, métodos de gradiente conjugado estándar, aceleración de métodos de gradiente conjugado, hÃbridos, modificaciones del esquema estándar, BFGS precondicionado sin memoria y tres términos. También se tratan otros métodos de gradiente conjugado con agrupación de valores propios o con la minimización del número de condición de la matriz de iteración. Para cada método, se proporcionan el análisis de convergencia, el rendimiento computacional y las comparaciones con otros métodos de gradiente conjugado. La teorÃa detrás de los algoritmos de gradiente conjugado presentada como metodologÃa se desarrolla con una exposición clara, rigurosa y amigable; el lector comprenderá sus propiedades y su convergencia y aprenderá a desarrollar y probar la convergencia de sus propios métodos. Se proporcionan numerosos estudios numéricos con comparaciones y comentarios sobre el comportamiento de algoritmos de gradiente conjugado para resolver una colección de 800 problemas de optimización sin restricciones de diferentes estructuras y complejidades con el número de variables en el rango [1000,10000]. El libro está dirigido a todos aquellos interesados ​​en desarrollar y utilizar nuevas técnicas avanzadas para resolver problemas complejos de optimización sin restricciones. Investigadores de programación matemática, teóricos y profesionales de la investigación de operaciones, profesionales de la ingenierÃa e investigadores de la industria, asà como estudiantes de posgrado en matemáticas, Ph.D. y estudiantes de maestrÃa en programación matemática, encontrarán mucha información y aplicaciones prácticas para resolver problemas de optimización sin restricciones a gran escala y aplicaciones mediante métodos de gradiente conjugado. Nota de contenido: 1. Introduction -- 2. Linear Conjugate Gradient Algorithm -- 3. General Convergence Results for Nonlinear Conjugate Gradient Methods -- 4. Standard Conjugate Gradient Methods -- 5. Acceleration of Conjugate Gradient Algorithms -- 6. Hybrid and Parameterized Conjugate Gradient Methods -- 7. Conjugate Gradient Methods as Modifications of the Standard Schemes -- 8. Conjugate Gradient Methods Memoryless BFGS Preconditioned -- 9. Three-Term Conjugate Gradient Methods -- 10. Other Conjugate Gradient Methods -- 11. Discussion and Conclusions -- References -- Author Index -- Subject Index. Tipo de medio : Computadora Summary : Two approaches are known for solving large-scale unconstrained optimization problemsЀ”the limited-memory quasi-Newton method (truncated Newton method) and the conjugate gradient method. This is the first book to detail conjugate gradient methods, showing their properties and convergence characteristics as well as their performance in solving large-scale unconstrained optimization problems and applications. Comparisons to the limited-memory and truncated Newton methods are also discussed. Topics studied in detail include: linear conjugate gradient methods, standard conjugate gradient methods, acceleration of conjugate gradient methods, hybrid, modifications of the standard scheme, memoryless BFGS preconditioned, and three-term. Other conjugate gradient methods with clustering the eigenvalues or with the minimization of the condition number of the iteration matrix, are also treated. For each method, the convergence analysis, the computational performances and the comparisons versus other conjugate gradient methods are given. The theory behind the conjugate gradient algorithms presented as a methodology is developed with a clear, rigorous, and friendly exposition; the reader will gain an understanding of their properties and their convergence and will learn to develop and prove the convergence of his/her own methods. Numerous numerical studies are supplied with comparisons and comments on the behavior of conjugate gradient algorithms for solving a collection of 800 unconstrained optimization problems of different structures and complexities with the number of variables in the range [1000,10000]. The book is addressed to all those interested in developing and using new advanced techniques for solving unconstrained optimization complex problems. Mathematical programming researchers, theoreticians and practitioners in operations research, practitioners in engineering and industry researchers, as well as graduate students in mathematics,Ph.D. and master students in mathematical programming, will find plenty of information and practical applications for solving large-scale unconstrained optimization problems and applications by conjugate gradient methods. Enlace de acceso : https://link-springer-com.biblioproxy.umanizales.edu.co/referencework/10.1007/97 [...]