Optimization for Data Analysis

ยท Cambridge University Press
เด‡-เดฌเตเด•เตเด•เต
239
เดชเต‡เดœเตเด•เตพ
เดฑเต‡เดฑเตเดฑเดฟเด‚เด—เตเด•เดณเตเด‚ เดฑเดฟเดตเตเดฏเต‚เด•เดณเตเด‚ เดชเดฐเดฟเดถเต‹เดงเดฟเดšเตเดšเตเดฑเดชเตเดชเดฟเดšเตเดšเดคเดฒเตเดฒ ย เด•เต‚เดŸเตเดคเดฒเดฑเดฟเดฏเตเด•

เดˆ เด‡-เดฌเตเด•เตเด•เดฟเดจเต†เด•เตเด•เตเดฑเดฟเดšเตเดšเต

Optimization techniques are at the core of data science, including data analysis and machine learning. An understanding of basic optimization techniques and their fundamental properties provides important grounding for students, researchers, and practitioners in these areas. This text covers the fundamentals of optimization algorithms in a compact, self-contained way, focusing on the techniques most relevant to data science. An introductory chapter demonstrates that many standard problems in data science can be formulated as optimization problems. Next, many fundamental methods in optimization are described and analyzed, including: gradient and accelerated gradient methods for unconstrained optimization of smooth (especially convex) functions; the stochastic gradient method, a workhorse algorithm in machine learning; the coordinate descent approach; several key algorithms for constrained optimization problems; algorithms for minimizing nonsmooth functions arising in data science; foundations of the analysis of nonsmooth functions and optimization duality; and the back-propagation approach, relevant to neural networks.

เดฐเดšเดฏเดฟเดคเดพเดตเดฟเดจเต† เด•เตเดฑเดฟเดšเตเดšเต

Stephen J. Wright holds the George B. Dantzig Professorship, the Sheldon Lubar Chair, and the Amar and Balinder Sohi Professorship of Computer Sciences at the University of Wisconsin-Madison and a Discovery Fellow in the Wisconsin Institute for Discovery. He works in computational optimization and its applications to data science and many other areas of science and engineering. He is a Fellow of SIAM, and recipient of the 2014 W. R. G. Baker Award from IEEE for most outstanding paper, the 2020 Khachiyan Prize by the INFORMS Optimization Society for lifetime achievements in optimization, and the 2020 NeurIPS Test of Time Award. Professor Wright is the author and co-author of widely used textbooks and reference books in optimization including Primal Dual Interior-Point Methods (1987) and Numerical Optimization (2006).

Benjamin Recht is an Associate Professor in the Department of Electrical Engineering and Computer Sciences at the University of California, Berkeley. His research group studies how to make machine learning systems more robust to interactions with a dynamic and uncertain world by using mathematical tools from optimization, statistics, and dynamical systems. Professor Recht is the recipient of a Presidential Early Career Award for Scientists and Engineers, an Alfred P. Sloan Research Fellowship, the 2012 SIAM/MOS Lagrange Prize in Continuous Optimization, the 2014 Jamon Prize, the 2015 William O. Baker Award for Initiatives in Research, and the 2017 and 2020 NeurIPS Test of Time Awards.

เดˆ เด‡-เดฌเตเด•เตเด•เต เดฑเต‡เดฑเตเดฑเต เดšเต†เดฏเตเดฏเตเด•

เดจเดฟเด™เตเด™เดณเตเดŸเต† เด…เดญเดฟเดชเตเดฐเดพเดฏเด‚ เดžเด™เตเด™เดณเต† เด…เดฑเดฟเดฏเดฟเด•เตเด•เตเด•.

เดตเดพเดฏเดจเดพ เดตเดฟเดตเดฐเด™เตเด™เตพ

เดธเตโ€ŒเดฎเดพเตผเดŸเตเดŸเตเดซเต‹เดฃเตเด•เดณเตเด‚ เดŸเดพเดฌเตโ€Œเดฒเต†เดฑเตเดฑเตเด•เดณเตเด‚
Android, iPad/iPhone เดŽเดจเตเดจเดฟเดตเดฏเตเด•เตเด•เดพเดฏเดฟ Google Play เดฌเตเด•เตโ€Œเดธเต เด†เดชเตเดชเต เด‡เตปเดธเตโ€Œเดฑเตเดฑเดพเตพ เดšเต†เดฏเตเดฏเตเด•. เด‡เดคเต เดจเดฟเด™เตเด™เดณเตเดŸเต† เด…เด•เตเด•เต—เดฃเตเดŸเตเดฎเดพเดฏเดฟ เดธเตเดตเดฏเดฎเต‡เดต เดธเดฎเดจเตเดตเดฏเดฟเดชเตเดชเดฟเด•เตเด•เดชเตเดชเต†เดŸเตเด•เดฏเตเด‚, เดŽเดตเดฟเดŸเต† เด†เดฏเดฟเดฐเตเดจเตเดจเดพเดฒเตเด‚ เด“เตบเดฒเตˆเดจเดฟเตฝ เด…เดฒเตเดฒเต†เด™เตเด•เดฟเตฝ เด“เดซเตโ€Œเดฒเตˆเดจเดฟเตฝ เดตเดพเดฏเดฟเด•เตเด•เดพเตป เดจเดฟเด™เตเด™เดณเต† เด…เดจเตเดตเดฆเดฟเด•เตเด•เตเด•เดฏเตเด‚ เดšเต†เดฏเตเดฏเตเดจเตเดจเต.
เดฒเดพเดชเตเดŸเต‹เดชเตเดชเตเด•เดณเตเด‚ เด•เดฎเตเดชเตเดฏเต‚เดŸเตเดŸเดฑเตเด•เดณเตเด‚
Google Play-เดฏเดฟเตฝ เดจเดฟเดจเตเดจเต เดตเดพเด™เตเด™เดฟเดฏเดฟเดŸเตเดŸเตเดณเตเดณ เด“เดกเดฟเดฏเต‹ เดฌเตเด•เตเด•เตเด•เตพ เด•เดฎเตเดชเตเดฏเต‚เดŸเตเดŸเดฑเดฟเดจเตโ€เดฑเต† เดตเต†เดฌเต เดฌเตเดฐเต—เดธเตผ เด‰เดชเดฏเต‹เด—เดฟเดšเตเดšเตเด•เตŠเดฃเตเดŸเต เดตเดพเดฏเดฟเด•เตเด•เดพเดตเตเดจเตเดจเดคเดพเดฃเต.
เด‡-เดฑเต€เดกเดฑเตเด•เดณเตเด‚ เดฎเดฑเตเดฑเต เด‰เดชเด•เดฐเดฃเด™เตเด™เดณเตเด‚
Kobo เด‡-เดฑเต€เดกเดฑเตเด•เตพ เดชเต‹เดฒเตเดณเตเดณ เด‡-เด‡เด™เตเด•เต เด‰เดชเด•เดฐเดฃเด™เตเด™เดณเดฟเตฝ เดตเดพเดฏเดฟเด•เตเด•เดพเตป เด’เดฐเต เดซเดฏเตฝ เดกเต—เตบเดฒเต‹เดกเต เดšเต†เดฏเตเดคเต เด…เดคเต เดจเดฟเด™เตเด™เดณเตเดŸเต† เด‰เดชเด•เดฐเดฃเดคเตเดคเดฟเดฒเต‡เด•เตเด•เต เด•เตˆเดฎเดพเดฑเต‡เดฃเตเดŸเดคเตเดฃเตเดŸเต. เดชเดฟเดจเตเดคเตเดฃเดฏเตเดณเตเดณ เด‡-เดฑเต€เดกเดฑเตเด•เดณเดฟเดฒเต‡เด•เตเด•เต เดซเดฏเดฒเตเด•เตพ เด•เตˆเดฎเดพเดฑเดพเตป, เดธเดนเดพเดฏ เด•เต‡เดจเตเดฆเตเดฐเดคเตเดคเดฟเดฒเตเดณเตเดณ เดตเดฟเดถเดฆเดฎเดพเดฏ เดจเดฟเตผเดฆเตเดฆเต‡เดถเด™เตเด™เตพ เดซเต‹เดณเต‹ เดšเต†เดฏเตเดฏเตเด•.