دانلود کتاب Probabilistic Machine Learning: An Introduction (به فارسی: یادگیری ماشین احتمالی: مقدمه) نوشته شده توسط «Kevin P. Murphy»
اطلاعات کتاب یادگیری ماشین احتمالی: مقدمه
موضوع اصلی: کامپیوتر – هوش مصنوعی (AI)
نوع: کتاب الکترونیکی
ناشر: The MIT Press
نویسنده: Kevin P. Murphy
زبان: english
فرمت کتاب: PDF (قابل تبدیل به سایر فرمت ها)
سال انتشار: 2021
تعداد صفحه: 863
حجم فایل: 80.34 مگابایت
نوبت چاپ: Illustrated
توضیحات کتاب یادگیری ماشین احتمالی: مقدمه
در سال 2012، من یک کتاب 1200 صفحهای به نام «یادگیری ماشین: چشمانداز احتمالی» منتشر کردم که پوشش نسبتاً جامعی از حوزه یادگیری ماشین (ML) در آن زمان ارائه میکرد، زیر لنز واحد مدلسازی احتمالاتی. این کتاب به خوبی مورد استقبال قرار گرفت و جایزه De Groot در سال 2013 را از آن خود کرد. سال 2012 همچنین به طور کلی شروع “انقلاب یادگیری عمیق” در نظر گرفته می شود. اصطلاح “یادگیری عمیق” به شاخه ای از ML اشاره دارد که بر اساس شبکه های عصبی با لایه های متعدد (از این رو اصطلاح “عمیق” است. اگرچه این فناوری پایه سالها بود که وجود داشت، اما در سال 2012 بود که [KSH12] از شبکههای عصبی عمیق (DNN) برای برنده شدن در چالش طبقهبندی تصویر ImageNet با چنین حاشیه بزرگی استفاده کرد که توجه جامعه را به خود جلب کرد. کارهای مرتبط تقریباً در همان زمان در چندین مقاله دیگر از جمله [Cir+10;Cir+11;Hin+12] ظاهر شد. این پیشرفتها با پیشرفتهای فناوری سختافزار (بهویژه، تغییر کاربری واحدهای پردازش گرافیکی سریع از بازیهای ویدیویی به ML)، فناوری جمعآوری دادهها (بهویژه، استفاده از جمعسپاری برای جمعآوری مجموعههای داده بزرگ برچسبگذاریشده مانند ImageNet)، و همچنین مختلف امکانپذیر شد. ایده های الگوریتمی جدید. از سال 2012، زمینه یادگیری عمیق با پیشرفت های جدید با سرعت فزاینده ای منفجر شده است. علاقه به این زمینه نیز به دلیل موفقیت تجاری فناوری و گستردگی کاربردهایی که می توان آن را به کار برد، افزایش یافته است. بنابراین، در سال 2018، تصمیم گرفتم ویرایش دوم کتابم را بنویسم تا سعی کنم بخشی از این پیشرفت را خلاصه کنم. تا مارس 2020، پیش نویس ویرایش دوم من به حدود 1600 صفحه افزایش یافت و هنوز کارم تمام نشده بود. سپس همه گیری COVID-19 رخ داد. تصمیم گرفتم نوشتن کتاب را به حالت تعلیق درآورم، و به سمت کمک به پروژههای مختلف COVID-19 “محور” کنم (به عنوان مثال، [MKS21; Wah+21] را ببینید). با این حال، در پاییز، زمانی که این پروژهها کمتر از چرخههای من میگرفتند، تصمیم گرفتم کتاب را تمام کنم. برای جبران زمان از دست رفته، از چندین همکار خواستم تا به من کمک کنند تا آخرین ⇠10% «مطالب گمشده» را به پایان برسانم. (تشکرات را در زیر ببینید.) در این بین، MIT Press به من گفت که نمی توانند یک کتاب 1600 صفحه ای منتشر کنند، و اینکه من باید آن را به دو جلد تقسیم کنم. نتیجه همه اینها دو کتاب جدید “آموزش ماشینی احتمالی: مقدمه” است که اکنون در حال خواندن آن هستید و “یادگیری ماشین احتمالی: موضوعات پیشرفته” که دنباله این کتاب است [Mur22]. این دو کتاب با هم تلاش میکنند تا پوشش نسبتاً وسیعی از حوزه ML c ارائه دهند. 2021، با استفاده از همان لنز یکپارچه مدلسازی احتمالی و نظریه تصمیم بیزی که در کتاب اول استفاده کردم. بیشتر محتوای کتاب اول دوباره استفاده شده است، اما اکنون به طور نسبتاً مساوی بین دو کتاب جدید تقسیم شده است. علاوه بر این، هر کتاب دارای بسیاری از مطالب جدید است که برخی از موضوعات مربوط به یادگیری عمیق را پوشش میدهد، اما همچنین پیشرفتهایی را در بخشهای دیگر این حوزه، مانند مدلهای تولیدی، استنتاج تغییرات، پوشش میدهد.
xxviii پیشگفتار و یادگیری تقویتی. برای اینکه کتاب خودکفاتر و برای دانشآموزان مفیدتر باشد، مطالب پیشزمینه دیگری نیز در موضوعاتی مانند بهینهسازی و جبر خطی اضافه کردهام که به دلیل کمبود جا از کتاب اول حذف شده است. مطالب پیشرفته را که می توان در طول دوره مقدماتی نادیده گرفت، با علامت * در عنوان بخش یا فصل نشان داده می شود. در آینده، ما امیدواریم که نمونه برنامه های درسی و اسلایدها را به صورت آنلاین ارسال کنیم. تغییر عمده دیگر این است که تقریباً همه نرم افزارها اکنون به جای Matlab از Python استفاده می کنند. (در آینده، امیدواریم نسخه جولیا از کد داشته باشیم.) کد جدید از کتابخانههای استاندارد پایتون مانند numpy، scipy، scikit-learn و غیره استفاده میکند. برخی از نمونهها نیز به کتابخانههای یادگیری عمیق مختلف مانند TensorFlow، PyTorch و JAX تکیه دارند. . علاوه بر کد برای ایجاد تمام شکل ها، دفترچه یادداشت های تکمیلی Jupyter برای همراهی هر فصل وجود دارد که جنبه های عملی را مورد بحث قرار می دهد که فضایی برای پوشش دادن در متن اصلی نداریم. جزئیات را میتوانید در probml.ai بیابید.تشکر میخواهم از افراد زیر تشکر کنم که به من در نوشتن بخشهای مختلف این کتاب کمک کردند: • فردریک کونستنر، سی یی منگ، آرون میشکین، شاران واسوانی، و مارک اشمیت که در نوشتن بخشهایی از فصل 8 (بهینهسازی) کمک کردند. • لیهونگ لی، که به نوشتن Sec.5.3 (مشکلات راهزن *) کمک کرد. • ماتیو بلوندل، که به نوشتن Sec.13.3 (انتشار پسزمینه) کمک کرد. • روی فراستیگ، که Sec.7.8.8 (نشانگذاری مشتق تابعی *) وSec.13.3 را نوشت. 5(تمایز خودکار به شکل عملکردی *).•جاستین گیلمر، که به نوشتن Sec.14.7 کمک کرد (مثال های متخاصم *).•Krzysztof Choromanski، که به نوشتن Sec.15.6 کمک کرد (ترانسفورماتورهای کارآمد *).•Colin Raffel، که در نوشتن2Sec.19. Learning)andSec.19.3(Semi-Supervised Learning).•Bryan Perozzi، که در نوشتن Chapter23(Embeddings Graph*) کمک کرد.•Zico Kolter، که به نوشتن بخش هایی از Chapter7 (جبر خطی) کمک کرد. می خواهم از John Fearns و Peter Cerno برای دقت تشکر کنم. تصحیح کتاب و همچنین بازخورد بسیاری از افراد دیگر e، از جمله 4 بازبین ناشناس که توسط MIT Press درخواست شدهاند. من میخواهم از محمود سلیمان برای نوشتن تمام کدهای «پشتآفیس» که لاتکس، colab، github و GCP را به هم متصل میکند، تشکر کنم. مایلم از نویسندگان [Zha+20]، [Gér17]و[Mar18] که اجازه استفاده مجدد یا اصلاح برخی از کدهای منبع باز خود را از کتاب های عالی خودشان دادند، تشکر کنم. من همچنین میخواهم از بسیاری دیگر از اعضای انجمن github برای مشارکت در کدشان تشکر کنم (لیست کامل نامها را ببینید). در نهایت میخواهم از مدیرم در Google، داگ اک، که به من اجازه داد وقت شرکت را برای این کتاب صرف کنم و همسرم مارگارت تشکر کنم. برای اینکه به من اجازه داد تا وقت خانوادگی را نیز صرف آن کنم. امیدوارم تلاشهای من برای ترکیب همه این مواد با هم در یک مکان به شما کمک کند تا در سفر اکتشاف خود به “سرزمین ML” صرفه جویی کنید. کوین پاتریک مورفی پالو آلتو، کالیفرنیا آوریل 2021
xxviiiPrefaceand reinforcement learning. To make the book more self-contained and useful for students, I havealso added some more background content, on topics such as optimization and linear algebra, thatwas omitted from the first book due to lack of space. Advanced material, that can be skipped duringan introductory level course, is denoted by an asterisk * in the section or chapter title. In the future,we hope to post sample syllabuses and slides online.Another major change is that nearly all of the software now uses Python instead of Matlab. (Inthe future, we hope to have a Julia version of the code.) The new code leverages standard Pythonlibraries, such as numpy, scipy, scikit-learn, etc. Some examples also rely on various deep learninglibraries, such asTensorFlow,PyTorch,andJAX. In addition to the code to create all the figures,there are supplementary Jupyter notebooks to accompany each chapter, which discuss practicalaspects that we don’t have space to cover in the main text. Details can be found atprobml.ai.AcknowledgementsI would like to thank the following people for helping me to write various parts of this book:•Frederik Kunstner, Si Yi Meng, Aaron Mishkin, Sharan Vaswani, and Mark Schmidt who helpedwrite parts ofChapter8(Optimization).•Lihong Li, who helped writeSec.5.3(Bandit problems *).•Mathieu Blondel, who helped writeSec.13.3(Backpropagation).•Roy Frostig, who wroteSec.7.8.8(Functional derivative notation *)andSec.13.3.5(Automaticdifferentiation in functional form *).•Justin Gilmer, who helped writeSec.14.7(Adversarial Examples *).•Krzysztof Choromanski, who helped writeSec.15.6(Efficient transformers *).•Colin Raffel, who helped writeSec.19.2(Transfer learning)andSec.19.3(Semi-supervisedlearning).•Bryan Perozzi, who helped writeChapter23(Graph embeddings *).•Zico Kolter, who helped write parts ofChapter7(Linear algebra).I would like to thank John Fearns and Peter Cerno for carefully proofreading the book, as well asfeedback from many other people, including 4 anonymous reviewers solicited by MIT Press.I would like to thank Mahmoud Soliman for writing all the “back-office” code, that connects latex,colab, github and GCP. I would like to thank the authors of [Zha+20], [Gér17]and[Mar18]forlettingme reuse or modify some of their open source code from their own excellent books. I would also liketo thank many other members of the github community for their code contrbutions (see thefull listof names).Finally I would like to thank my manager at Google, Doug Eck, for letting me spend companytime on this book, and my wife Margaret for letting me spend family time on it, too. I hope myefforts to synthesize all this material together in one place will help to save you time in your journeyof discovery into the “land of ML”.Kevin Patrick MurphyPalo Alto, CaliforniaApril 2021
دانلود کتاب «یادگیری ماشین احتمالی: مقدمه»

برای دریافت کد تخفیف ۲۰ درصدی این کتاب، ابتدا صفحه اینستاگرام کازرون آنلاین (@kazerun.online ) را دنبال کنید. سپس، کلمه «بلیان» را در دایرکت ارسال کنید تا کد تخفیف به شما ارسال شود.