
کارگاه یادگیری ماشین (Machine Learning)
2,988,000 تومان
اگر میخواهید...
- قدم به دنیای هوش مصنوعی و تحلیل داده بگذارید!
- با یادگیری ماشین و کاربردهای مختلف آن آشنا شوید!
- مسائل مختلف دنیای واقعی را با روش های یادگیری ماشین حل کنید!
این دوره برای شما مناسب است.
الگوریتم های یادگیری ماشین بخش جدایی ناپذیر برنامه های مدرن هستند. راه های شروع فعالیت در زمینه ی یادگیری ماشین زیاد است اما ما در این دوره راهی را برای افزایش سرعت و کیفیت یادگیری بکارگرفته ایم که مطمئن باشیم کمتر درگیر پیچیدگی های پایتون و راه اندازی محیط شوید و با خیال راحت به یادگیری مفاهیم کلیدی و کاربردی یادگیری ماشین بپردازید و مسائل کلیدی یادگیری ماشین را بیاموزید.
این دوره در 420 قسمت و 40 مثال و 30 تمرین به گونه ای تدوین شده است که تمامی موارد کلیدی و ضروری یادگیری ماشین را پوشش دهد و کاملا با مباحث یادگیری ماشین آشنا شوید.
همچنین اگر قصد اجرای کدها روی سیستم خود را ندارید میتوانید به محیط تعاملی مدرن ما اطمینان کنید و کدهای این دوره را در هر مرورگری اجرا کنید.
زمان تقریبی مطالعه و یادگیری دوره:
محتوای ویدیویی: 8 ساعت
زمان پیشنهادی برای یادگیری : 1.5 ماه
پیش نیاز:
زبان برنامه نویسی پایتون
فصل های دوره
- 1- درباره ی سر فصل ها
- 2- قراردادها و کلمات تخصصی
- 3- دسترسی به پشتیبانی
- 4- قبل از شروع
- 1- معرفی
- 2- مقدمه ای بر یادگیری ماشینی
- 3- کاربرد های یادگیری ماشین
- 4- انتخاب الگوریتم درست برای یادگیری ماشینی
- 5- کتابخانه Scikit-Learn
- 6- مزیت های Scikit-Learn
- 7- معایب Scikit-Learn
- 8- دیگر فریم ورک های یادگیری ماشین
- 9- ارائهی دادهها
- 10- جداول داده
- 11- Features & Target Matrices
- 12- مثال 1.01: بارگذاری یک دیتاسِت نمونه و تشکیل ماتریسهای هدف و فیچر
- 13- تمرین ۱.۰۱: انتخاب یک فیچرِ هدف و ایجاد یک ماتریسِ هدف
- 14- پیشپردازشِ دادهها
- 15- Messy Data
- 16- Missing Values
- 17- Outliers
- 18- مثال ۱.۰۲: هندل کردن داده های ناجور
- 19- کار با فیچرهای طبقهبندی شده
- 20- Feature Engineering
- 21- مثال 1.03: کاربرد مهندسی ویژگی در دادههای متنی
- 22- تغییر مقایس مجدد دادهها
- 23- مثال ۱.۰۴: نرمالیزاسیون و استانداردسازی دادهها
- 24- تمرین ۱.۰۲: پیش پردازش کل یک دیتاست
- 25- Scikit-Learn API
- 26- Scikit-Learn API چگونه کار میکند؟
- 27- Estimator
- 28- Predictor
- 29- Transformer
- 30- Supervised and Unsupervised Learning
- 31- Supervised Learning
- 32- Unsupervised Learning
- 33- خلاصه فصل
- 1- مقدمهی فصل
- 2- خوشهبندی
- 3- انواع خوشهبندی
- 4- کاربردهای خوشه بندی
- 5- در جستجوی یک دیتاست
- 6- شناخت دیتاست
- 7- Data Visualization
- 8- بارگذاری دیتاست با استفاده از Pandas
- 9- ابزارهای بصریسازی
- 10- مثال 2.01: ترسیم هیستوگرام تک فیچری
- 11- تمرین 2.01: بکارگیری تکنیک بصریسازی در راستای تسهیل فرآیند پیشپردازش دادهها
- 12- الگوریتم K-MEANS
- 13- شناخت عمیقتر الگوریتم K-MEANS
- 14- متدهای راهاندازی اولیه
- 15- تعیین تعداد خوشهها
- 16- مثال 2.02: فراخوانی و آموزش الگوریتم K-Means روی یک دیتاست
- 17- تمرین 2.02: اعمال الگوریتم K-Means بر روی یک دیتاست
- 18- الگوریتم Mean-Shift
- 19- شناخت عمیقتر الگوریتم MEAN-SHIFT
- 20- روی یک دیتاستMean-Shiftمثال 2.03: وارد کردن و آموزش الگوریتم
- 21- در دیتاستMean-Shiftتمرین 2.03: اعمال الگوریتم
- 22- الگوریتم DBSCAN
- 22- الگوریتم DBSCAN
- 24- روی دیتاستDBSCAN مثال 2.04: وارد کردن و آموزش الگوریتم
- 25- روی دیتاستDBSCAN تمرین 2.04: اعمال الگوریتم
- 26- ارزیابی عملکرد خوشه ها (Evaluating the Performance of Clusters)
- 27- Scikit-Learn معیارهای موجود در
- 28- مثال 2.05: ارزیابی امتیاز ضریب سیلوئت و شاخص کالینسکی-هاراباسز
- 29- تمرین 2.05: اندازه گیری و مقایسه عملکرد الگوریتم ها
- 30- خلاصه
- 1- مقدمه
- 2- وظایف یادگیری تحت نظارت (Supervised Learning Tasks)
- 3- اعتبار سنجی و آزمایش مدل (Model Validation and Testing)
- 4- پارتیشن بندی داده ها (Data Partitioning)
- 5- نسبت تقسیم (Split Ratio)
- 6- تمرین 3.01: اجرای یک پارتیشن داده در یک دیتاست نمونه
- 7- اعتبار سنجی متقابل
- 8- تمرین 3.02: استفاده از اعتبارسنجی متقاطع برای تقسیم کردن ست آموزش به دو ست آموزشی و اعتبارسنجی
- 9- فعالیت 3.01: پارتیشن بندی داده ها در دیتاست های عددی دست نویس
- 10- معیارهای ارزیابی (Evaluation Metrics)
- 11- معیارهای ارزیابی برای وظایف طبقه بندی (Evaluation Metrics for Classification Tasks)
- 12- ماتریس درهم ریختگی (Confusion Matrix)
- 13- دقت (Accuracy)
- 14- درستی (Precision)
- 15- فراخوان (Recall)
- 16- تمرین 3.03: محاسبه معیارهای ارزیابی مختلف در یک کار طبقه بندی
- 17- انتخاب یک معیار ارزیابی
- 18- معیارهای ارزیابی برای وظایف رگرسیونی
- 19- تمرین 3.04: محاسبه معیارهای ارزیابی در یک کار رگرسیونی
- 20- فعالیت 3.02: ارزیابی عملکرد مدل آموزش داده شده بر روی دیتاست های دست نویسی
- 21- تجزیه و تحلیل خطا (Error Analysis)
- 22- بایاس، واریانس و عدم تطابق داده ها
- 23- تمرین 3.05: محاسبه میزان خطا در ست های مختلف داده
- 24- فعالیت 3.03: انجام تجزیه و تحلیل خطا بر روی یک مدل آموزش دیده برای تشخیص اعداد دست نویس
- 25- خلاصه
- 1- مقدمه
- 2- کاوش دیتاست ها (Exploring the Dataset)
- 3- شناخت دیتاست ها (Understanding the Dataset)
- 4- الگوریتم ساده بیز (The Naïve Bayes Algorithm)
- 5- الگوریتم ساده بیز چگونه کار می کند؟
- 6- مثال 4.01: استفاده از الگوریتم ساده بیز
- 7- تمرین 4.01: آموزش یک مدل ساده بیز برای دیتاست های سرشماری درآمد
- 8- الگوریتم درخت تصمیم (The Decision Tree Algorithm)
- 9- الگوریتم درخت تصمیم چگونه کار می کند؟
- 10- مثال 4.02: اعمال الگوریتم درخت تصمیم
- 11- تمرین 4.02: آموزش یک مدل درخت تصمیم برای دیتاست های سرشماری درآمد
- 12- الگوریتم پشتیبانی ماشین بردار (The Support Vector Machine Algorithm)
- 13- الگوریتم SVM چگونه کار می کند؟
- 14- مثال 4.03: اعمال الگوریتم SVM
- 15- برای دیتاست های درآمد سرشماریSVM تمرین 4.03: آموزش یک مدل
- 16- تجزیه و تحلیل خطا (Error Analysis)
- 17- دقت، صراحت و فراخوانی
- 18- خلاصه فصل
- 1- مقدمه
- 2- شبکه های عصبی مصنوعی
- 3- ها چگونه کار می کنند؟ ANN
- 4- شروع تکثیر
- 5- تابع هزینه
- 6- پس انتشار
- 7- به روز رسانی وزن ها و سوگیری ها
- 8- آشنایی با فراپارامترها
- 9- تعداد لایه ها و واحدهای پنهان
- 10- توابع فعال سازی
- 11- منظم سازی
- 12- اندازه دسته
- 13- نرخ یادگیری
- 14- تعداد تکرارها
- 15- کاربردهای شبکه های عصبی
- 16- محدودیت های شبکه های عصبی
- 17- استفاده از شبکه عصبی مصنوعی
- 18- Scikit-Learn پرسپترون چندلایه ای کتابخانه
- 19- mlp مثال 5.01: استفاده از کلاس طبقه بندی کننده ی
- 20- فعالیت 5.01: آموزش یک پرسپترون چندلایه برای دیتاست های سرشماری درآمد
- 21- تجزیه و تحلیل عملکردی
- 22- تجزیه و تحلیل خطا
- 24- مقایسه مدل
- 25- فعالیت 5.02: مقایسه مدل های مختلف برای انتخاب بهترین مدل برای حل مشکل داده های سرشماری درآمد
- 26- خلاصه فصل
- 1- مقدمه
- 2- تعریف برنامه
- 3- ساختن یک برنامه – مراحل کلیدی
- 4- اماده سازی
- 5- ایجاد
- 6- اثر متقابل
- 7- شناخت مجموعه داده
- 8- فعالیت 6.01: انجام مراحل آماده سازی و ایجاد دیتاست های بازاریابی بانکی
- 9- ذخیره و بارگذاری یک مدل آموزش دیده
- 10- ذخیره یک مدل
- 11- مثال 6.01: ذخیره یک مدل آموزش دیده
- 12- بارگذاری یک مدل
- 13- مثال 6.02: بارگیری یک مدل ذخیره شده
- 14- فعالیت 6.02: ذخیره و بارگذاری مدل نهایی برایدیتاست های بازاریابی بانکی
- 15- تعامل با یک مدل آموزش دیده
- 16- مثال 6.03: ایجاد یک کلاس و یک کانال برای تعامل با یک مدل آموزش دیده
- 17- فعالیت 6.03: امکان تعامل مدل با دیتاست بازاریابی بانکی
- 1- مقدمه
- 2- هوش مصنوعی چگونه مشکلات را حل می کند؟
- 3- تنوع رشته ها در هوش مصنوعی
- 4- زمینه ها و کاربردهای هوش مصنوعی
- 5- شبیه سازی رفتار انسان
- 6- شبیه سازی هوش - آزمون تورینگ
- 7- برای قبولی در آزمون تورینگ به چه قوانینی نیاز داریم؟
- 8- ابزارهای هوش مصنوعی و مدل های یادگیری
- 9- عوامل هوشمند
- 10- نقش پایتون در هوش مصنوعی
- 11- چرا پایتون در یادگیری ماشین، علم داده و هوش مصنوعی غالب است؟
- 12- آناکوندا در پایتون
- 13- کتابخانه های پایتون برای هوش مصنوعی
- 14- معرفی مختصر کتابخانه NumPy
- 15- مثال 7.01: عملیات ماتریس با استفاده از NumPy
- 16- پایتون برای هوش مصنوعی بازی
- 17- عوامل هوشمند در بازی ها
- 18- جستجوی اول عرض و جستجوی اول عمق
- 19- الگوریتم جستجوی سطح اول
- 20- الگوریتم جستجوی عمق اول
- 21- کاوش در فضای حالت یک بازی
- 22- تخمین تعداد حالت های ممکن در یک بازی تیک تاک
- 23- مثال 7.02: ایجاد یک هوش مصنوعی با رفتار تصادفی برای بازی تیک تاک
- 24- تمرین 7.01: ایجاد تمام مراحل ممکن در یک بازی تیک تاک
- 25- مثال 7.03: آموزش برنده شدن به نماینده
- 26- دفاع هوش مصنوعی در برابر باخت
- 27- تمرین 7.02: آموزش نماینده برای درک موقعیت ها در هنگام دفاع در برابر ضرر
- 28- تمرین 7.03: اصلاح اولین و دومین حرکت هوش مصنوعی برای شکست ناپذیر کردن آن
- 29- کشف کننده
- 30- جستجوهای ناآگاه و آگاهانه
- 31- ایجاد اکتشافی
- 32- اکتشافی قابل قبول و غیر قابل پذیرش
- 33- ارزیابی اکتشافی
- 34- اکتشافی 1: ارزیابی ساده پایان بازی
- 35- اکتشافی 2 : ابزار یک حرکت
- 36- مثال 7.04: ارزیابی استاتیک بازی تیک تاک با یک تابع اکتشافی
- 37- استفاده از اکتشافی برای جستجوی آگاهانه
- 38- انواع اکتشافی
- 39- مسیریابی با الگوریتم A*
- 40- مثال 7.05: یافتن کوتاهترین مسیر با استفاده از BFS
- 41- معرفی الگوریتم A*
- 42- جستجو کاربردی A* با استفاده از کتابخوانه simpleai Library
- 43- هوش مصنوعی بازی با الگوریتم Minmax و Alpha-Beta Pruning (هرس کردن الفا-بتا)
- 44- الگوریتم های جستجو برای بازی های نوبتی چند نفره
- 44- بهینه سازی الگوریتم Minmax و Alpha-Beta Pruning (هرس کردن الفا-بتا)
- 45- الگوریتم Minmax
- 47- خشک کردن الگوریتم Minmax - الگوریتم NegaMax
- 48- استفاده از کتابخانه EasyAI
- 49- تمرین 7.04: اتصال چهار
- 50- خلاصه
- 1- مقدمه
- 2- رگرسیون خطی تک متغییره
- 3- انواع رگرسیون
- 4- ویژگی ها و برچسب ها
- 5- مقیاس بندی ویژگی ها
- 7- تقسیم داده ها به ست های آموزشی و آزمایشی
- 8- برازش یک مدل بر روی داده با scikit-learn
- 9- رگرسیون خطی با استفاده از آرایه های NumPy
- 10- نصب مدل با استفاده از NumPy Polyfit
- 11- رسم نتایج در پایتون
- 12- پیش بینی مقادیر با رگرسیون خطی
- 13- مثال 8.01: پیش بینی ظرفیت دانش آموزان یک مدرسه ابتدایی
- 14- رگرسیون خطی با متغیرهای چندگانه
- 15- رگرسیون خطی چندگانه
- 15- فرآیند رگرسیون خطی
- 16- وارد کردن داده ها از منابع داده
- 17- بارگیری قیمت سهام با استفاده از Yahoo Finance
- 18- مثال 8.02: استفاده از Quandl برای بارگیری قیمت سهام
- 19- آماده سازی داده ها برای پیش بینی
- 20- مثال 8.03: آماده سازی داده های Quandl برای پیش بینی
- 21- انجام و اعتبارسنجی رگرسیون خطی
- 22- پیش بینی آینده
- 23- رگرسیون بردار پشتیبان و رگرسیون بردار چند جمله ای
- 24- رگرسیون چند جمله ای با یک متغیر
- 25- مثال 8.04: رگرسیون چند جمله ای درجه اول، دوم و سوم
- 26- رگرسیون چند جمله ای با متغیرهای چندگانه
- 27- رگرسیون برداری پشتیبانی
- 28- پشتیبانی از ماشین های بردار با هسته چند جمله ای 3 درجه
- 29- تمرین 8.01: پیشبینی قیمت خانه بوستون با رگرسیون چند جملهای درجات 1، 2، و 3 روی متغیرهای چندگانه
- 30- خلاصه
- 1- مقدمه
- 2- مبانی طبقه بندی
- 3- مثال 9.01: پیشبینی ریسک پیشفرض کارت اعتباری (بارگیری مجموعه داده)
- 4- پیش پردازش داده ها
- 5- مثال 9.02: اعمال رمزگذاری برچسب برای تبدیل متغیرهای طبقه ای به متغیرهای عددی
- 6- شناسایی ویژگی ها و برچسب ها
- 7- تقسیم داده ها به ست های آموزشی و آزمایشی با استفاده از Scikit-Learn
- 8- طبقه بندی کننده K-Nearest Neighbors
- 9- معرفی K-Nearest Neighbors Algorithm (KNN)
- 10- معیارهای فاصله با طبقهبندیکننده K-نزدیکترین همسایگان در Scikit-Learn
- 11- فاصله اقلیدسی
- 12- فاصله منهتن/همینگ
- 13- مثال 9.03: شرح الگوریتم طبقهبندیکننده K-Nearest Neighbors Matplotlib
- 14- پارامتربندی طبقهبندیکننده K-Nearest Neighbors در scikit-learn
- 15- مثال 9.04: طبقه بندی K-Nearest Neighbors در scikit-learn
- 16- تمرین 9.01: افزایش دقت امتیاز اعتباری
- 17- طبقه بندی با ماشین بردار پشتیبان
- 18- دستهبندیکننده ماشین بردار پشتیبان چیست؟
- 19- درک ماشین بردار پشتیبان
- 20- پشتیبانی از ماشین بردار در scikit-learn
- 21- پارامترهای Sicit-Learn SVM
- 22- تمرین 9.02: پشتیبانی از بهینه سازی ماشین بردار در scikit-learn
- 23- خلاصه
- 1- مقدمه
- 2- درختان تصمیم
- 3- آنتروپی
- 4- مثال 10.01: محاسبه آنتروپی
- 5- به دست آوردن اطلاعات
- 6- ناخالصی جینی
- 7- شرایط خروج
- 8- ایجاد طبقه بندی درخت تصمیم گیری با استفاده از scikit-learn
- 9- معیارهای عملکردی برای طبقهبندیکنندهها
- 10- مثال 10.02: دقت، یادآوری، و محاسبه امتیاز F1
- 11- ارزیابی عملکرد طبقهبندیکنندهها با scikit-learn
- 12- ماتریس سردرگمی
- 13- تمرین 10.01: طبقه بندی داده های خودرو
- 14- طبقه بندی تصادفی Forest
- 15- طبقه بندی تصادفی جنگل با استفاده از scikit-learn
- 16- پارامترسازی طبقهبندیکننده تصادفی Forest
- 17- اعتبار فیچر
- 18- اعتبار سنجی متقابل
- 19- (Extremely Randomized Trees) درختان بسیار تصادفی
- 20- تمرین 10.02: طبقه بندی تصادفی Forest برای شرکت اجاره خودرو
- 21- خلاصه
- 1- مقدمه
- 2- تعریف مسئله خوشه بندی
- 3- رویکردهای خوشه بندی
- 4- الگوریتم های خوشه بندی پشتیبانی شده توسط scikit-learn
- 5- الگوریتم K-Means
- 6- مثال 11.01: پیاده سازی K-Means در Sicit-Learn
- 7- پارامترسازی الگوریتم K-Means در scikit-learn
- 8- مثال 11.02: بازیابی نقاط مرکزی و برچسب ها
- 9- K-Means خوشه بندی داده های فروش
- 9- تمرین 11.01: خوشه بندی داده های فروش با استفاده از K-Means
- 11- الگوریتم تغییر میانگین
- 12- مثال 11.03: پیاده سازی الگوریتم تغییر میانگین
- 13- الگوریتم تغییر میانگین در scikit-learn
- 14- خوشه بندی سلسله مراتبی
- 15- خوشهبندی سلسله مراتبی تجمعی در scikit-learn
- 16- خوشه بندی ارزیابی عملکرد
- 17- شاخص رند تعدیل شده
- 18- اطلاعات متقابل تنظیم شده
- 19- V-Measure، همگنی و کامل بودن
- 20- امتیاز فاولکس-مالوز
- 21- ماتریس اقتضایی
- 22- ضریب سیلوئت
- 23- شاخص کالینسکی-هاراباسز
- 24- شاخص دیویس-بولدین
- 25- تمرین 11.02: خوشهبندی دادههای Red Wine با استفاده از الگوریتم تغییر میانگین و خوشهبندی سلسله مرات
- 26- خلاصه
- 1- مقدمه
- 2- نورون های مصنوعی
- 3- نورون ها در تنسورفلو
- 4- مثال 12.01: استفاده از عملیات پایه و ثابت های TensorFlow
- 5- معماری شبکه های عصبی
- 6- وزن ها
- 7- بایاس
- 8- استفاده از موارد برای شبکه های عصبی مصنوعی
- 9- توابع فعال سازی
- 9- سیگموئید
- 10- Tanh
- 11- ReLU
- 12- Softmax
- 13- مثال 12.02: توابع فعال سازی
- 14- انتشار رو به جلو و تابع ضرر
- 15- پس انتشار
- 16- بهینه سازها و میزان یادگیری
- 17- مثال 6.03: طبقه بندی تایید اعتبار
- 18- منظم سازی
- 19- مثال 12.04: پیش بینی قیمت خانه در بوستون با منظم سازی
- 20- تمرین 12.01: یافتن بهترین امتیاز دقت برای توزیع دیتاست ارقام
- 21- یادگیری عمیق
- 22- شبکه های کم عمق در مقابل شبکه های عمیق
- 23- بینایی کامپیوتری و طبقه بندی تصویر
- 24- شبکه های عصبی کانولوشن (CNN)
- 25- عملیات کانولوشنال
- 26- لایه ادغام
- 27- معماری CNN
- 28- تمرین 12.02: ارزیابی مدل تشخیص تصویر فشن با استفاده از CNN
- 29- شبکه های عصبی مکرر (RNN)
- 30- لایه های RNN
- 31- لایه GRU
- 32- لایه LSTM
- 33- تمرین 12.03: ارزیابی مدل سهام یاهو با RNN
- 34- سخت افزار لازم برای یادگیری عمیق
- 35- چالش ها و روندهای آینده
- 36- خلاصه
- 1- تمرین 1.01: انتخاب یک ویژگی هدف و ایجاد یک ماتریس هدف
- 2- تمرین 1.02: پیش پردازش کل دیتاست
- 3- تمرین 2.01: استفاده از تجسم داده برای کمک به فرآیند پیش پردازش
- 4- تمرین 2.02: اعمال الگوریتم k-mean در دیتاست
- 5- تمرین 2.03: اعمال الگوریت mean-shift در دیتاست
- 6- تمرین 2.04: اعمال الگوریتم DBSCAN روی دیتاست
- 7- تمرین 2.05: اندازه گیری و مقایسه عملکرد الگوریتم ها
- 8- تمرین 3.01: پارتیشن بندی داده ها در دیتاست های عددی دست نویس
- 9- تمرین 3.02: ارزیابی عملکرد مدل آموزش داده شده بر روی دیتاست های دست نویسی
- 10- تمرین 3.03: انجام تجزیه و تحلیل خطا بر روی یک مدل آموزش دیده برای تشخیص اعداد دست نویس
- 11- تمرین 4.01: آموزش یک مدل ساده بیز برای دیتاست های سرشماری درآمد
- 12- تمرین 4.02: آموزش یک مدل درخت تصمیم برای دیتاست های سرشماری درآمد
- 13- تمرین 4.03: آموزش یک مدل SVM برای دیتاست های درآمد سرشماری
- 14- تمرین 5.01: آموزش یک پرسپترون چندلایه برای دیتاست های سرشماری درآمد
- 15- تمرین 5.02: مقایسه مدل های مختلف برای انتخاب بهترین مدل برای حل مشکل داده های سرشماری درآمد
- 16- تمرین 6.01: انجام مراحل آماده سازی و ایجاد دیتاست های بازاریابی بانکی
- 17- تمرین 6.02: ذخیره و بارگذاری مدل نهایی برای دیتاست های بازاریابی بانکی
- 18- فعالیت 6.03: امکان تعامل مدل با دیتاست بازاریابی بانکی
- 19- تمرین 7.01: ایجاد تمام مراحل ممکن در یک بازی تیک تاک
- 20- تمرین 7.02: آموزش به عامل برای درک موقعیت ها در هنگام دفاع در برابر ضرر
- 21- تمرین 7.03: اصلاح اولین و دومین حرکت هوش مصنوعی برای شکست ناپذیر کردن آن
- 22- تمرین 7.04: اتصال چهارتایی
- 23- تمرین 8.01: پیشبینی قیمت خانه بوستون با رگرسیون چند جملهای با درجات 1، 2 و 3 روی متغیرهای چندگانه
- 24- تمرین 9.01: افزایش دقت امتیاز اعتبار
- 25- تمرین 9.02: پشتیبانی از بهینه سازی ماشین بردار در کتابخوانه scikit-learn
- 26- تمرین 10.01: طبقه بندی داده های خودرو
- 27- فعالیت 10.02: طبقه بندی تصادفی Forest برای شرکت اجاره خودرو
- 28- تمرین 11.01: خوشه بندی داده های فروش با استفاده از K-Means
- 29- تمرین 11.02: خوشهبندی دادههای Red Wine با استفاده از الگوریتم تغییر میانگین و خوشهبندی سلسله مرات
- 30- تمرین 12.01: یافتن بهترین امتیاز دقت برای دیتاست ارقام
- 31- تمرین 12.02: ارزیابی مدل تشخیص تصویر مد با استفاده از CNN
- 32- تمرین 12.03: ارزیابی مدل سهام یاهو با RNN