کارگاه یادگیری ماشین (Machine Learning)
۲٬۹۸۸٬۰۰۰ تومان
پشتیبانی:
۳ ساله
تعداد فصل:
۱۴
گواهی:
دارد
بروز رسانی:
دائم
درباره ی کارگاه یادگیری ماشین (Machine Learning) :
اگر میخواهید...
- قدم به دنیای هوش مصنوعی و تحلیل داده بگذارید!
- با یادگیری ماشین و کاربردهای مختلف آن آشنا شوید!
- مسائل مختلف دنیای واقعی را با روش های یادگیری ماشین حل کنید!
این دوره برای شما مناسب است.
الگوریتم های یادگیری ماشین بخش جدایی ناپذیر برنامه های مدرن هستند. راه های شروع فعالیت در زمینه ی یادگیری ماشین زیاد است اما ما در این دوره راهی را برای افزایش سرعت و کیفیت یادگیری بکارگرفته ایم که مطمئن باشیم کمتر درگیر پیچیدگی های پایتون و راه اندازی محیط شوید و با خیال راحت به یادگیری مفاهیم کلیدی و کاربردی یادگیری ماشین بپردازید و مسائل کلیدی یادگیری ماشین را بیاموزید.
این دوره در 420 قسمت و 40 مثال و 30 تمرین به گونه ای تدوین شده است که تمامی موارد کلیدی و ضروری یادگیری ماشین را پوشش دهد و کاملا با مباحث یادگیری ماشین آشنا شوید.
همچنین اگر قصد اجرای کدها روی سیستم خود را ندارید میتوانید به محیط تعاملی مدرن ما اطمینان کنید و کدهای این دوره را در هر مرورگری اجرا کنید.
زمان تقریبی مطالعه و یادگیری دوره:
محتوای ویدیویی: 8 ساعت
زمان پیشنهادی برای یادگیری : 1.5 ماه
پیش نیاز:
زبان برنامه نویسی پایتون
فصل ها:
1 - درباره ی سر فصل ها (رایگان)
2 - قراردادها و کلمات تخصصی (رایگان)
3 - دسترسی به پشتیبانی (رایگان)
4 - قبل از شروع (رایگان)
1 - معرفی (رایگان)
مشاهده
2 - مقدمه ای بر یادگیری ماشینی (رایگان)
مشاهده
3 - کاربرد های یادگیری ماشین (رایگان)
مشاهده
4 - انتخاب الگوریتم درست برای یادگیری ماشینی (رایگان)
مشاهده
5 - کتابخانه Scikit-Learn (رایگان)
مشاهده
6 - مزیت های Scikit-Learn (رایگان)
مشاهده
7 - معایب Scikit-Learn (رایگان)
مشاهده
8 - دیگر فریم ورک های یادگیری ماشین (رایگان)
مشاهده
9 - ارائهی دادهها (رایگان)
مشاهده
10 - جداول داده (رایگان)
مشاهده
11 - Features & Target Matrices (رایگان)
مشاهده
12 - مثال 1.01: بارگذاری یک دیتاسِت نمونه و تشکیل ماتریسهای هدف و فیچر (رایگان)
مشاهده
13 - تمرین ۱.۰۱: انتخاب یک فیچرِ هدف و ایجاد یک ماتریسِ هدف (رایگان)
مشاهده
14 - پیشپردازشِ دادهها (رایگان)
مشاهده
15 - Messy Data (رایگان)
مشاهده
16 - Missing Values (رایگان)
مشاهده
17 - Outliers (رایگان)
مشاهده
18 - مثال ۱.۰۲: هندل کردن داده های ناجور (رایگان)
مشاهده
19 - کار با فیچرهای طبقهبندی شده (رایگان)
مشاهده
20 - Feature Engineering (رایگان)
مشاهده
21 - مثال 1.03: کاربرد مهندسی ویژگی در دادههای متنی (رایگان)
مشاهده
22 - تغییر مقایس مجدد دادهها (رایگان)
مشاهده
23 - مثال ۱.۰۴: نرمالیزاسیون و استانداردسازی دادهها (رایگان)
مشاهده
24 - تمرین ۱.۰۲: پیش پردازش کل یک دیتاست (رایگان)
مشاهده
25 - Scikit-Learn API (رایگان)
مشاهده
26 - Scikit-Learn API چگونه کار میکند؟ (رایگان)
مشاهده
27 - Estimator (رایگان)
مشاهده
28 - Predictor (رایگان)
مشاهده
29 - Transformer (رایگان)
مشاهده
30 - Supervised and Unsupervised Learning (رایگان)
مشاهده
31 - Supervised Learning (رایگان)
مشاهده
32 - Unsupervised Learning (رایگان)
مشاهده
33 - خلاصه فصل (رایگان)
مشاهده
1 - مقدمهی فصل (رایگان)
2 - خوشهبندی (رایگان)
3 - انواع خوشهبندی (رایگان)
4 - کاربردهای خوشه بندی (رایگان)
5 - در جستجوی یک دیتاست (رایگان)
6 - شناخت دیتاست (رایگان)
7 - Data Visualization (رایگان)
8 - بارگذاری دیتاست با استفاده از Pandas (رایگان)
9 - ابزارهای بصریسازی (رایگان)
10 - مثال 2.01: ترسیم هیستوگرام تک فیچری (رایگان)
11 - تمرین 2.01: بکارگیری تکنیک بصریسازی در راستای تسهیل فرآیند پیشپردازش دادهها (رایگان)
12 - الگوریتم K-MEANS (رایگان)
13 - شناخت عمیقتر الگوریتم K-MEANS (رایگان)
14 - متدهای راهاندازی اولیه (رایگان)
15 - تعیین تعداد خوشهها (رایگان)
16 - مثال 2.02: فراخوانی و آموزش الگوریتم K-Means روی یک دیتاست (رایگان)
17 - تمرین 2.02: اعمال الگوریتم K-Means بر روی یک دیتاست (رایگان)
18 - الگوریتم Mean-Shift (رایگان)
19 - شناخت عمیقتر الگوریتم MEAN-SHIFT (رایگان)
20 - روی یک دیتاستMean-Shiftمثال 2.03: وارد کردن و آموزش الگوریتم (رایگان)
21 - در دیتاستMean-Shiftتمرین 2.03: اعمال الگوریتم (رایگان)
22 - الگوریتم DBSCAN (رایگان)
22 - الگوریتم DBSCAN (رایگان)
24 - روی دیتاستDBSCAN مثال 2.04: وارد کردن و آموزش الگوریتم (رایگان)
25 - روی دیتاستDBSCAN تمرین 2.04: اعمال الگوریتم (رایگان)
26 - ارزیابی عملکرد خوشه ها (Evaluating the Performance of Clusters) (رایگان)
27 - Scikit-Learn معیارهای موجود در (رایگان)
28 - مثال 2.05: ارزیابی امتیاز ضریب سیلوئت و شاخص کالینسکی-هاراباسز (رایگان)
29 - تمرین 2.05: اندازه گیری و مقایسه عملکرد الگوریتم ها (رایگان)
30 - خلاصه (رایگان)
1 - مقدمه (رایگان)
2 - وظایف یادگیری تحت نظارت (Supervised Learning Tasks) (رایگان)
3 - اعتبار سنجی و آزمایش مدل (Model Validation and Testing) (رایگان)
4 - پارتیشن بندی داده ها (Data Partitioning) (رایگان)
5 - نسبت تقسیم (Split Ratio) (رایگان)
6 - تمرین 3.01: اجرای یک پارتیشن داده در یک دیتاست نمونه (رایگان)
7 - اعتبار سنجی متقابل (رایگان)
8 - تمرین 3.02: استفاده از اعتبارسنجی متقاطع برای تقسیم کردن ست آموزش به دو ست آموزشی و اعتبارسنجی (رایگان)
9 - فعالیت 3.01: پارتیشن بندی داده ها در دیتاست های عددی دست نویس (رایگان)
10 - معیارهای ارزیابی (Evaluation Metrics) (رایگان)
11 - معیارهای ارزیابی برای وظایف طبقه بندی (Evaluation Metrics for Classification Tasks) (رایگان)
12 - ماتریس درهم ریختگی (Confusion Matrix) (رایگان)
13 - دقت (Accuracy) (رایگان)
14 - درستی (Precision) (رایگان)
15 - فراخوان (Recall) (رایگان)
16 - تمرین 3.03: محاسبه معیارهای ارزیابی مختلف در یک کار طبقه بندی (رایگان)
17 - انتخاب یک معیار ارزیابی (رایگان)
18 - معیارهای ارزیابی برای وظایف رگرسیونی (رایگان)
19 - تمرین 3.04: محاسبه معیارهای ارزیابی در یک کار رگرسیونی (رایگان)
20 - فعالیت 3.02: ارزیابی عملکرد مدل آموزش داده شده بر روی دیتاست های دست نویسی (رایگان)
21 - تجزیه و تحلیل خطا (Error Analysis) (رایگان)
22 - بایاس، واریانس و عدم تطابق داده ها (رایگان)
23 - تمرین 3.05: محاسبه میزان خطا در ست های مختلف داده (رایگان)
24 - فعالیت 3.03: انجام تجزیه و تحلیل خطا بر روی یک مدل آموزش دیده برای تشخیص اعداد دست نویس (رایگان)
25 - خلاصه (رایگان)
1 - مقدمه (رایگان)
2 - کاوش دیتاست ها (Exploring the Dataset) (رایگان)
3 - شناخت دیتاست ها (Understanding the Dataset) (رایگان)
4 - الگوریتم ساده بیز (The Naïve Bayes Algorithm) (رایگان)
5 - الگوریتم ساده بیز چگونه کار می کند؟ (رایگان)
6 - مثال 4.01: استفاده از الگوریتم ساده بیز (رایگان)
7 - تمرین 4.01: آموزش یک مدل ساده بیز برای دیتاست های سرشماری درآمد (رایگان)
8 - الگوریتم درخت تصمیم (The Decision Tree Algorithm) (رایگان)
9 - الگوریتم درخت تصمیم چگونه کار می کند؟ (رایگان)
10 - مثال 4.02: اعمال الگوریتم درخت تصمیم (رایگان)
11 - تمرین 4.02: آموزش یک مدل درخت تصمیم برای دیتاست های سرشماری درآمد (رایگان)
12 - الگوریتم پشتیبانی ماشین بردار (The Support Vector Machine Algorithm) (رایگان)
13 - الگوریتم SVM چگونه کار می کند؟ (رایگان)
14 - مثال 4.03: اعمال الگوریتم SVM (رایگان)
15 - برای دیتاست های درآمد سرشماریSVM تمرین 4.03: آموزش یک مدل (رایگان)
16 - تجزیه و تحلیل خطا (Error Analysis) (رایگان)
17 - دقت، صراحت و فراخوانی (رایگان)
18 - خلاصه فصل (رایگان)
1 - مقدمه (رایگان)
2 - شبکه های عصبی مصنوعی (رایگان)
3 - ها چگونه کار می کنند؟ ANN (رایگان)
4 - شروع تکثیر (رایگان)
5 - تابع هزینه (رایگان)
6 - پس انتشار (رایگان)
7 - به روز رسانی وزن ها و سوگیری ها (رایگان)
8 - آشنایی با فراپارامترها (رایگان)
9 - تعداد لایه ها و واحدهای پنهان (رایگان)
10 - توابع فعال سازی (رایگان)
11 - منظم سازی (رایگان)
12 - اندازه دسته (رایگان)
13 - نرخ یادگیری (رایگان)
14 - تعداد تکرارها (رایگان)
15 - کاربردهای شبکه های عصبی (رایگان)
16 - محدودیت های شبکه های عصبی (رایگان)
17 - استفاده از شبکه عصبی مصنوعی (رایگان)
18 - Scikit-Learn پرسپترون چندلایه ای کتابخانه (رایگان)
19 - mlp مثال 5.01: استفاده از کلاس طبقه بندی کننده ی (رایگان)
20 - فعالیت 5.01: آموزش یک پرسپترون چندلایه برای دیتاست های سرشماری درآمد (رایگان)
21 - تجزیه و تحلیل عملکردی (رایگان)
22 - تجزیه و تحلیل خطا (رایگان)
24 - مقایسه مدل (رایگان)
25 - فعالیت 5.02: مقایسه مدل های مختلف برای انتخاب بهترین مدل برای حل مشکل داده های سرشماری درآمد (رایگان)
26 - خلاصه فصل (رایگان)
1 - مقدمه (رایگان)
2 - تعریف برنامه (رایگان)
3 - ساختن یک برنامه – مراحل کلیدی (رایگان)
4 - اماده سازی (رایگان)
5 - ایجاد (رایگان)
6 - اثر متقابل (رایگان)
7 - شناخت مجموعه داده (رایگان)
8 - فعالیت 6.01: انجام مراحل آماده سازی و ایجاد دیتاست های بازاریابی بانکی (رایگان)
9 - ذخیره و بارگذاری یک مدل آموزش دیده (رایگان)
10 - ذخیره یک مدل (رایگان)
11 - مثال 6.01: ذخیره یک مدل آموزش دیده (رایگان)
12 - بارگذاری یک مدل (رایگان)
13 - مثال 6.02: بارگیری یک مدل ذخیره شده (رایگان)
14 - فعالیت 6.02: ذخیره و بارگذاری مدل نهایی برایدیتاست های بازاریابی بانکی (رایگان)
15 - تعامل با یک مدل آموزش دیده (رایگان)
16 - مثال 6.03: ایجاد یک کلاس و یک کانال برای تعامل با یک مدل آموزش دیده (رایگان)
17 - فعالیت 6.03: امکان تعامل مدل با دیتاست بازاریابی بانکی (رایگان)
1 - مقدمه (رایگان)
2 - هوش مصنوعی چگونه مشکلات را حل می کند؟ (رایگان)
3 - تنوع رشته ها در هوش مصنوعی (رایگان)
4 - زمینه ها و کاربردهای هوش مصنوعی (رایگان)
5 - شبیه سازی رفتار انسان (رایگان)
6 - شبیه سازی هوش - آزمون تورینگ (رایگان)
7 - برای قبولی در آزمون تورینگ به چه قوانینی نیاز داریم؟ (رایگان)
8 - ابزارهای هوش مصنوعی و مدل های یادگیری (رایگان)
9 - عوامل هوشمند (رایگان)
10 - نقش پایتون در هوش مصنوعی (رایگان)
11 - چرا پایتون در یادگیری ماشین، علم داده و هوش مصنوعی غالب است؟ (رایگان)
12 - آناکوندا در پایتون (رایگان)
13 - کتابخانه های پایتون برای هوش مصنوعی (رایگان)
14 - معرفی مختصر کتابخانه NumPy (رایگان)
15 - مثال 7.01: عملیات ماتریس با استفاده از NumPy (رایگان)
16 - پایتون برای هوش مصنوعی بازی (رایگان)
17 - عوامل هوشمند در بازی ها (رایگان)
18 - جستجوی اول عرض و جستجوی اول عمق (رایگان)
19 - الگوریتم جستجوی سطح اول (رایگان)
20 - الگوریتم جستجوی عمق اول (رایگان)
21 - کاوش در فضای حالت یک بازی (رایگان)
22 - تخمین تعداد حالت های ممکن در یک بازی تیک تاک (رایگان)
23 - مثال 7.02: ایجاد یک هوش مصنوعی با رفتار تصادفی برای بازی تیک تاک (رایگان)
24 - تمرین 7.01: ایجاد تمام مراحل ممکن در یک بازی تیک تاک (رایگان)
25 - مثال 7.03: آموزش برنده شدن به نماینده (رایگان)
26 - دفاع هوش مصنوعی در برابر باخت (رایگان)
27 - تمرین 7.02: آموزش نماینده برای درک موقعیت ها در هنگام دفاع در برابر ضرر (رایگان)
28 - تمرین 7.03: اصلاح اولین و دومین حرکت هوش مصنوعی برای شکست ناپذیر کردن آن (رایگان)
29 - کشف کننده (رایگان)
30 - جستجوهای ناآگاه و آگاهانه (رایگان)
31 - ایجاد اکتشافی (رایگان)
32 - اکتشافی قابل قبول و غیر قابل پذیرش (رایگان)
33 - ارزیابی اکتشافی (رایگان)
34 - اکتشافی 1: ارزیابی ساده پایان بازی (رایگان)
35 - اکتشافی 2 : ابزار یک حرکت (رایگان)
36 - مثال 7.04: ارزیابی استاتیک بازی تیک تاک با یک تابع اکتشافی (رایگان)
37 - استفاده از اکتشافی برای جستجوی آگاهانه (رایگان)
38 - انواع اکتشافی (رایگان)
39 - مسیریابی با الگوریتم A* (رایگان)
40 - مثال 7.05: یافتن کوتاهترین مسیر با استفاده از BFS (رایگان)
41 - معرفی الگوریتم A* (رایگان)
42 - جستجو کاربردی A* با استفاده از کتابخوانه simpleai Library (رایگان)
43 - هوش مصنوعی بازی با الگوریتم Minmax و Alpha-Beta Pruning (هرس کردن الفا-بتا) (رایگان)
44 - الگوریتم های جستجو برای بازی های نوبتی چند نفره (رایگان)
44 - بهینه سازی الگوریتم Minmax و Alpha-Beta Pruning (هرس کردن الفا-بتا) (رایگان)
45 - الگوریتم Minmax (رایگان)
47 - خشک کردن الگوریتم Minmax - الگوریتم NegaMax (رایگان)
48 - استفاده از کتابخانه EasyAI (رایگان)
49 - تمرین 7.04: اتصال چهار (رایگان)
50 - خلاصه (رایگان)
1 - مقدمه (رایگان)
2 - رگرسیون خطی تک متغییره (رایگان)
3 - انواع رگرسیون (رایگان)
4 - ویژگی ها و برچسب ها (رایگان)
5 - مقیاس بندی ویژگی ها (رایگان)
7 - تقسیم داده ها به ست های آموزشی و آزمایشی (رایگان)
8 - برازش یک مدل بر روی داده با scikit-learn (رایگان)
9 - رگرسیون خطی با استفاده از آرایه های NumPy (رایگان)
10 - نصب مدل با استفاده از NumPy Polyfit (رایگان)
11 - رسم نتایج در پایتون (رایگان)
12 - پیش بینی مقادیر با رگرسیون خطی (رایگان)
13 - مثال 8.01: پیش بینی ظرفیت دانش آموزان یک مدرسه ابتدایی (رایگان)
14 - رگرسیون خطی با متغیرهای چندگانه (رایگان)
15 - رگرسیون خطی چندگانه (رایگان)
15 - فرآیند رگرسیون خطی (رایگان)
16 - وارد کردن داده ها از منابع داده (رایگان)
17 - بارگیری قیمت سهام با استفاده از Yahoo Finance (رایگان)
18 - مثال 8.02: استفاده از Quandl برای بارگیری قیمت سهام (رایگان)
19 - آماده سازی داده ها برای پیش بینی (رایگان)
20 - مثال 8.03: آماده سازی داده های Quandl برای پیش بینی (رایگان)
21 - انجام و اعتبارسنجی رگرسیون خطی (رایگان)
22 - پیش بینی آینده (رایگان)
23 - رگرسیون بردار پشتیبان و رگرسیون بردار چند جمله ای (رایگان)
24 - رگرسیون چند جمله ای با یک متغیر (رایگان)
25 - مثال 8.04: رگرسیون چند جمله ای درجه اول، دوم و سوم (رایگان)
26 - رگرسیون چند جمله ای با متغیرهای چندگانه (رایگان)
27 - رگرسیون برداری پشتیبانی (رایگان)
28 - پشتیبانی از ماشین های بردار با هسته چند جمله ای 3 درجه (رایگان)
29 - تمرین 8.01: پیشبینی قیمت خانه بوستون با رگرسیون چند جملهای درجات 1، 2، و 3 روی متغیرهای چندگانه (رایگان)
30 - خلاصه (رایگان)
1 - مقدمه (رایگان)
2 - مبانی طبقه بندی (رایگان)
3 - مثال 9.01: پیشبینی ریسک پیشفرض کارت اعتباری (بارگیری مجموعه داده) (رایگان)
4 - پیش پردازش داده ها (رایگان)
5 - مثال 9.02: اعمال رمزگذاری برچسب برای تبدیل متغیرهای طبقه ای به متغیرهای عددی (رایگان)
6 - شناسایی ویژگی ها و برچسب ها (رایگان)
7 - تقسیم داده ها به ست های آموزشی و آزمایشی با استفاده از Scikit-Learn (رایگان)
8 - طبقه بندی کننده K-Nearest Neighbors (رایگان)
9 - معرفی K-Nearest Neighbors Algorithm (KNN) (رایگان)
10 - معیارهای فاصله با طبقهبندیکننده K-نزدیکترین همسایگان در Scikit-Learn (رایگان)
11 - فاصله اقلیدسی (رایگان)
12 - فاصله منهتن/همینگ (رایگان)
13 - مثال 9.03: شرح الگوریتم طبقهبندیکننده K-Nearest Neighbors Matplotlib (رایگان)
14 - پارامتربندی طبقهبندیکننده K-Nearest Neighbors در scikit-learn (رایگان)
15 - مثال 9.04: طبقه بندی K-Nearest Neighbors در scikit-learn (رایگان)
16 - تمرین 9.01: افزایش دقت امتیاز اعتباری (رایگان)
17 - طبقه بندی با ماشین بردار پشتیبان (رایگان)
18 - دستهبندیکننده ماشین بردار پشتیبان چیست؟ (رایگان)
19 - درک ماشین بردار پشتیبان (رایگان)
20 - پشتیبانی از ماشین بردار در scikit-learn (رایگان)
21 - پارامترهای Sicit-Learn SVM (رایگان)
22 - تمرین 9.02: پشتیبانی از بهینه سازی ماشین بردار در scikit-learn (رایگان)
23 - خلاصه (رایگان)
1 - مقدمه (رایگان)
2 - درختان تصمیم (رایگان)
3 - آنتروپی (رایگان)
4 - مثال 10.01: محاسبه آنتروپی (رایگان)
5 - به دست آوردن اطلاعات (رایگان)
6 - ناخالصی جینی (رایگان)
7 - شرایط خروج (رایگان)
8 - ایجاد طبقه بندی درخت تصمیم گیری با استفاده از scikit-learn (رایگان)
9 - معیارهای عملکردی برای طبقهبندیکنندهها (رایگان)
10 - مثال 10.02: دقت، یادآوری، و محاسبه امتیاز F1 (رایگان)
11 - ارزیابی عملکرد طبقهبندیکنندهها با scikit-learn (رایگان)
12 - ماتریس سردرگمی (رایگان)
13 - تمرین 10.01: طبقه بندی داده های خودرو (رایگان)
14 - طبقه بندی تصادفی Forest (رایگان)
15 - طبقه بندی تصادفی جنگل با استفاده از scikit-learn (رایگان)
16 - پارامترسازی طبقهبندیکننده تصادفی Forest (رایگان)
17 - اعتبار فیچر (رایگان)
18 - اعتبار سنجی متقابل (رایگان)
19 - (Extremely Randomized Trees) درختان بسیار تصادفی (رایگان)
20 - تمرین 10.02: طبقه بندی تصادفی Forest برای شرکت اجاره خودرو (رایگان)
21 - خلاصه (رایگان)
1 - مقدمه (رایگان)
2 - تعریف مسئله خوشه بندی (رایگان)
3 - رویکردهای خوشه بندی (رایگان)
4 - الگوریتم های خوشه بندی پشتیبانی شده توسط scikit-learn (رایگان)
5 - الگوریتم K-Means (رایگان)
6 - مثال 11.01: پیاده سازی K-Means در Sicit-Learn (رایگان)
7 - پارامترسازی الگوریتم K-Means در scikit-learn (رایگان)
8 - مثال 11.02: بازیابی نقاط مرکزی و برچسب ها (رایگان)
9 - K-Means خوشه بندی داده های فروش (رایگان)
9 - تمرین 11.01: خوشه بندی داده های فروش با استفاده از K-Means (رایگان)
11 - الگوریتم تغییر میانگین (رایگان)
12 - مثال 11.03: پیاده سازی الگوریتم تغییر میانگین (رایگان)
13 - الگوریتم تغییر میانگین در scikit-learn (رایگان)
14 - خوشه بندی سلسله مراتبی (رایگان)
15 - خوشهبندی سلسله مراتبی تجمعی در scikit-learn (رایگان)
16 - خوشه بندی ارزیابی عملکرد (رایگان)
17 - شاخص رند تعدیل شده (رایگان)
18 - اطلاعات متقابل تنظیم شده (رایگان)
19 - V-Measure، همگنی و کامل بودن (رایگان)
20 - امتیاز فاولکس-مالوز (رایگان)
21 - ماتریس اقتضایی (رایگان)
22 - ضریب سیلوئت (رایگان)
23 - شاخص کالینسکی-هاراباسز (رایگان)
24 - شاخص دیویس-بولدین (رایگان)
25 - تمرین 11.02: خوشهبندی دادههای Red Wine با استفاده از الگوریتم تغییر میانگین و خوشهبندی سلسله مرات (رایگان)
26 - خلاصه (رایگان)
1 - مقدمه (رایگان)
2 - نورون های مصنوعی (رایگان)
3 - نورون ها در تنسورفلو (رایگان)
4 - مثال 12.01: استفاده از عملیات پایه و ثابت های TensorFlow (رایگان)
5 - معماری شبکه های عصبی (رایگان)
6 - وزن ها (رایگان)
7 - بایاس (رایگان)
8 - استفاده از موارد برای شبکه های عصبی مصنوعی (رایگان)
9 - توابع فعال سازی (رایگان)
9 - سیگموئید (رایگان)
10 - Tanh (رایگان)
11 - ReLU (رایگان)
12 - Softmax (رایگان)
13 - مثال 12.02: توابع فعال سازی (رایگان)
14 - انتشار رو به جلو و تابع ضرر (رایگان)
15 - پس انتشار (رایگان)
16 - بهینه سازها و میزان یادگیری (رایگان)
17 - مثال 6.03: طبقه بندی تایید اعتبار (رایگان)
18 - منظم سازی (رایگان)
19 - مثال 12.04: پیش بینی قیمت خانه در بوستون با منظم سازی (رایگان)
20 - تمرین 12.01: یافتن بهترین امتیاز دقت برای توزیع دیتاست ارقام (رایگان)
21 - یادگیری عمیق (رایگان)
22 - شبکه های کم عمق در مقابل شبکه های عمیق (رایگان)
23 - بینایی کامپیوتری و طبقه بندی تصویر (رایگان)
24 - شبکه های عصبی کانولوشن (CNN) (رایگان)
25 - عملیات کانولوشنال (رایگان)
26 - لایه ادغام (رایگان)
27 - معماری CNN (رایگان)
28 - تمرین 12.02: ارزیابی مدل تشخیص تصویر فشن با استفاده از CNN (رایگان)
29 - شبکه های عصبی مکرر (RNN) (رایگان)
30 - لایه های RNN (رایگان)
31 - لایه GRU (رایگان)
32 - لایه LSTM (رایگان)
33 - تمرین 12.03: ارزیابی مدل سهام یاهو با RNN (رایگان)
34 - سخت افزار لازم برای یادگیری عمیق (رایگان)
35 - چالش ها و روندهای آینده (رایگان)
36 - خلاصه (رایگان)
1 - تمرین 1.01: انتخاب یک ویژگی هدف و ایجاد یک ماتریس هدف (رایگان)
2 - تمرین 1.02: پیش پردازش کل دیتاست (رایگان)
3 - تمرین 2.01: استفاده از تجسم داده برای کمک به فرآیند پیش پردازش (رایگان)
4 - تمرین 2.02: اعمال الگوریتم k-mean در دیتاست (رایگان)
5 - تمرین 2.03: اعمال الگوریت mean-shift در دیتاست (رایگان)
6 - تمرین 2.04: اعمال الگوریتم DBSCAN روی دیتاست (رایگان)
7 - تمرین 2.05: اندازه گیری و مقایسه عملکرد الگوریتم ها (رایگان)
8 - تمرین 3.01: پارتیشن بندی داده ها در دیتاست های عددی دست نویس (رایگان)
9 - تمرین 3.02: ارزیابی عملکرد مدل آموزش داده شده بر روی دیتاست های دست نویسی (رایگان)
10 - تمرین 3.03: انجام تجزیه و تحلیل خطا بر روی یک مدل آموزش دیده برای تشخیص اعداد دست نویس (رایگان)
11 - تمرین 4.01: آموزش یک مدل ساده بیز برای دیتاست های سرشماری درآمد (رایگان)
12 - تمرین 4.02: آموزش یک مدل درخت تصمیم برای دیتاست های سرشماری درآمد (رایگان)
13 - تمرین 4.03: آموزش یک مدل SVM برای دیتاست های درآمد سرشماری (رایگان)
14 - تمرین 5.01: آموزش یک پرسپترون چندلایه برای دیتاست های سرشماری درآمد (رایگان)
15 - تمرین 5.02: مقایسه مدل های مختلف برای انتخاب بهترین مدل برای حل مشکل داده های سرشماری درآمد (رایگان)
16 - تمرین 6.01: انجام مراحل آماده سازی و ایجاد دیتاست های بازاریابی بانکی (رایگان)
17 - تمرین 6.02: ذخیره و بارگذاری مدل نهایی برای دیتاست های بازاریابی بانکی (رایگان)
18 - فعالیت 6.03: امکان تعامل مدل با دیتاست بازاریابی بانکی (رایگان)
19 - تمرین 7.01: ایجاد تمام مراحل ممکن در یک بازی تیک تاک (رایگان)
20 - تمرین 7.02: آموزش به عامل برای درک موقعیت ها در هنگام دفاع در برابر ضرر (رایگان)
21 - تمرین 7.03: اصلاح اولین و دومین حرکت هوش مصنوعی برای شکست ناپذیر کردن آن (رایگان)
22 - تمرین 7.04: اتصال چهارتایی (رایگان)
23 - تمرین 8.01: پیشبینی قیمت خانه بوستون با رگرسیون چند جملهای با درجات 1، 2 و 3 روی متغیرهای چندگانه (رایگان)
24 - تمرین 9.01: افزایش دقت امتیاز اعتبار (رایگان)
25 - تمرین 9.02: پشتیبانی از بهینه سازی ماشین بردار در کتابخوانه scikit-learn (رایگان)
26 - تمرین 10.01: طبقه بندی داده های خودرو (رایگان)
27 - فعالیت 10.02: طبقه بندی تصادفی Forest برای شرکت اجاره خودرو (رایگان)
28 - تمرین 11.01: خوشه بندی داده های فروش با استفاده از K-Means (رایگان)
29 - تمرین 11.02: خوشهبندی دادههای Red Wine با استفاده از الگوریتم تغییر میانگین و خوشهبندی سلسله مرات (رایگان)
30 - تمرین 12.01: یافتن بهترین امتیاز دقت برای دیتاست ارقام (رایگان)
31 - تمرین 12.02: ارزیابی مدل تشخیص تصویر مد با استفاده از CNN (رایگان)
32 - تمرین 12.03: ارزیابی مدل سهام یاهو با RNN (رایگان)
به این قسمت دسترسی نداری!
این قسمت رایگان نیست
برای مشاهده ی باقی دوره نیازه که دوره رو خریداری کنی دوست من