پاورپوینت کامل ماشین بردار پشتیبان ۸۴ اسلاید در PowerPoint


در حال بارگذاری
10 جولای 2025
پاورپوینت
17870
2 بازدید
۷۹,۷۰۰ تومان
خرید

توجه : این فایل به صورت فایل power point (پاور پوینت) ارائه میگردد

 پاورپوینت کامل ماشین بردار پشتیبان ۸۴ اسلاید در PowerPoint دارای ۸۴ اسلاید می باشد و دارای تنظیمات کامل در PowerPoint می باشد و آماده ارائه یا چاپ است

شما با استفاده ازاین پاورپوینت میتوانید یک ارائه بسیارعالی و با شکوهی داشته باشید و همه حاضرین با اشتیاق به مطالب شما گوش خواهند داد.

لطفا نگران مطالب داخل پاورپوینت نباشید، مطالب داخل اسلاید ها بسیار ساده و قابل درک برای شما می باشد، ما عالی بودن این فایل رو تضمین می کنیم.

توجه : در صورت  مشاهده  بهم ریختگی احتمالی در متون زیر ،دلیل ان کپی کردن این مطالب از داخل فایل می باشد و در فایل اصلی پاورپوینت کامل ماشین بردار پشتیبان ۸۴ اسلاید در PowerPoint،به هیچ وجه بهم ریختگی وجود ندارد


بخشی از مطالب داخلی اسلاید ها

پاورپوینت کامل ماشین بردار پشتیبان ۸۴ اسلاید در PowerPoint

اسلاید ۴: ۴ایده اصلیبا فرض اینکه دسته ها بصورت خطی جداپذیر باشند، ابرصفحه هائی با حداکثر حاشیه (maximum margin) را بدست می آورد که دسته ها را جدا کنند.در مسایلی که داده ها بصورت خطی جداپذیر نباشند داده ها به فضای با ابعاد بیشتر نگاشت پیدا میکنند تا بتوان آنها را در این فضای جدید بصورت خطی جدا نمود.

اسلاید ۵: ۵تعریفSupport Vector Machines are a system for efficiently training linear learning machines in kernel-induced feature spaces, while respecting the insights of generalisation theory and exploiting optimisation theory.Cristianini & Shawe-Taylor (2000)

اسلاید ۶: ۶مسئله جداسازی خطی: Linear Discriminationاگر دو دسته وجود داشته باشند که بصورت خطی از هم جداپذیر باشند، بهترین جدا کننده این دو دسته چیست؟الگوریتم های مختلفی از جمله پرسپترون میتوانند این جداسازی را انجام دهند.آیا همه این الگوریتمها بخوبی از عهده اینکار بر میآیند؟Separating Surface:A+A-

اسلاید ۷: ۷IntuitionsXXOOOOOOXXXXXXOO

اسلاید ۸: ۸IntuitionsXXOOOOOOXXXXXXOO

اسلاید ۹: ۹IntuitionsXXOOOOOOXXXXXXOO

اسلاید ۱۰: ۱۰IntuitionsXXOOOOOOXXXXXXOO

اسلاید ۱۱: ۱۱A “Good” SeparatorXXOOOOOOXXXXXXOO

اسلاید ۱۲: ۱۲Noise in the ObservationsXXOOOOOOXXXXXXOO

اسلاید ۱۳: ۱۳Ruling Out Some SeparatorsXXOOOOOOXXXXXXOO

اسلاید ۱۴: ۱۴Lots of NoiseXXOOOOOOXXXXXXOO

اسلاید ۱۵: ۱۵Maximizing the MarginXXOOOOOOXXXXXXOO

اسلاید ۱۶: ۱۶ضرب داخلیضرب داخلی را میتوان معیاری از تشابه دانستدر حالت n بعدی میتوان آنرا بصورت زیر نمایش داد.qab

اسلاید ۱۷: ۱۷خط یا ابر صفحه جدا کنندههدف: پیدا کردن بهترین خط ( ابر صفحه) که دو دسته را از هم جدا کند. در حالت دو بعدی معادله این خط بصورت زیر است:در حالت n بعدی خواهیم داشت:Class 1Class -1X2X1

اسلاید ۱۸: ۱۸ایده SVM برای جدا سازی دسته هادو صفحه مرزی بسازید :دو صفحه مرزی موازی با صفحه دسته بندی رسم کرده و آندو را آنقدر از هم دور میکنیم که به داده ها برخورد کنند.صفحه دسته بندی که بیشترین فاصله را از صفحات مرزی داشته باشد، بهترین جدا کننده خواهد بود.Class 1Class -1

اسلاید ۱۹: ۱۹حداکثر حاشیهبر طبق قضیه ای در تئوری یادگیری اگر مثالهای آموزشی بدرستی دسته بندی شده باشند، از بین جداسازهای خطی، آن جداسازی که حاشیه داده های آموزشی را حداکثر میکند خطای تعمیم را حداقل خواهد کرد. Class 1Class -1

اسلاید ۲۰: ۲۰چرا حداکثر حاشیه؟به نظر میرسد که مطمئن ترین راه باشد.تئوری هائی برمبنای VC dimension وجود دارد که مفید بودن آنرا اثبات میکند.بطور تجربی این روش خیلی خوب جواب داده است.

اسلاید ۲۱: ۲۱بردار پشتیباننزدیکترین داده های آموزشی به ابر صفحه های جدا کننده بردار پشتیبان نامیده میشوندClass 1Class -1X2X1SVSVSV

اسلاید ۲۲: ۲۲تعمیم و SVMدر صورت استفاده مناسب از SVM این الگوریتم قدرت تعمیم خوبی خواهد داشت:علیرغم داشتن ابعاد زیاد (high dimensionality) از overfitting پرهیز میکند. این خاصیت ناشی از optimization این الگوریتم استفشرده سازی اطلاعات:بجای داده های آموزشی از بردارهای پشتیبان استفاده میکند.

اسلاید ۲۳: ۲۳حل مسئله برای حالت دو بعدینمونه های آموزشیx ny {-1, 1}تابع تصمیم گیریf(x) = sign(<w,x> + b)w n b ابر صفحه<w, x> + b = 0w1x1 + w2x2 … + wپاورپوینت کامل ماشین بردار پشتیبان ۸۴ اسلاید در PowerPointn + b = 0میخواهیم مقادیر W, bرابگونه ای پیدا کنیم که: نمونه های آموزشی را بدقت دسته بندی کندبا این فرض که داده ها بصورت خطی جدا پذیر باشندحاشیه را حداکثر نماید

اسلاید ۲۴: ۲۴Linear SVM MathematicallyLet training set {(xi, yi)}i=1..n, xiRd, yi {-1, 1} be separated by a hyperplane with margin . Then for each training example (xi, yi):For every support vector xs the above inequality is an equality. After rescaling w and b by /2 in the equality, we obtain that distance between each xs and the hyperplane is Then the margin can be expressed through (rescaled) w and b as:wTxi + b – /2 if yi = -1wTxi + b /2 if yi = 1yi(wTxi + b) /2

اسلاید ۲۵: ۲۵حل مسئله برای حالت دو بعدیفاصله خط جداکننده از مبدا برا براست بافاصله نمونه ای مثل x از خط جدا کننده برابر است باX2X1f(x)=0f(x)>0f(x)<0wxبردار w بر هر دو صفحه مثبت ومنفی عمود خواهد بود.

اسلاید ۲۶: ۲۶تعیین حاشیه بین خطوط جدا کنندهPlus-plane = { x : w . x + b = +1 }Minus-plane = { x : w . x + b = -1 }Classify as.. -1 if w . x + b <= -1+1 if w . x + b >= 1

اسلاید ۲۷: ۲۷محاسبه پهنای حاشیهصفحه مثبت و منفی را بصورت زیر در نظر میگیریم:Plus-plane = { x : w . x + b = +1 }Minus-plane = { x : w . x + b = -1 }بردار w بر صفحه مثبت ومنفی عمود خواهد بود. فرض کنید X- نقطه ای در صفحه منفی بوده و X+ نزدیکترین نقطه در صفحه مثبت به X- باشد.

اسلاید ۲۸: ۲۸محاسبه پهنای حاشیهخطی که X- رابه X+ وصل میکند بر هر دو صفحه عمود خواهد بود. لذا فاصله بین دو صفحه مضربی ازW خواهد بود.در اینصورت خواهیم داشت:x+= x-+ w for some value of .

اسلاید ۲۹: ۲۹محاسبه پهنای حاشیهمیدانیم که: w . x+ + b = +1w . x- + b = -1X+= x-+ w| x+- x-| = Mلذا میتوان M را برحسب Wو b محاسبه کرد.

اسلاید ۳۰: ۳۰محاسبه پهنای حاشیهw . x+ + b = +1w . x- + b = -1X+= x-+ w| x+- x-| = Mw.( x-+ w) + b = +1w.x-+ w.w + b = +1-1+ w.w = +1 =2/ w.w

اسلاید ۳۱: ۳۱محاسبه پهنای حاشیه

اسلاید ۳۲: ۳۲محدودیتاگر برای مثال دو بعدی فوق مقدار دسته ها را با ۱ و ۱- مشخص کنیم داریم:<w,xi> + b 1 for y=1<w,xi> + b £ -۱ for y= -1که میتوان آنرابصورت زیر نوشتyi (<w,xi> + b) 1 for all i

اسلاید ۳۳: ۳۳جمع بندی حل مسئلهدر SVM بدنبال حل همزمان معادلات زیر هستیم:با داشتن مثالهای آموزشی (xi, yi) که i=1,2,…N; yi{+1,-1}Minimise ||w||2Subject to : yi (<w,xi> + b) 1 for all iNote that ||w||2 = wTw این یک مسئله quadratic programming با محدودیت هائی بصورت نامعادلات خطی است. روشهای شناخته شده ای برای چنین مسئله هائی بوجود آمده اند.

اسلاید ۳۴: ۳۴Quadratic Programming

اسلاید ۳۵: ۳۵Recap of Constrained OptimizationSuppose we want to: minimize f(x) subject to g(x) = 0A necessary condition for x0 to be a solution: a: the Lagrange multiplierFor multiple constraints gi(x) = 0, i=1, …, m, we need a Lagrange multiplier ai for each of the constraints

اسلاید ۳۶: ۳۶Recap of Constrained OptimizationThe case for inequality constraint gi(x) £ ۰ is similar, except that the Lagrange multiplier ai should be positiveIf x0 is a solution to the constrained optimization problemThere must exist ai 0 for i=1

  راهنمای خرید:
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.