فایل ورد کامل یادگیری ساختاری در شبکه های عصبی مصنوعی با بهینه سازی پراکنده


در حال بارگذاری
10 جولای 2025
پاورپوینت
17870
4 بازدید
۷۹,۷۰۰ تومان
خرید

توجه : به همراه فایل word این محصول فایل پاورپوینت (PowerPoint) و اسلاید های آن به صورت هدیه ارائه خواهد شد

این مقاله، ترجمه شده یک مقاله مرجع و معتبر انگلیسی می باشد که به صورت بسیار عالی توسط متخصصین این رشته ترجمه شده است و به صورت فایل ورد (microsoft word) ارائه می گردد

متن داخلی مقاله بسیار عالی، پر محتوا و قابل درک می باشد و شما از استفاده ی آن بسیار لذت خواهید برد. ما عالی بودن این مقاله را تضمین می کنیم

فایل ورد این مقاله بسیار خوب تایپ شده و قابل کپی و ویرایش می باشد و تنظیمات آن نیز به صورت عالی انجام شده است؛ به همراه فایل ورد این مقاله یک فایل پاور پوینت نیز به شما ارئه خواهد شد که دارای یک قالب بسیار زیبا و تنظیمات نمایشی متعدد می باشد

توجه : در صورت مشاهده بهم ریختگی احتمالی در متون زیر ،دلیل ان کپی کردن این مطالب از داخل فایل می باشد و در فایل اصلی فایل ورد کامل یادگیری ساختاری در شبکه های عصبی مصنوعی با بهینه سازی پراکنده،به هیچ وجه بهم ریختگی وجود ندارد

تعداد صفحات این فایل: ۲۶ صفحه


بخشی از ترجمه :

چکیده

در این مقاله مسئله تخمین همزمان ساختار و پارامترهای شبکه های عصبی مصنوعی با چندین لایه مخفی در نظر گرفته می شود. روشی بر مبنای بهینه سازی تنک ارائه می شود. مسئله به صورت یک مسئله کمینه سازی هنجار به گونه ای فرمول بندی می شود که اوزان افزونه از شبکه عصبی حذف می شوند. چنین مسائلی به طور کلی ترکیبی هستند و اغلب حل نشدنی در نظر گرفته می شوند. بنابراین یک وزن دهی مجدد سلسله مراتبی تکراری برای آسان سازی هنجار ارائه می شود. آزمایش هایی روی مسائل محک ساده، برای طبقه بندی و رگرسیون و روی یک مطالعه موردی برای تخمین حرارت تلف شده در کشتی ها، انجام گرفته است. تمامی آزمایش ها بیانگر کارآمدی الگوریتم هستند.

– نتیجه گیری اظهارات

در این مقاله یک تکنیک بهینه سازی تنک مبتنی بر وزن دهی مجدد تکراری را برای آموزش ساختاری در شبکه های عصبی مصنوعی ارائه کردیم. روش پیشنهادی به شکلی کلی ارائه شد، به گونه ای که به انواع مختلفی از گونه های شبکه، مانند مفاهیم جند لایه، شبکه های تابع پایه شعاعی یا ماشین های آموزش مفرط اعمال می شود. نتایج آزمایشگاهی رگرسیون و همچنین طبقه بندی کارآیی الگوریتم را نشان می دهند. قیدهای ساختاری بیشتر، مانند تنکی گروهی، را می توان به سادگی از طریق لسو گروهی در چارچوب پیشنهادی ما گنجاند. برای شبکه های نوع RBF، که توابع مبنا محدب هستند، لایه مخفی را می توان به صورت یک هسته نیمه معین مثبت تفسیر کرد که شرایط مرسر را برآورده می کند. این امر یافتن راه حل های صریح برای هر مرحله تکرار را ممکن می سازد که الگوریتم پیشنهادی را از نظر محاسباتی کارآمد می سازد. در این حالت مسئله پیشنهادی برای فرمول بندی تشابه بسیاری را با ماشین های بردار پشتیبان حراقل مربعات نشان می دهد، اما رویه وزن دهی مجدد تکراری ارائه شده ارتقای تنکی را در این مدل امکان پذیر می کند.

عنوان انگلیسی:Structural learning in artificial neural networks using sparse optimization~~en~~

Abstract

In this paper, the problem of simultaneously estimating the structure and parameters of artificial neural networks with multiple hidden layers is considered. A method based on sparse optimization is proposed. The problem is formulated as an `0-norm minimization problem, so that redundant weights are eliminated from the neural network. Such problems are in general combinatorial, and are often considered intractable. Hence, an iterative reweighting heuristic for relaxing the `0-norm is presented. Experiments have been carried out on simple benchmark problems, both for classification and regression, and on a case study for estimation of waste heat recovery in ships. All experiments demonstrate the effectiveness of the algorithm.

 

Concluding remarks

In this paper we proposed a sparse optimization technique, based on iterative reweighing for structural learning in artificial neural networks. The proposed method was presented in a general form so that it applies to various types of network types, such as multi-layer perceptions, radial-basis-function networks or extreme learning machines. Experimental results for both regression as well as classification demonstrate the effectiveness of the algorithm. Model complexity was significantly reduced in all cases, and sparse network structures were obtained. Additional structural constraints, such as group sparsity, can easily be included in our proposed framework via group Lasso. For RBF-type networks, where the basis functions are convex, the hidden layer can be interpreted as an positivesemi-definite kernel, which satisfies Mercer’s conditions. This makes it possible to find explicit solutions for each iteration step, which makes the proposed algorithm computationally efficient. In this case, the proposed problem formulation shows strong similarities to the least-squares support-vector-machines, but the presented iterative reweighting procedure makes it possible to promote sparsity in the model.

$$en!!

  راهنمای خرید:
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.