فایل ورد کامل حداقل اتلاف حاشیه ای برای تشخیص چهره عمیق
توجه : به همراه فایل word این محصول فایل پاورپوینت (PowerPoint) و اسلاید های آن به صورت هدیه ارائه خواهد شد
این مقاله، ترجمه شده یک مقاله مرجع و معتبر انگلیسی می باشد که به صورت بسیار عالی توسط متخصصین این رشته ترجمه شده است و به صورت فایل ورد (microsoft word) ارائه می گردد
متن داخلی مقاله بسیار عالی، پر محتوا و قابل درک می باشد و شما از استفاده ی آن بسیار لذت خواهید برد. ما عالی بودن این مقاله را تضمین می کنیم
فایل ورد این مقاله بسیار خوب تایپ شده و قابل کپی و ویرایش می باشد و تنظیمات آن نیز به صورت عالی انجام شده است؛ به همراه فایل ورد این مقاله یک فایل پاور پوینت نیز به شما ارئه خواهد شد که دارای یک قالب بسیار زیبا و تنظیمات نمایشی متعدد می باشد
توجه : در صورت مشاهده بهم ریختگی احتمالی در متون زیر ،دلیل ان کپی کردن این مطالب از داخل فایل می باشد و در فایل اصلی فایل ورد کامل حداقل اتلاف حاشیه ای برای تشخیص چهره عمیق،به هیچ وجه بهم ریختگی وجود ندارد
تعداد صفحات این فایل: ۲۴ صفحه
بخشی از ترجمه :
چکیده
تشخیص چهره به موفقیت عظیمی دست یافته است که دلیل اصلی آن توسعه سریع شبکه های عصبی عمیق (DNN) در چند سال اخیر است. کارکردهای مختلف اتلاف در یک شبکه عصبی عمیق قابل استفاده است که منجر به عملکرد متفاوتی می شود. اخیراً برخی از کارکردهای تلفات پیشنهاد داده شده است. با این حال، آن ها نمی توانند مساله تمایل حاشیه ای را که در مجموعه داده های غیر متعادل وجود دارد حل کنند. در این مقاله حل مساله تمایل حاشیه ای را با تعیین یک حاشیه حداقلی برای تمامی زوج کلاس ها (دسته ها) پیشنهاد می دهیم. ما تابع اتلاف جدیدی به نام حداقل اتلاف حاشیه ای (MML) پیشنهاد می دهیم که هدف آن گسترش محدوده آن هایی است که به زوج های مرکزی دسته بیش از حد نزدیک می شوند تا قابلیت متمایز کننده ویژگی های عمیق را ارتقاء دهد. تابع MML همراه با توابع Softmax Loss و Centre Loss بر فرآیند آموزش نظارت می کنند تا حاشیه های تمامی دسته ها را صرف نظر از توزیع دسته آن ها مورد نظارت قرار دهند. ما تابع MML را در پلتفورم Inception-ResNet-v1 پیاده سازی می کنیم و آزمایش های گسترده ای را بر روی هفت مجموعه داده تشخیص چهره انجام می دهیم که شامل MegaFace، FaceScrub، LFW، SLLFW، YTF، IJB-B و IJB-C است. نتایج تجربی نشان می دهد که تابع اتلاف MML پیشنهادی منجر به حالت جدیدی در تشخیص چهره می شود و اثر منفی تمایل حاشیه ای را کاهش می دهد.
– نتیجه گیری
در این مقاله یک تابع اتلاف جدید به حداقل اتلاف حاشیه ای (MML) برای هدایت شبکه های عصبی عمیق به منظور یادگیری ویژگی های چهره ارائه شده است. براساس اطلاعات موجود، روش MML اولین تابع اتلاف است که تعیین حداقل حاشیه بین دسته های مختلف را در نظر می گیرد. ما نشان می دهیم که پیاده سازی تابع اتلاف پیشنهادی در شبکه های CNN بسیار ساده است و مدل های CNN ما به طور مستقیم توسط SGD استاندارد قابل بهینه سازی است. آزمایش های گسترده ای بر روی هفت مجموعه داده عمومی موجود انجام شده است. ما روش MML را با روش های منتشر شده در چند سال اخیر مقایسه می کنیم. همچنین روش MML را به طور مستقیم با توابع اتلاف مربوطه تحت یک ساختار معین مقایسه می کنیم. نتایج به دست آمده نشان می دهد که روش MML دارای بهترین عملکرد است. تحقیقات آتی برای تعیین خودکار حداقل حاشیه M مورد نیاز است. همچنین سعی می کنیم تا اثبات نظری مزیت تعیین حداقل حاشیه را مورد بررسی قرار دهیم.
عنوان انگلیسی:Minimum margin loss for deep face recognition~~en~~
Abstract
Face recognition has achieved great success owing to the fast development of deep neural networks in the past few years. Different loss functions can be used in a deep neural network resulting in different performance. Most recently some loss functions have been proposed, which have advanced the state of the art. However, they cannot solve the problem of margin bias which is present in class imbalanced datasets, having the so-called long-tailed distributions. In this paper, we propose to solve the margin bias problem by setting a minimum margin for all pairs of classes. We present a new loss function, Minimum Margin Loss (MML), which is aimed at enlarging the margin of those overclose class centre pairs so as to enhance the discriminative ability of the deep features. MML, together with Softmax Loss and Centre Loss, supervises the training process to balance the margins of all classes irrespective of their class distributions. We implemented MML in Inception-ResNet-v1 and conducted extensive experiments on seven face recognition benchmark datasets, MegaFace, FaceScrub, LFW, SLLFW, YTF, IJB-B and IJB-C. Experimental results show that the proposed MML loss function has led to new state of the art in face recognition, reducing the negative effect of margin bias.
– Conclusion
In this paper, a new loss function – Minimum Margin Loss (MML) is presented to guide deep neural networks to learn highly discriminative face features. To the best of our knowledge, MML is the first loss that considers setting a minimum margin between the different classes. We show that the proposed loss function is very easy to implement in the CNNs and our CNN models can be directly optimized by the standard SGD. Extensive experiments are conducted on the seven public available datasets. We compare MML with the methods published in the past few years on top conference and journals. We also directly compare MML with the relevant loss functions under the same framework. Results show that MML has state-of-the-art performance. Future research is needed to automatically determine the minimum margin M. Also we will try to give the theoretical proof about the advantage of setting a minimum margin in the future work.
$$en!!
- همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
- ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
- در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.
مهسا فایل |
سایت دانلود فایل 