فایل ورد کامل مدل استدلال فازی برای تشخیص حالت های چهره


در حال بارگذاری
10 جولای 2025
پاورپوینت
17870
4 بازدید
۷۹,۷۰۰ تومان
خرید

توجه : به همراه فایل word این محصول فایل پاورپوینت (PowerPoint) و اسلاید های آن به صورت هدیه ارائه خواهد شد

این مقاله، ترجمه شده یک مقاله مرجع و معتبر انگلیسی می باشد که به صورت بسیار عالی توسط متخصصین این رشته ترجمه شده است و به صورت فایل ورد (microsoft word) ارائه می گردد

متن داخلی مقاله بسیار عالی، پر محتوا و قابل درک می باشد و شما از استفاده ی آن بسیار لذت خواهید برد. ما عالی بودن این مقاله را تضمین می کنیم

فایل ورد این مقاله بسیار خوب تایپ شده و قابل کپی و ویرایش می باشد و تنظیمات آن نیز به صورت عالی انجام شده است؛ به همراه فایل ورد این مقاله یک فایل پاور پوینت نیز به شما ارئه خواهد شد که دارای یک قالب بسیار زیبا و تنظیمات نمایشی متعدد می باشد

توجه : در صورت مشاهده بهم ریختگی احتمالی در متون زیر ،دلیل ان کپی کردن این مطالب از داخل فایل می باشد و در فایل اصلی فایل ورد کامل مدل استدلال فازی برای تشخیص حالت های چهره،به هیچ وجه بهم ریختگی وجود ندارد

تعداد صفحات این فایل: ۲۴ صفحه


بخشی از ترجمه :

در این مقاله، مدلی برای فازی کردن ویژگیهای چهره مطرح کردیم که برای تشخیص حالتهای پایه یا غیر نوعی مورد استفاده قرار می گرفت. برای کمیت سنجی و تعیین حالتهای چهره و شدتهای آنها، تحلیلآماری پایگاههای داده چهره Kanade و Pantic انجام شده است. در این راستا استنباط فازی دو مرحله ای با استفاده از توابع گاوسی و مثلثاتی اجرا شده است که شدت هیجان را اندازه گیری و تشخیص می دهد.
در آزمایشات مقدماتی، تشخیص حالتهای پایه به ۹۰- ۷۵ درصد می رسد که این مسئله به پیچیدگی انتخاب AU ها برای نمایش یک حالت خاص و ذهنیت ادراک آن از سوی هر شخص بستگی دارد.
چارچوب مبتنی بر دانش طراحی شده به اندازه کافی عمومی می باشد و به همین خاطر از آن برای ایجاد نمونه های گوناگونی از حالتهای چهره استفاده می شود. آن همچنین اعمال اندازه گیری شده چهره را به روش کمی به درستی و به اندازه کافی توصیف می نماید. بدین طریق می توان یک تعریف ساده و رسمی از رابطه بین حالتها، اعمال چهره و توصیفگرهای آنها ارائه داد. چارچوب پیشنهادی امکان فرض قواعد تشخیص حالت نوعی یا غیر نوعی با استفاده از هر تیپ دسته بند را نیز فراهم می آورد.

در آینده تلاش خواهیم کرد سیستم هایی طراحی کنیم که به صورت بلادرنگ عمل کرده و با استفاده از دسته بندهای استنباطی فازی پیشنهادی برای تفسیر حالت چهره، دقت تشخیص هیجان را بهبود می بخشند. برای ساخت سیستم مستقل یا دسترس پذیر از طریق وب جهت تشخیص هیجان، ماژول تشخیص خودکار ویژگی چهره را می توان به دسته بند فازی پیشنهادی وصل نمود. بالاخره، سیستم با توسعه حالت های غیرنوعی تشخیص داده شده چهره و لحاظ کردن حالتهای مختلط حبس شده در صحنه های واقعی بهبود می یابد.

عنوان انگلیسی:A Fuzzy Reasoning Model for Recognition of Facial Expressions~~en~~

Introduction Fuzzy Logic may be considered as a field of artificial intelligence. It proposes a type of reasoning, where logical statements are not only true or false but can also range from almost certain to very unlikely. Software systems based on fuzzy-logic allow computers to mimic human reasoning more precisely, so that decisions can be taken with incomplete or uncertain data. The fuzzy approach and its combination with neural networks have been successfully used for pattern recognition and for image indexing and interpretation [25], [15]. In the area of facial expression recognition the application of a fuzzy reasoning remains marginal despite that some researchers have successfully used classifying systems, which emulate the way humans identify prototypical expression [2], [9], [18]. The emotion recognition system proposed by Chakraborty uses Fuzzy C-Mean clustering with three levels of fuzzyfication (high, medium, and low) processing only three facial features, namely, eyebrow length, eye and mouth opening. That does not allow obtaining precise recognition of emotions because some of them have similar facial features (for example, sadness and fear or surprise and fear have similar eye and mouth opening) [2]. An interesting hybrid classifier was proposed in [9], where a combination of fuzzy-and case-based reasoning is used for recognition of facial expressions. The average precision of recognition for basic emotions is about 70-80%. Recognition of 32 facial action units (AUs) representing muscular facial activity is provided by the emotion recognition system proposed in [18]. The system uses rule-based reasoning for recognition of facial gestures in frontal images. However, this system shows about 86% precision of recognition processing only AUs and the fuzzy classifier does not measure the intensity of recognized basic emotions. Some well-known systems use other types of classifier based on the multiple adaptive neurofuzzy inference approach [6], support vector machine [10], hidden Markov model [28], evolutionary algorithm [17], genetic algorithm [22], etc. Even though these approaches may extract and interpret facial features, there are no reports concerning how they may link standard facial actions with particular formal models or rules for automatic emotion interpretation. Additionally, the precision of recognition is low (about 70-85%) and only basic emotions without a quantitative measurement of intensity of facial expression are interpreted [23]. Usually the systems for emotion interpretation are based on two parts: a module for generation of feature vector corresponding to the facial expression in the analyzed image (described by pixel position, colors, shapes, regions, etc.) and a classification module that recognizes the facial expression and describes its intensity. Some facial feature extraction techniques used in well-known systems are based on Gabor Wavelets, Active Appearance and Geometric Models [26], Principal Components Analysis and Hierarchical Radial Basis Function Network [12], Optical Flow and Deformable Templates [13], Discrete Cosine Transform and Neural Networks [1], Multilevel Hidden Markov Models [11], Dynamic Bayesian networks [24], and others. The common disadvantages of these systems are the presence of errors during spatial sampling, restrictions for input visual queries, which must have small number of well-defined and separated faces without occlusion, sensitivity to scaling or rotation of analyzed regions, low precision of recognition if objects in image have week borders or complex background. The analysis of factors like tolerance to deformation, robustness against noise, feasibility of indexing of facial expression, significant amount of required memory are other factors that must be taken into account during development of models for emotion interpretation. In this paper, we present a model for fuzzy reasoning applied to recognition of facial expressions and measurement of their intensity using standard Ekman´s AUs (Action Units), FAPs (Facial Animation Parameter) and FDPs (Facial Definition Parameter) of MPEG-4 standard. Intuitively, we expect that this approach allows creating novel systems for automatic facial feature detection as well as recognition and interpretation of basic and non-prototypical emotions. motions. Action units (AUs) represent muscular activity that corresponds to basic and unique facial changes, which may be classified and used for description of complex facial expression. FAPs (Facial Animation Parameters) are sets of parameters used in animating MPEG-4 model that defines reproduction of emotions from facial expressions. Each parameter set is closely related to muscle actions. The definition of FAPs is based on fiducial points defined by a manual or automatic tool for extraction of face features, which are called FDPs (Facial Definition Parameters). The readers interested in this subject, may review [4] or [7].

$$en!!

  راهنمای خرید:
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.