فایل ورد کامل تحقیق الگوریتم نزدیک ترن همسایه و روش های موجود برای بهبود آن ۳۳ صفحه در word


در حال بارگذاری
10 جولای 2025
پاورپوینت
17870
3 بازدید
۷۹,۷۰۰ تومان
خرید

توجه : به همراه فایل word این محصول فایل پاورپوینت (PowerPoint) و اسلاید های آن به صورت هدیه ارائه خواهد شد

 فایل ورد کامل تحقیق الگوریتم نزدیک ترن همسایه و روش های موجود برای بهبود آن ۳۳ صفحه در word دارای ۳۳ صفحه می باشد و دارای تنظیمات در microsoft word می باشد و آماده پرینت یا چاپ است

لطفا نگران مطالب داخل فایل نباشید، مطالب داخل صفحات بسیار عالی و قابل درک برای شما می باشد، ما عالی بودن این فایل رو تضمین می کنیم.

فایل ورد فایل ورد کامل تحقیق الگوریتم نزدیک ترن همسایه و روش های موجود برای بهبود آن ۳۳ صفحه در word  کاملا فرمت بندی و تنظیم شده در استاندارد دانشگاه  و مراکز دولتی می باشد.

توجه : در صورت  مشاهده  بهم ریختگی احتمالی در متون زیر ،دلیل ان کپی کردن این مطالب از داخل فایل ورد می باشد و در فایل اصلی فایل ورد کامل تحقیق الگوریتم نزدیک ترن همسایه و روش های موجود برای بهبود آن ۳۳ صفحه در word،به هیچ وجه بهم ریختگی وجود ندارد


بخشی از متن فایل ورد کامل تحقیق الگوریتم نزدیک ترن همسایه و روش های موجود برای بهبود آن ۳۳ صفحه در word :

بخشی از فهرست مطالب فایل ورد کامل تحقیق الگوریتم نزدیک ترن همسایه و روش های موجود برای بهبود آن ۳۳ صفحه در word

فصل اول:مقدمه    
۱-۱- مقدمه    
۱-۲- روشهای دسته بندی    
۱-۳- ارزیابی دستهبند    
۱-۴- تصدیق متقابل    
۱-۵- الگوریتم نزدیکترین همسایه    
۱-۷- سر فصل ها    
فصل دوم:    
الگوریتم نزدیک ترن همسایه و روشهای موجود برای بهبود آن    
۲-۲- محدودیتهای روش نزدیکترین همسایه    
۲-۳- مروری بر راهکارهای ارائه شده در گذشته برای بهبود الگوریتم نزدیکترین همسایه    
فصل سوم:روشهای تصمیم گیری دسته جمعی    
۳-۲- روشهای متفاوت برای ایجاد یک تصمیمگیر دستهجمعی    
۳-۳- ساختارهای مختلف در روش تصمیمگیری دستهجمعی    
۳-۴- رایگیری بین دستهبندها    
۳-۵- معرفی چند روش تصمیمگیری دستهجمعی پرکاربرد    
فهرست منابع    

بخشی از منابع و مراجع فایل ورد کامل تحقیق الگوریتم نزدیک ترن همسایه و روش های موجود برای بهبود آن ۳۳ صفحه در word

۱-Active Learning for kNN based on Bagging Features, Shuo, S., Yuhai, L., Yuehua, H., Shihua, Z.,and Yong, L., Fourth International Conference on Natural Computation ICNC 2008 7, art. no. 4667945: 61-

۲-Boosting k-nearest neighbor classifier by means of input space projection,  Garca-Pedrajas, and Ortiz-Boyer, Expert Systems with Applications, 2009 36(7): 10570-

۳-Neighborhood rough set based heterogeneous feature subset selection, Q. Hu, D. Yu, J. Liu, C. Wu, Information Sciences 178 (2008) 3577–۳۵۹۴

۴-A new approach to attribute reduction of consistent and inconsistent covering decision systems with covering rough sets, G. Chen, C.Z. Wang, Q.H. Hu Information Sciences 177 (2007) 3500–۳۵۱۸

۵-Nearest Neighbor Ensemble, C. Domeniconi, and B. Yan, in Proceedings of the 17th International Conference on Pattern Recognition, Cambridge, UK, August 23-26,

۶-Locally adaptive metric nearest neighbor classification, C. Domeniconi, J. Peng, D. Gunopulos, IEEE Transaction on Pattern Analysis and Machine Intelligence 24 (2002) 1281–۱۲۸۵

۷-Improving nearest neighbor rule with a simple adaptive distance measure,J. Wang, P. Neskovic, L.N. Cooper, Pattern Recognition Letters 28 (2007) 207–۲۱۳

۸-Flexible Metric Nearest-neighbor Classification, J. Friedman, Technical Report 113, Department of Statistices, Stanford University,

۹-Nearest Neighbor Pattern Classification, T. Cover, and P. Hart, , IEEE Transactions on Information Theory,1967, 13(1): 21-

۱۰-Full Bayesian network Classifiers. Zhang, Jiang Su and Harry. ACM, 2006, international Conference on Machine Learning, Vol. 148, pp. 897-

۱۱-A Simple Decomposition Method for Support Vector Machines. Chih-Wei Hsu and Chih-Jen Lin.  ACM, 2002, Machine Learning , Vol

۱۲-Neural networks for classification: a survey. Zhang, Guoqiang Peter. 2000, IEEE Transactions on Systems, Man, and Cybernetics, Part C , pp. 451-

۱۳-A method of learning weighted similarity function to improve the performance of nearest neighbor, M. Zolghadri Jahromi, E. Parvinnia, R. John, Information Sciences 179 (2009)

فصل اول:مقدمه

مقدمه

در دنیای امروزی حجم اطلاعات دیجیتالی به صورت روز افزونی در حال افزایش است. در همین راستا، به جهت مدیریت و بررسی علمی این اطلاعات، نیاز به پردازش هوشمندانه و خودکار این اطلاعات بیش از پیش احساس می شود

یکی از مهم ترین این پردازش ها که در فناوری اطلاعات و ارتباطات مورد نیاز است، دسته­بندی خودکار این اطلاعات می باشد. دسته بندی در مسائل متنوعی در فناوری اطلاعات به کار گرفته می شود، در مسائلی مانند امنیت اطلاعات، شناسایی نفوزگری در شبکه، دسته بندی کاربران بر اساس اطلاعات شخصی، پردازش تصویر و در واقع شناسایی هر گونه الگو بر اساس نمونه­ها و اطلاعات پیشین. این پردازش می تواند دسته[۱]­ی نمونه­های جدید که به مجموعه اطلاعات اضافه می شود را پیش بینی نماید. از این رو در هوش مصنوعی توجه خاصی به توسعه انواع روش­های دسته­ بندی هوشمند و خودکار شده است

 روش­های دسته ­بندی

دسته­بندی یکی از مهم­ترین شاخه‌های یادگیری ماشین[۲] است. دسته­بندی به پیش­بینی برچسب دسته[۳] نمونه[۴] بدون برچسب، بر اساس مجموعه نمونه­های آموزشی برچسب­دار (که قبلا به با کمک یک کارشناس دسته­بندی  شده­اند) گفته می­شود. درواقع دسته­بندی روشی است که هدف آن، گروه­بندی اشیا به تعدادی دسته یا گروه می­باشد. در روش‌های دسته­بندی، با استفاده از اطلاعات بدست آمده از مجموعه نمونه­های آموزشی، از فضای ویژگی­ها[۵] به مجموعه برچسب دسته­ها نگاشتی بدست می آید که بر اساس آن، نمونه­های بدون برچسب به یکی از دسته­ها نسبت داده می­شود

در مسائل دسته­بندی، هر نمونه توسط یک بردار ویژگی[۶] به صورت X=<x۱ , x۲ ,… xm> معرفی می­شود که نشان دهنده­ی مجموعه مقادیر ویژگی­های نمونه­ی­ مربوطه است. بر اساس این بردار، نمونه­ی ­ X دارای m خصوصیت یا ویژگی است. این ویژگی­ها می­توانند مقادیر عدد صحیح، اعشاری ویا مقادیر نامی[۷] به خود اختصاص بدهند. همچنین این نمونه دارای یک برچسب C است که معرف دسته­ای­ است که نمونه­ی­ X به آن تعلق دارد

تفاوت روش­ها دسته­بندی در چگونگی طراحی نگاشت است. در بعضی از آن­ها با استفاده از داده­های آموزشی مدلی ایجاد می­شود که بر اساس آن فضای ویژگی­ها به قسمت­های مختلف تقسیم می­شود که در آن، هر قسمت نشان دهنده­ی یک دسته است. در این گونه روش­های دسته­بندی از مدل برای پیش­بینی دسته­ی­ نمونه بدون برچسب استفاده شده و از نمونه­­های آموزشی به طور مستقیم استفاده نمی شود. یک نمونه از این دسته­بندها، دسته­بندهای احتمالی[۸] می­باشد. این گونه الگوریتم­ها، از استنتاج آماری برای پیدا کردن بهترین دسته استفاده می­کنند؛ برخلاف سایر دسته­بند­ها که فقط بهترین کلاس را مشخص می­کنند الگوریتم ­های احتمالی به ازای هر دسته موجود یک احتمال را به عنوان تعلق نمونه به آن مشخص می­کنند و کلاس برنده، بر اساس بیشترین احتمال انتخاب می­شود. روش­های احتمالی در یادگیری ماشین معمولا با نام الگوریتم­های آماری نیز شناخته می­شوند. در گروهی دیگر از روش­های دسته بندی، نمونه براساس خود مجموعه نمونه­ها و بدون ساختن مدل، به پیش­بینی دسته­ی نمونه مورد نظر می­پردازد. به این گونه الگوریتم های دسته­بندی، نمونه- بنیاد[۹] گفته می­شود

تاکنون الگوریتم­های متفاوتی به عنوان دسته ­بند ارائه شده ­اند. از جمله­ی­ آن­ها می­توان به الگوریتم نزدیک ترین همسایه­ها[۱۰] [۱] ، دسته­بند بیز[۱۱][۲]، ماشین بردار پشتیبان[۳] و شبکه عصبی[۱۲][۴] اشاره کرد

ارزیابی دسته ­بند

اولین موضوعی که در مورد هر الگوریتم مورد توجه قرار می­گیرد، کارایی و دقت آن الگوریتم است. در هوش مصنوعی، معیار­های متفاوتی وجود دارند که در مسائل مختلف و زیر شاخه­های این علم استفاده می­شود. در مورد کارایی یک دسته­بند­، به عنوان یکی از مسائل اصلی هوش مصنوعی، روش­های متنوعی وجود دارد که در این قسمت بررسی شده­اند

معیار کارایی نظر­گرفته شده برای یک دسته­بند، ارتباط مستقیمی با کاربرد و ضمینه کار خاص آن دسته­بند دارد. بنابراین در مسائل متفاوت، ممکن است معیار­های مختلفی برای اندازه­گیری کارایی الگوریتم در نظر­گرفته شود. همچنین همان طور که مشخص است، یک دسته­بند که بتواند برای همه مسائل موجود بهترین جواب را ارائه دهد، وجود ندارد

در بررسی آماری کارایی یک دسته­بند، از یک مجموعه که شامل تعداد مشخصی نمونه­ی­ آموزشی دارای برچسب است استفاده می­شود. برای این کار، قسمتی از این نمونه­ها و یا تمام مجموعه،­ به عنوان مجموعه آموزشی[۱۳]، در اختیار دسته­بند برای آموزش قرار می­گیرد. پس از آموزش، دسته بند به وسیله­ی­ زیر­مجموعه­ای­ از نمونه­ها، به عنوان نمونه­های­ آزمایشی، محک زده می­شود. نمونه­ها­ی موجود در مجموعه­ی­ آزمایشی، بسته به نوع آزمون کارایی، می­تواند عضو مجموعه آموزشی بوده و یا متفاوت با آن باشند

[۱] Class

[۲]Machine Learning

[۳]Class label

[۴]Instance

[۵]Features Space

[۶]Feature Vector

[۷]Nominal

[۸]Probabilistic Classification

[۹]Instance-Based

[۱۰]K-Nearest Neighbour

[۱۱] Naïve Bayesian Classifier

[۱۲] Neural Networks

[۱۳]Training Instances

  راهنمای خرید:
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.