عنوان فایل ترجمه فارسی: تابع هدف جدید محدب برای آموزش نظارت شبکههای عصبی تک لایه.
عنوان نسخه انگلیسی: A new convex obgective function for the supervised Learning of single-layer neural networks
مرتبط با رشته : فناوری اطلاعات و کامپیوتر
تعداد صفحات مقاله فارسی: ۲۸ صفحه
این فایل ترجمه شده به صورت ورد word است و دارای امکان ویرایش می باشد.
و دریافت رایگان متون لاتین در قسمت پایین با فرمت pdf آمده دانلود است.
قسمتی از ترجمه مقاله
چکیده:در این مقاله روش آموزش نظارت جدید برای ارزیابی چگونگی شبکههای
Feed Forward عصبی تکلایه ارائه میشود. این روش از تابع هدفی بر
مبنایMSE استفاده میکند، که خطاها را به جای این که پس از تابع فعالسازی
غیرخطی نورونها ارزیابی کند قبل از آنها بررسی میکند. در این گونه
موارد، راهحل را میتوان به سهولت از طریق حل معادلات در سیستمهای خطی
بهدست آورد یعنی در این روش نسبت به روشهای معین و مرسوم پیشین به
محاسبات کمتری نیاز است. تحقیقات تئوری شامل اثبات موازنههای تقریبی بین
بهینه ستزی سراسری تابع هدف بر مبنای معیارMSE و یک تابع پیشنهادی دیگر
میباشد. بعلاوه مشخص شده است که این روش قابلیت توسعه و توزیع آموزش را
دارا میباشد. طی تحقیقات تجربی جامع نیز تنوع صحت در انرمان این روش مشخص
شده است. این تحقیق شامل ۱۰ دستهبندی و ۱۶ مسئلهی بازگشتی میباشد.
بعلاوه، مقایسه این روش با دیگر الگوریتمهای آموزشی با عملکرد بالا نشان
میدهد که روش مذکور بطور متوسط بیشترین قابلیت اجرایی را داشته و به حداقل
محاسبات در این روش نیاز میباشد.
۱٫«مقدمه»:
برای بررسی شبکه عصبیFeed Forward تکلایه با تابع فعالسازی خطی،
مقادیر وزن برای تابع بهMSE حداقل رسیده و میتوان این مقادیر را به
وسیله یک ماتریس شبهمعکوس بدست آورد[۱,۲] . بعلاوه، میتوان اثبات کرد که
سطح MSE این شبکه خطی تابعی درجه دوم میباشد [۳] . بنابراین این سطحمحدب
هایپر پارابولیک( فراسهمیوار) را میتوان به سادگی با روش گرادیان
نزولی (Gradient descent) طی کرد. با این حال، اگر ازتابع فعالسازی غیر خطی
استفاده شود، مینیممهای محلی میتوانند بر مبنای معیارMSE در تابع هدف
دیده شوند[۴-۶].
قسمتی از متن انگلیسی:
Other authors have used the errors before
the nonlinear activation function for the initialization or learning of
multilayer feedforward neural networks [13–۱۷]. However, all these
previous approaches did not also take into account the scaling effects
of the slope of the nonlinear activation functions in the errors
measured before these functions. In this work, a new objective function,
that considers the influence of the slope, and a novel learning method
based on this objective function are presented. In addition, it is
rigorously proved that the solution obtained is approximatively the same
as using the objective function based on the regular mean-squared
error. This fact is showed in Theorem 1. Given that, for each output j,
the weights wji; i ¼ ۰; ۱; … ; I are related only to the output yjs it
is clear that the problem of learning the weights can be separated into J
independent problems (one for each output j). Thus, for notational
simplicity, in what follows only one of these problems (for a fixed j)
will be dealt with.
جهت مشاهده ادامه نمونه متن پارسی این مقاله بر روی متن زیر کلیک نمایید.