پایان نامه با کلید واژه های شبکه عصبی، شبکه های عصبی، سازماندهی

به عقاید پزشکی کنونی پیدا کردند. همچنین گوریونسکیو نشان داد که داده کاوي می تواند با ادغام CAD ( تشخیص با کمک کامپیوتر) و اندوسکوپی اولتراسونوگرافی در شناسایی غیر تهاجمی سرطان به عنوان یک شیوهي جدید به کار رود.
داده کاوي در کنترل عفونت بیمارستانی: در ایالات متحده سالانه 2میلیون نفر به عفونتهاي بیمارستانی مبتلا می شوند، لذا تمرکز زیادي براي شناسایی این بیماران صورت گرفته است. به عنوان مثال در ایالت آلباما نوعی سیستم نظارتی وجود دارد که از تکنیکهاي دادهکاوي استفاده میکند. این سیستم با استفاده از قوانین و روابط داده کاوي بر روي کشت خون بیمار و داده هاي بالینی به دست آمده از سیستم اطلاعات آزمایشگاه8 الگوهاي جدید و جالب توجهی را مشخص می سازد و ماهانه الگوهایی که توسط کارشناسان کنترل عفونت مورد بررسی قرار می گیرد را تهیه می کند. سازندگان این سیستم دریافته اند که ارتقاي کنترل عفونت با سیستم داده کاوي حساستر از سیستم کنترل عفونت سنتی عمل می کند [45-46].
مدلها و الگوريتمهای داده کاوی
شبکه هاي عصبی مصنوعی
شبکههاي عصبی مصنوعی9 که معمولاً به عنوان” شبکه هاي عصبی” نام برده می شوند یک الگوي ریاضی مبنی بر سیستم زیستی است. سیستمهاي عصبی یک الگوریتم براي بهینه سازي و یادگیري آزادانه بر اساس مفاهیم الهام گرفته از تحقیق در ماهیت مغز می باشند. مغز با استفاده از قابلیتی شناخته شده به عنوان نورون اجزاء ساختاري خود را سازماندهی می کند، در نتیجه محاسبات معینی را بسیار سریع تر از کامپیوتر دیجیتال انجام میدهد. در حالت کلی شبکه عصبی ماشینی است که طراحی شده تا روشی مشابه با کاري که مغز براي انجام وظایف خاص یا عملکرد قابل توجه بر اساس مطالعات دکتر سایمون هاسکین انجام می دهد را مدل سازي کند. این شبکه یک پردازنده توزیع شده موازي بزرگ است که از واحد هاي پردازش ساده ساخته شده است، و داراي یک تمایل طبیعی براي ذخیره سازي دانش تجربی و ایجاد دسترسی به آن براي استفاده می باشد [47].
ساختار شبکه عصبی
شکل 3-2 شبکه عصبی که شامل سه لایه ورودی،میانی و خروجی می باشد[47]
لایه ورودي: این لایه وروديهارا دریافت میکند و برحسب قدرت ارتباطش با لایه بعد سیگنال ورودي را به لایه بعد می فرستد.
لایه میانی(لایه پنهان): تعداد لایههاي میانی و تعداد نورون هاي آن دلخواه است. لایههاي میانی باید با دقت انتخاب شوند تا خروجی مناسب را به ما بدهند.
لایه خروجی: گروه دیگري از نورونها نیز از طریق خروجیهاي خود، جهان خارج را می سازند.
معماري شبکه عصبی
یک شبکه عصبی را میتوان به عنوان یک گراف وزن دار جهت دار درنظر گرفت که نورونها به عنوان گرهها و یالهاي جهتدار نشان دهنده ارتباط بین نورون ها هستند. معماري شبکه نورون در سه کلاس طبقه بندي میشود:
شبکه هاي پیش خور تک لایه : یک شبکه نورون لایه لایه شده است که در آن نورونها به شکلی از لایه سازماندهی شدهاند، در این معماري ما شاهد لایهاي ورودي از گرههاي منبع هستیم که به سمت لایه خروجی نورونها انتقال مییابند اما نه بصورت بلعکس. این شبکه به شدت پیش خور یا بدون دور است.
شبکه هاي پیش خور چند لایه : شبکه اي است که داراي یک یا چند لایه پنهان گرههاي محاسباتی مربوطه به نام نورونهاي پنهان می باشد. نقش نورونهاي پنهان به عنوان ارتباط بین ورودي خارجی و شبکه خروجی به شیوهاي مفید است. شبکه هاي برگشتی که حداقل یک حلقه پس خور دارند، این شبکه ممکن است از نورونهاي تک لایه تشکیل شده باشد از هر سیگنال خروجی نورون پس خوري به وروديهاي دیگر نورونها وجود دارد [47].
نحوه محاسبات در شبکه های عصبی به این شکل است که ورودیهای به نورون )x1 تا xi( دروزنهای w1 تا wi ضرب شده و مجموع نتایج حاصل از هر ورودی پس از اعمال در یک تابع،خروجی نورون را تشکیل میدهد:
(3-1)
۰ در بعضی موارد مقدار ثابتی در هر نورون به معادله فوق به نام وزن اریب اضافه می گردد:
(3-2)
شبکه های عصبی مصنوعی، مدلهای مختلفی دارند که با توجه به جهت ورود اطلاعات وشبکه های بازگشتی پردازش آنها به انواع مختلفی از جمله شبکه های عصبی پیش خور، شبکه های چندلایه پرسپترون و شبکههای توابع پایه شعاعی تقسیم می شوند. شبکههای عصبی پیشخور کاربردی ترین نوع شبکههای عصبی مصنوعی در پیش بینی هستند زیرا می توان ثابت کرد که شبکه های عصبی پیشخور با یک الیه پنهان، تابع فعالسازی لجستیک در لایه پنهان، تابع فعالسازی خطی در لایه خروجی و تعداد نورونهای کافی در لایه پنهان، قادرند هر تابعی را با دقت دلخواه تقریب بزنند. در این پایان نامه از شبکه چندلایه پرسپترون که از انواع شبکه های پیشخور هستند جهت پیش بینی مصرف دارو استفاده شده است. معمولاً در شبکههای عصبی کل دادههای موجود را به دو مجموعه آموزشی و آزمایشی تقسیم می کنند. مجموعه آموزشی توسط یادگیری برای تخمین وزنهای شبکه و مجموعه آزمایشی جهت ارزیابی دقت پیش بینی شبکه آموزش دیده، استفاده می شوند.
آموزش شبکه هاي عصبی مصنوعی
یک شبکه عصبی بر خلاف کامپیوترهاي رقمی که نیازمند دستورات کاملاً صریح و مشخص است به مدلهاي ریاضی محض نیاز ندارد بلکه مانند انسان قابلیت یادگیري به وسیله تعدادي مثال مشخص را دارد. یک شبکهي عصبی مصنوعی باید بصورتی پیکربندي شود که از مجموعهاي از وروديها ( چه مستقیم و چه بصورت فرآیندي آرام ) مجموعهاي از خروجی هاي مورد نظر را ایجاد کند. روشهاي مختلفی براي تعیین نقاط قوت اتصال وجود دارد، یکی از این راهها تعیین وزن بصورت مستقیم با استفاده از دانش قبلی است. راه دیگر آموزش شبکه عصبی بوسیله تغذیه با الگوهاي آموزشی و اجازه دادن به آن براي تغییر وزنها بر اساس قوانین آموزشی می باشد [48].
انواع یادگیري در شبکه هاي عصبی مصنوعی
یادگیري نظارت شده روشی است که در آن آموزش شبکه بر اساس دریافت ورودي و تطبیق آن با الگوهاي خروجی انجام گرفته است. این جفت ورودي و خروجی را می توان توسط یک آموزگار خارجی یا سیستمی که شامل شبکه هاي عصبی ( با سرپرست) است را ایجاد کرد. یادگیري نظارت نشده یا (خود سازمان دهنده) در هرواحد خروجی، براي پاسخ به الگوي ورودي آموزش داده شده است. در این نمونه فرض بر این است که ویژگیهاي چشمگیر جمعیت ورودي به صورت ایستا کشف میشود. بر خلاف الگوي یادگیري نظارت شده، با اینکه سیستم باید نمایش خود را از محركهاي ورودي ارائه دهد، مجموعه قابل پیش بینی از الگوهاي قابل دسته بندي براي آن وجود ندارد.
یادگیري تقویتی ممکن است از دو نوع آموزش مذکور (به صورت میانگین) الهام گرفته باشد. در این نوع آموزش، ماشین آموزش فعالیت هایی را بر روي محیط انجام می دهد و بازخورد این فعالیت ها را از محیط دریافت می کند. این سیستم آموزش، بر اساس بازخوردهاي محیط و پارامترهاي آن به فعالیتهاي خود نمره خوب یا بد می دهد [49].
درخت هاي انتخاب
درخت هاي انتخاب راهي براي نمايش يك سري از قوانين كه به يك كلاس يا مقدار منجر مي شود مي باشند. براي مثال شما ممكن است بخواهيد درخواستهاي وام را برحسب ريسك اعتبار خوب يا بد طبقه بندي كنيد. شكل بعد يك مدل ساده از يك درخت انتخاب به همراه توضيح در مورد تمام بسته هاي پايه آن يعني گره انتخاب، شاخه ها و برگهاي آن كه اين مساله را حل مي كند نشان مي دهد.
شکل 3- 3 مثالی از درخت تصمیم[41]
اولين بسته گره بالايي تصميم يا ريشه مي باشد كه يك بررسي جهت برقراري شرط خاصي مي نمايد. گره ريشه در اين مثال”Income$40,000“ مي باشد. نتايج اين بررسي منجر مي شود كه درخت به دوشاخه تقسيم گردد كه هر يك نشان دهنده جوابهاي ممكن است. در اين مورد بررسي شرط مذكور مي تواند داراي جواب خير يا بله باشد در نتيجه دو شاخه داريم .براساس نوع الگوريتم هر گره مي تواند دو يا تعداد بيشتري شاخه داشته باشد. براي مثال CART درختهايي با تنها دوشاخه در هر گره توليد مي كند. چنين درختي يك درخت دودويي مي باشد. مدلهاي مختلف درخت تصميم بطور عمومي در داده كاوي براي كاوش داده و براي استنتاج درخت و قوانين آن كه براي پيش بيني مورد استفاده قرار مي گيرد استفاده مي شوند. يك تعداد از الگوريتمهاي مختلف ميتوانند براي ساخت درختهاي تصميم شامل Quest, CART,CHAID و C5.0 بكارروند. اندازه درخت مي تواند از طريق قوانين متوقف شونده كه رشد درخت را محدود مي كنند كنترل شود [41].
Bagging & Boosting
3-8-3-1- Bagging : (متراکم شدن خودکار) براي بهبود دادن رده بندي توسط ترکيب کردن رده بنديهاي مجموعههاي آموزشي به طور تصادفي توليد شده، ميباشد اين روش يک متا الگوريتم ميباشد که براي بهبود دادن يادگيري ماشين ردهبندي و مدلهاي پسرفتي بر حسب پايداري و دقت ردهبندي ميباشد. اين روش همچنين واريانس را کاهش داده و به دوري از Overfitting کمک ميکند. اگر چه اين روش معمولا در درخت تصميم به کار مي رود اما مي تواند در هر نوع مدل استفاده شود. Bagging يک حالت مخصوص از روند مدل ميانگين ميباشد [50].
يک مجموعه آموزشي استاندارد D به اندازه n را فرض کنيد، بگينگ توسط نمونه گيري به طور يکنواخت و با جايگزيني مثالها از D، m مجموعه آموزشي جديد Di با اندازه nn’  توليد مي شود. نمونه گيري با جايگزيني اين امکان را مي دهد که بعضي از مثال ها امکان تکرار در هرDi را داشته باشند. اگر n = n’ باشد لذا براي n بزرگ ، مجموعه Di انتظار داشتن %63.2 از مثالهاي بيهمتاي D را دارد و بقيه مثال ها تکراري مي باشند. اين نوع نمونهگيري به عنوان نمونه گيري خودراهانداز شناخته ميشود. m مدل براي استفاده کردن m نمونههاي خودکار بالا گنجانيده شده و اين مدلها توسط متوسط گيري خروجي (براي پسرفت) يا راي گيري (براي رده بندي) ترکيب ميشوند.از آنجاييکه اين روش چندين پيشگويي کننده را ميانگين ميگيرد، لذا براي بهبود مثالهاي خطي مفيد نميباشد [51].
3-8-3-1- Boosting : يک متا الگوريتم يادگيري ماشين براي اجراي يادگيري نظارت شده مي باشد. Boosting بر این سوال بنا شده است: آيا يک مجموعه يادگيرندههاي ضعيف ميتواند يک يادگيرنده واحد قوي بسازد؟ يک يادگيرنده ضعيف يک رده بندي کنندهاي تعريف ميشود که فقط اندکي با رده بندي صحيح همبسته است. در حقيقت، يک يادگيرنده قوي يادگيرندهاي است که به طور دلخواهانه همبستهي خوبي با رده بندي صحيح دارند [52].
3-8-3-3-الگوريتمهاي Boosting
تا زمانی که Boosting به صورت الگوريتمي تحميل نشود، اکثر الگوريتمهاي Boosting عبارتند از به طور تکراري ياد گرفتن رده بندي کنندههاي ضعيف نسبت به توزيع و اضافه کردن آنها به ردهبندي کننده قوي نهايي موقعي که آنها اضافه ميشوند، نوعا در بعضي روشهايي وزندهي ميشوند که معمولا با دقت يادگيرنده ضعيف مرتبط است. بعد از اضافه کردن يک يادگيرنده ضعيف، داده دوباره وزن دهي مي شود: مثالهايي که اشتباه ردهبندي شوند وزن بيشتري بدست آورده و مثالهايي که به درستي ردهبندي شوند وزن از دست ميدهند (بعضي الگوريتمهاي Boosting عملا وزن مثالهاي مکررا نادرست رده بندي شده را کاهش مي دهند). بنابراين، يادگيرندههاي ضعيف آينده بيشتر بر مثالهايي تمرکز ميکند که يادگيرندههاي ضعيف قبلي به نادرستي رده بندي کردند [53-54].
تعداد الگوريتمهاي Boosting زيادي وجود دارد. الگوريتمهاي اصيل، انطباق پذير نبودند و نتوانستند فايدهي کاملي از يادگيرندههاي ضعيف بگيرند. فقط الگوريتمهايي که در قاعده يادگيري محتملا تقريبا صحيح الگويتمهاي Boosting قابل اثبات هستند، الگوريتمهاي بوستينگ ميباشند. الگوريتمهاي ديگر که در روح با الگوريتمهاي بوستينگ شبيه هستند گاهي اوقات “الگوريتمهاي اهرمي” ناميده ميشوند، هرچند آنها گاهي اوقات

تکه های دیگری از این پایان نامه را می توانید

در شماره بندی فوق بخوانید

متن کامل پایان نامه ها در سایت homatez.com موجود است

You may also like...

Add a Comment