لینک دانلود و خرید پایین توضیحات
دسته بندی : وورد
نوع فایل : word (..doc) ( قابل ویرایش و آماده پرینت )
تعداد صفحه : 130 صفحه
قسمتی از متن word (..doc) :
2
فصل اول :
1- بیان مسئله
اهمیت پژوهش
هدف پژوهش
بیان فرضیه
تعاریف عملیاتی واژه ها
2
فصل اول :
1- بیان مسئله
اهمیت پژوهش
هدف پژوهش
بیان فرضیه
تعاریف عملیاتی واژه ها
2
بیان مسئله :
آیا بین میزان پرخاشگری در افراد مبتلا به بیماری پرفشاری خون (hyper tension) و افراد عادی تفاوت وجود دارد؟
اهمیت پژوهش :
بیماری پرفشاری خون در طبقه بندیهای متخصصان بهداشت روان ‹‹ICD ›› طبقه بندی بین المللی بیماریهای روانی در دسته بیماریهای روان تنی ‹‹Psy chosomatic ›› قرار دارد. این بیماری همه ساله تعداد زیادی از افراد جامعه را مبتلا ساخته و در صورت عدم تشخیص و درمان مناسب در موارد وخیم می تواند بسیار خطرناک باشد و افراد را در معرض سکته های قلبی و مغزی قرار دهد و حتی ممکن است منجر به مرگ افراد شود. با توجه به اینکه افزایش میزان پرخاشگری و فشارهای عصبی می تواند یکی از عوامل سبب ساز ابتلا به بیماری پرفشاری خون باشد پی بردن به تفاوت میزان پرخاشگری بین افراد مبتلا به بیماری پرفشاری خون و افراد عادی می تواند گام موثری درجهت کمک به افراد مبتلا به بیماری پرفشاری خون در کنترل فشارهای عصبی، خشم و رفتاهای پرخاشگرانه باشد.
هدف پژوهش :
پی بردن به تفاوت میزان پرخاشگری بین افراد مبتلا به بیماری پرفشاری خون و افراد عادی از طریق مقایسه میزان پرخاشگری در افراد مبتلا به این بیماری و افراد عادی هدف اساسی این پژوهش می باشد.
بیان فرضیه :
فرض صفر H = بین میزان پرخاشگری در افراد مبتلا به بیماری پرفشاری خون و افراد عادی تفاوت معناداری وجود ندارد.
فرض خلاف HA = بین میزان پرخاشگری در افراد مبتلا به بیماری پرفشاری خون و افراد عادی تفاوت معناداری وجود دارد.
3
تعاریف عملیاتی واژه ها:
پرخاشگری : حالت، هیجان یا همان چیزی است که به وسیله پرسشنامه AGQ به دست می آید.
پرفشاری خون : همان چیزی است که توسط وسیله فشار خون سنج بدست می آید و درجه آن بالاتر از آن می باشد.
لینک دانلود و خرید پایین توضیحات
دسته بندی : وورد
نوع فایل : word (..doc) ( قابل ویرایش و آماده پرینت )
تعداد صفحه : 18 صفحه
قسمتی از متن word (..doc) :
1
1) روش نلدرمید
در سال 1965 نلدرومید کارایی روش هکس، اسپندلی، هیمسورف را با تعیین
سیمپلکس های بدون قاعده افزایش داده اند.
روش آنها یکی از روشهای کارآمد معمولی و در دسترس بود که اگر تعداد متغیرها فراتر از 5 یا 6 نبود به خوبی کار می کرد. مسئله مینیمم سازی f(x) را در نظر بگیرید. فرض کنید x1 یک تخمین اولیه از x* باشد. و فرض کنید رئوس اولیه سیمپلکس به طوری که : که بردارهایی که متناظر و اسکالرهای براساس فاصله ممکن کمیتهای انتخاب می شوند و یا می توان
(A-1)
که در آن بردارهایی که متناظر و است در سیمپلکس کنونی فرض کنید:
یک راس با بیشترین مقدار تابع باشد.
یک راس با دومین مقدار بعد از بیشترین مقدار تابع باشد.
یک راس با کمترین مقدار تابع باشد.
مرکز ثقل تمام رئوس به جز راس باشد. یعنی:
همچنین فرض کنید و ...
سپس روش پیشنهادی نلدرمید را برای min سازی f(x) به صورت زیر توصیه می کنیم:
1) راس های سیمپلکس اولیه را همانطور که در بالا شرح داده شد انتخاب کنید و مقدار f(x) را برای هر کدام از آن راس ها مشخص کنید.
2
2) بازتاب: بازتاب xh را با استفاده از عامل بازتاب تعیین کنید یعنی را طوری پیدا کنید که
یا
3) اگر پس را با جایگزین کنید و سپس به مرحله 2 بازگردید.
4) انبساط: اگر ، سیمپلکس را با استفاده از عامل بسط بسط دهید یعنی را به صورت زیر پیدا کنید. (شکل 3-3)
یا
الف) اگر باشد را با جایگزین کنید و به مرحله 2 بازگردید.
ب) اگر را با جایگزین کنید و سپس به مرحله 2 بازگردید.
5) انقباض: اگر باشد. سیمپلکس را با استفاده از عامل انقباض منقبض کنید. دو حالت در نظر بگیرید:
الف) اگر (شکل 3. 4) پیدا کنید را چنان که :
3
ب) اگر (شکل 3. 5) پیدا کنید را چنان که :
اگر (5 الف) یا (5 ب) به کار برده شود دوباره دو حالت را بررسی می کنیم:
ج) اگر و باشد را با جایگزین کنید و به مرحله (2) بازگردید.
د) اگر یا اندازه سیمپلکس را با نصف کردن فاصله از کاهش دهید و به مرحله (2) بازگردید.
نلدر و مید، را به ترتیب برای عامل های انقباض وانبساط وبازتاب پیشنهاد می کنند.
یک معیار همگرایی مناسب برای پایان محاسبه وقتی است که انحراف استاندارد از کمتر از مقدار مقرر در نظر گرفته شده باشد یعنی هنگامی که:
که در آن
باکس و دیویس و سوان معیار مطمئن تری پیشنهاد می کنند: بدین ترتیب که S را بعد از هر تعیین مقدار تابع k ، تعیین کنیم که k مقرر شده است. هنگامی که دو مقدار متوالی از s کمتر از شد و مقدارهای متناظر از با کمتر از مقدار مقرر شده تفاوت داشت توقف می کنیم.
4
No
No
No
No
No
No
Yes
Yes
Yes
Yes
Yes
Yes
پایان
آزمون همگرایی
(Xi+ Xl )/2را با Xo جایگزین کنید
Xh را با X0o جایگزین کنید
Xh را با Xo جایگزین کنید
Xh را با Xoo جایگزین کنید
انبساط: xoo+y(xc-xc) اگرxoo بیرون دامنه قرار گرفت آن را روی کرانها قرار دهید.
yh را با y0 جایگزین کنید
انقباض: xoo=xc+B(xc-xc)
بازتاب: xo+a(xc-xh) اگر xo بیرون دامنه قرار گرفت آن را روی کرانها قرار دهید.
تعیینxi وxs وxc و مقدارهای yi وyh وys
سیمپلکس اولیه
لینک دانلود و خرید پایین توضیحات
دسته بندی : وورد
نوع فایل : word (..docx) ( قابل ویرایش و آماده پرینت )
تعداد صفحه : 16 صفحه
قسمتی از متن word (..docx) :
Dec. 28
Feature Extraction
2
1) چکیده:
در این تمرین روش های استخراج ویژگی و روش های خطی و غیر خطی دسته بندی را مورد مطالعه قرار میدهیم. در ابتدا روش های مختلف استخراج ویژگی که از آن جمله PCA، LDA، روش قاب بندی و چند روش دیگر هستند را و سپس برای ویژگی های استخراج شده از روش های دسته بندی خطی بیزین و SVM خطی و سپس روش های غیرخطی RBF ، MLP و همچنین SVM غیرخطی برای دسته بندی استفاده شده است. بسته به روش شناسایی بکار گرفته شده، معمولا ویژگی های متفاوتی از دنباله نقاط استخراج می شود. در اکثر روش های موجود استخراج ویژگی، ویژگی ها از روی مختصات نقاط نمونه برداری شده ورودی استخراج می شوند. از مجموعه ی ویژگی های استخراج شده معمولاً تعدادی مفید تر و موثرترند. ما برای تشخیص و انتخاب ویژگی های تاثیرگذارتر از یک الگوریتم ژنتیک استفاده کرده ایم. اما پس از استخراج و انتخاب ویژگی ها نوبت به دسته بندی می رسد. در ابتدا از چند دسته بند خطی استفاده کرده ایم. به راحتی میتوان نشان داد که ناحیههای تصمیمگیری یک ماشین خطی محدودند و این محدودیت انعطافپذیری و دقت دستهبند را کاهش میدهد. مسایل بسیاری وجود دارد که توابع جداساز خطی برای داشتن حداقل خطا در آنها کافی نیستند. علاوه بر این مرزهای تصمیمگیری که کلاسها را از یکدیگر تفکیک میکنند ممکن است همیشه خطی نباشند و پیچیدگی مرزها گاهی اوقات نیاز به استفاده از سطحهای کاملاً غیر خطی را دارند. بنابراین در ادامه ی کار از چند دسته بند غیرخطی نیز استفاده نمودیم. در استفاده از شبکههای عصبی چندلایه، شکل غیر خطی بودن از مجموعهی آموزش فرا گرفته میشود. در روشهای RBF و SVM غیرخطی مشکل اصلی انتخاب توابع هسته غیر خطی مناسب است.
2) مقدمه
اولین الگوریتم دستهبندی در سال 1936 توسط Fisher ارایه شد و معیارهای آن برای بهینه بودن، کم کردن خطای دستهبندی کنندههای الگوهای آموزشی بود. بسیاری از استراتژیهای موجود نیز از همین روش پیروی میکنند. در سادهترین شکل ممکن، دسته بندهای خطی میتوانند دو دستهی متفاوت را تفکیک کنند. با توجه به این موضوع مسالهای را جداییپذیر خطی مینامند که با یک ابرصفحه بتوان محدودهی تصمیم را به دو گروه تقسیمبندی کرد. در عمل میتوان دسته بندهای خطیای را طراحی کرد که بیش از دو گروه را از هم تفکیک کنند. این عمل را با تنظیم محدودههای تصمیم متعدد و آزمونهای چندگانه بر اساس شرایط موجود میتوان انجام داد. ما در این مساله یک دسته بندی با 26 کلاس را داریم.
در روش بیزین احتمال شرطی تعلق بررسی میشود. به این ترتیب که الگوی مورد نظر به دستهای تخصیص داده میشود که احتمال شرطی تعلق بردار مشخصهی الگو به آن دسته ازتمام دستههای دیگر بیشتر باشد. روش بیزین به طور کلی می تواند برای کارایی بسیار مطلوب بهینه شوند. این روش مزایای دیگری نیز دارد که استفادهی از آن را توجیه میکند. این روش میتواند با چند فرض ساده در مورد دادهها کاملاً به شکل روشهای سادهی خطی عمل کند، به علاوه این کار میتواند به
Dec. 28
Feature Extraction
2
گونهای انجام شود که در پایان، مدل قطعی بدون هیچ گونه رجوع به آمار به دست آید. در روش بیزین مشکل کار تعریف احتمالات شرطی مورد نظر قاعدهی بیز است.
یک محقق روسی به نام Vladimir Vapnik در سال 1965 گام مهمی در طراحی دستهبندها برداشت [1] و نظریهی آماری یادگیری را بصورت مستحکمتری بنا نهاد و ماشین بردار پشتیبان را ارایه کرد. ماشینهای بردار پشتیبان در دو حالت جداییپذیر و جداییناپذیر برای دستهبندی الگوهای یک مسالهی چندکلاسه از چند مرز جداکنندهی خطی یا ابرصفحه استفاده میکنند و در واقع حاصلضرب داخلی بردار ورودی با هر یک از بردارهای پشتیبان در فضای d بعدی ورودی محاسبه میشود. Vapnik نشان داد که میتوان بردار ورودی را با یک تبدیل غیرخطی به یک فضای با بعد زیاد انتقال داد و در آن فضا حاصلضرب داخلی را بدست آورد که با این شرایط هستهی مفیدی را خواهیم داشت.
روش RBF یک دستهبندی و تقریبساز تابعی الگوست و شامل دو لایه میباشد که نرونهای خروجی ترکیبی خطی از توابع پایهای را به وجود میآورند که توسط نرونهای لایهی پنهان محاسبه شدهاند. زمانی که ورودی در ناحیهی تعیین شدهی کوچک از فضای ورودی قرار گیرد، توابع اساسی(غیر خطی) در لایهی پنهان، پاسخ غیر صفری به محرک ورودی میدهند. همچنین این مدل به عنوان یک شبکهی دریافتکنندهی ناحیهای شناخته شده است. ما در روش RBF از معمولترین تابع هستهی غیر خطی یعنی سیگموئید استفاده کردهایم.
به طور کلی شبکههای پرسپترون چندلایه شامل چندین پرسپترون ساده هستند که به طور ساختار سلسلهمراتبی، یک شکل پیشخورد با یک و یا چند لایهی میانی (لایههای پنهان) بین لایههای ورودی و خروجی را شکل میدهد. تعداد لایهی پنهان و تعداد نرونهای هر لایه ثابت نیستند. هر لایه ممکن است از نرونهای مختلفی تشکیل شده باشد که این موضوع به کار آنها بستگی دارد. الگوریتمهای آموزشی متفاوتی در روش چند لایه استفاده میشوند.
3) روشهای به کار رفته در این گزارش
در این قسمت روشهای استخراج ویژگی، روشهای انتخاب ویژگی ها جهت بهینه کردن آنها و کم کردن ابعاد مساله با کاهش تعداد آنها و روشهای دستهبندی (خطی و غیرخطی) به کار رفته بررسی شدهاند.
3-1) روشهای استخراج ویژگی
در این قسمت انواع روشهای استخراج ویژگی ها ذکر شده است. ذکر این نکته لازم است که برخی الگوریتم های استخراج برای انتخاب ویژگی های موثر نیز استفاده می شوند ازجمله ی آنها PCA و LDA هستند. اما در این گزارش ما برای بهینه کردن ویژگی ها و کم کردن تعداد آنها و یا به عبارت دیگر برای کاهش ابعاد (Curse of Dimensionality) از الگوریتم ژنتیک استفاده نموده ایم.
Dec. 28
Feature Extraction
4
3-1-1) روش PCA خطی
روشهای استخراج ویژگی یک زیرفضای مناسب m بعدی در فضای اصلی ویژگی ها از d بعد را تعیین می کنند(m
از آجا که PCA یک روش بدون بررسی استخراج ویژگی هاست (Unsupervised)، تحلیل جداسازی از یک اطلاعات گروهی در رابطه با هر الگو برای استخراج (خطی) ویژگی های با قابلیت جداسازی زیاد استفاده می کند. در LDA جداسازی بین کلاسی با جابجایی کل ماتریس کوواریانس در PCA با یک معیار جداسازی عمومی مانند معیار Fisher تائید می شود که در یافتن بردارهای مشخصه sw-1sb نتیجه می شود.( حاصل معکوس ماتریس پراکندگی sw و ماتریس پراکندگی بین کلاسی sb ). معیار دیگر همراه با بررسی (Supervised) برای چگالی های شرایط کلاس غیرگاوسی بر پایه ی فاصله Patrick-Fisher با استفاده از برآورد چگالی Parzen است.
3-1-2) روش Kernel PCA (PCA با هسته یا PCA غیرخطی)
چندین روش برای تعریف روش های استخراج ویژگی غیرخطی وجود دارد. یکی از این روش ها که مستقیماً به PCA مربوط است، Kernel PCA نام دارد. ایده ی اصلی KPCA نگاشتن داده های ورودی بر روی برخی از فضاهای ویژگی F جدید بطور معمولی با استفاده از تابع غیرخطی ∅ و سپس اعمال یک PCA خطی در فضای نگاشت شده است. به هر حال فضایF معمولاً ابعاد بسیار زیادی دارد. برای دوری از محاسبات نگاشت ساده ی ∅، KPCA تنها هسته های Mercel که می توانند به یک نقطه تجزیه شوند را بکار می گیرد.
kx,y=∅x.∅(y)
به عنوان یک نتیجه فضای هسته یک متریک با تعریف مناسب دارد. نمونه های هسته های Mercer شامل چندجمله ای های مرتبه P بصورت
Dec. 28
Feature Extraction
5
(x-y)p و هسته گاوسی هستند.
e-x-y2c
فرض می کنیم که X یک ماتریس الگوی n×d نرمال شده با میانگین صفر است و ∅x یک ماتریس الگو در فضای F باشد. PCA خطی در فضای F بردارهای مشخصه ی ماتریس همبستگی ∅x.∅(y)T را حل می کند که همچنین ماتریس هسته K(X,X) نیز نامیده می شود. در KPCA در ابتدا m بردار ویژگی از K(X,X) بدست می آیند تا یک ماتریس انتقال E را تعریف کنند (E یک ماتریس n×m است که m تعداد ویژگی های دلخواه است و m
3-1-3) روش مقیاس گذاری چندبعدی(MDS)
مقیاس گذاری چند بعدی (MDS)یک روش غیرخطی دیگر برای استخراج ویژگی هاست. هدف این روش بازنمایی یک مجموعه ی چندبعدی در دو یا سه بعد است مثل آنچه ماتریس فاصله در فضای اصلی ویژگی های d بعدی به طور کاملاً ثابت در فضای تصویرشده باقی مانده است. توابع تاکید فراوانی برای اندازه گیری کارایی این نگاشت استفاده شده اند. یک مشکل MDS این است که یک تابع نگاشت ساده و روشن را ارئه نمی کند بنابراین ممکن نیست که یک الگوی جدید را در یک نگاشت برای یک مجموعه ی آموزش مشخص بدون تکرار جایگذاری کند. چندین روش برای عنوان کردن این نقص که از درون یابی خطی تا آموزش شبکه عصبی محدود است مورد بررسی قرار گرفته است. همچنین امکان دارد که الگوریتم MDS مجدداً تعریف شود بنابراین مستقیماً یک نگاشت را تهیه می کند که ممکن است برای الگوهای آزمون جدید استفاده شود.
3-1-4) روش شبکه عصبی روبه جلو (Feed-Forward Neural Network)
یک شبکه ی عصبی روبه جلو یک روال جامع را برای استخراج ویژگی هاو دسته بندی پیشنهاد می کند. خروجی هر لایه ی مخفی ممکن است به عنوان یک مجموعه ی جدید و اغلب غیرخطی از ویژگی ها تعریف شود که در لایه ی مخفی برای دسته بندی ارائه می شوند. در این شرایط شبکه های استفاده شده توسط Fukushima و Lecun که اصطلاحاً آن را لایه های وزنی مشترک نامیده اند، در حقیقت فیلترهایی برای استخراج ویژگی ها در تصاویر دوبعدی هستند. در طول آموزش فیلترها با داده ها برای بیشینه کردن کارایی دسته بندی وفق داده شده اند.
شبکه های عصبی می توانند بطور مستقیم برای استخراج ویژگی ها در یک شکل بدون بررسی (
لینک دانلود و خرید پایین توضیحات
دسته بندی : پاورپوینت
نوع فایل : powerpoint (..ppt) ( قابل ویرایش و آماده پرینت )
تعداد اسلاید : 50 اسلاید
قسمتی از متن powerpoint (..ppt) :
به نام خدا
پاسخگویی اجتماعی در تمامی فعالیتهای آموزش پژوهش و ارایه خدمات گروه پزشکی
به سمت مرتفع نمودن نیازهای سلامتی جامعه هدف
قدرت پاسخگویی سازمان در برابر فشارها و انتظارات جامعه
HX OF AR
بیش از 65 سال قدمت
اولین بار توسط Kurt Lewin، روانشناس اجتماعی که دیدگاه و نظراتش در حوزههای مشاوره، بهسازی کارکنان، پویایی گروه و رهبری سازمانی بسیار تاثیرگذار بود، مطرح گردید ( (Guiffrida,2011
1947 : یک فرآیند مارپیچ حاوی
بررسی و شناسایی اولیه، اقدام و جمعآوری اطلاعات
درباره نتایج اقدام توصیف کرد.
HX OF AR
1953 Stephen corey آن را فرآیندی توصیف کرد که شاغلین در یک حوزه به منظور هدایت، تصحیح و ارزشیابی اقدامات و تصمیمهایشان، مشکلات خود را به روش علمی مورد بررسی قرار میدهند؛
Robert Rappaport 1970 مفهوم اخلاق را افزود؛
1983 Stephen Kemmis : اقدامپژوهی شکلی از یک تحقیق Self reflection است که توسط شاغلین یک حیطه اجتماعی به منظور ارتقا عدالت و عقلانیت در عملکرد حرفهایشان، و درک بهتر از وظایف و موقعیتهای کاری و حرفهای انجام میشود.
اقدامپژوهی
community based participatory action research
practitioner research شاغلپژوهی،
participatory action research اقدامپژوهی مشارکتی
action science علم عملی
emancipatory praxis
cooperative inquiry بررسی توام با همکاری
feminist action research ( Guiffrida, etal, 2011)
research in practice پژوهش در عمل
practical research پژوهش کاربردی
practical action research اقدامپژوهی کاربردی ) Davidson , 2009 )
لینک دانلود و خرید پایین توضیحات
دسته بندی : پاورپوینت
نوع فایل : powerpoint (..ppt) ( قابل ویرایش و آماده پرینت )
تعداد اسلاید : 12 اسلاید
قسمتی از متن powerpoint (..ppt) :
بنام خدا
21 روش غلبه بر تنبلی و انجام بیش ترین کاردر کمترین زمان
در این جا خلاصه ای از بیست و یک روش فوق العاده برای غلبه بر تنبلی وا نجام کاربیش تر در زمان کمتر را می خوانید. این اصول و قواعد را مدام مرور کنید تا عمیقا ً در ذهن و عملتان ریشه بدواند و در نتیجه موفقیت آینده تان تضمین شود.
هدف هایتان را بنویسید
دقیقاً تصمیم بگیرید که چه می خواهید . روشن بودن در این مورد یک شرایط اساسی است . پیش از شروع کار ،هدف ها و تصمیم هایتان را بنویسید.
برای هر روز از قبل برنامه ریزی کنید
برنامه هایتان را روی کاغذ بیاورید . به ازای هر دقیقه ای که صرف برنامه ریزی می کنید، به هنگام اجرای آن پنج یا شش دقیقه در وقت خود صرفه جویی خواهید کرد.
قانون 20/80 را در همۀ امور به کار بگیرید
80 درصد از دستاوردهایتان نتیجۀ 20 درصد از فعالیت شماست. همواره تلاش خود را روی این 20 درصد متمرکز کنید.
پیامد کار را در نظر داشته باشید
مهم ترین و ضروری ترین کارهای شما آن هایی هستند که می توانند بیش ترین تأثیر را چه مثبت و چه منفی روی کار و زندگی شما بگذارند.به جای تمرکز روی سایر کارها ،تمام توجهتان را معطوف به این نوع کارها کنید.