دانشکده - دانشکده فنی و مهندسی
استادیار
تاریخ بهروزرسانی: 1403/10/01
مرتضی یوسف صنعتی
مهندسی / مهندسی کامپیوتر
پایاننامههای کارشناسیارشد
-
استفاده از خوشه بندی در جریان لاگ به منظور تشخیص ناهنجاری های سیستم
1402چکیده: امروزه علم داده کاوی بستری فراهم کرده است تا بتوان با به کارگیری فناوری های جدیدی مانند هوش مصنوعی و یادگیری ماشین، به تجزیه وتحلیل و استخراج مفاهیم نهفته در داده ها پرداخت و از آنها برای کارهای مختلف و مهم استفاده کرد. داده کاوی علم استخراج الگوها، اطلاعات و تحلیل از مجموعه داده های خامی است که در یک سازمان یا در هر مجموعه دیگری تولید شده است. این داده ها با سرعت بالایی تولید می شوند که گاهی اوقات جریانی از داده ها را تشکیل می دهند. جریان داده انتقال مداوم داده ها با سرعت ثابت و بالا است. در برخی موارد سیستم های اطلاعاتی، جریانی از لاگ را تولید می کنند. یک لاگ منبع غنی اطلاعاتی برای تشخیص و پیش بینی خطاها یا رفتارهای ناهنجار موجود در سیستم ها است که شامل تمامی رویداد ها، اتفاقات و خطاها در اجرای یک نرم افزار یا سیستم عامل است. این خطاها را می توان از طریق تجزیه وتحلیل لاگ ها با استفاده از الگوریتم های کلان داده کشف کرد. یکی از روش ها برای تجزیه وتحلیل داده های جریانی و تشخیص ناهنجاری ها، الگوریتم خوشه بندی است. هدف از خوشه بندی داده ها، افراز مجموعه ای از اشیا به گروه های مجزا است که یکی از این الگوریتم های خوشه بندی جریان داده، الگوریتم AutoCloud است. AutoCloud یک الگوریتم آنلاین و تک مرحله ای بازگشتی برای خوشه بندی جریان داده ها بر مبنای فاصله اقلیدسی است. این الگوریتم بر اساس مفهوم تجزیه وتحلیل داده Typicality و Eccentricity شکل گرفته است که عمدتاً برای کارهای تشخیص ناهنجاری استفاده می شود. همچنین AutoCloud قادر به مدیریت کردن مشکلات ذاتی در جریان داده ها مانند رانش مفهوم و تکامل مفهوم است. ولی باتوجه به این که دقت انجام عمل در AutoCloud در مورد اکثر مجموعه-داده ها خیلی مناسب نیست، به نظر می رسد که استفاده از انواع فاصله های دیگر، مناسب تر باشد و با افزودن روش هایی به AutoCloud، دقت بهبود یابد؛ بنابراین در این پژوهش سعی شده است با پیاده سازی چند ایده، بررسی شود که آیا با تغییر دادن AutoCloudمی توان منجر به بهبود آن شد یا خیر. ایده اول، استفاده از فاصله ماهالانوبیسی برای این الگوریتم است. نتایج نشان می دهد که اگر AutoCloud بر مبنای فاصله اقلیدسی باشد، بهتر از فاصله ماهالانوبیسی عمل می کند. به همین دلیل استفاده از فاصله ماهالانوبیسی در AutoCloud خیلی موثر ن
-
تحلیل کلان داده ها برای پیش بینی بیماری عفونی
1401امروزه پیشبینی سلامت در زندگی مدرن به دلیل حجم گسترده، تنوع و به روزرسانی مداوم دادههای پزشکی امری بسیار ضروری است که تجزیه و تحلیل کلاندادهها فرصتهای جدیدی را برای بهبود بخشیدن به مراقبتهای بهداشتی، پیشبینی وضعیت سلامت، بهینهسازی منابع و کارآیی سازمانها در بخش بهداشت ارائه میدهد که برای این منظور، ما به چارچوبهای پیشرفته تحلیلی نیاز داریم تا دادهها را ذخیره، فیلتر و تجزیه و تحلیل کنیم تا بتوانیم تصمیمگیری سریع و بموقع انجام دهیم. با ذخیره و ثبت معاینه و ویزیتهای بیماران و مراجعهکنندگان به مراکز درمانی، حجم اطلاعاتی که جمعآوری میشود رو به رشد است بنابراین تجزیه و تحلیل درست و بموقع از میزان دادههای تولید شده در سلامتی میتواند به پیشبینی بیماری منجر شود که این امر موجب نجات جان انسانها میشود و از آنجا که بیماریهای عفونی در زمره شایعترین علل مرگ و میر قرار دارد پیشبینی زود هنگام با استفاده از تحلیل کلاندادهها میتواند از شیوع بعضی از بیماریها جلوگیری نموده و بعضا در مورد یک بیماری خاص میتوان به طور زودهنگام بیماری را تشخیص و درمان آن را شروع نمود که به تبع آن در هزینههای درمان صرفهجویی بسیار زیادی خواهد شد. در این پژوهش از طبقهبندی جنگل تصادفی در یادگیری ماشین که یک روش متداول مجموعه درختی است و کلانداده را به خوبی مدیریت میکند؛ استفاده شده است. با این حال، اجرای جنگل تصادفی در MLlib برای آموزش مدلهای درخت تصمیم عمیق، که برای دستیابی به عملکرد پیشبینی خوب در دادههای ما مورد نیاز است، بسیار ناکارآمد است. براین اساس ما بر بهبود عملکرد آموزش جنگل تصادفی در کتابخانه MLlib از اسپارک تمرکز می کنیم. سپس از این مدل برای کار در زمان واقعی برای طبقهبندی توییت به عنوان اینکه فرد دارای بیماری هپاتیت است یا خیر، استفاده شده است. در این روش پیشنهادی، سیستم پیشبینیکننده بیماری هپاتیت در زمان واقعی حاوی سه بخش اصلی: ساخت مدل در زمان آفلاین، روش پردازش جاری و پیشبینی آنلاین است. این سیستم براساس تلفیق چارچوبهای کلانداده مانند: آپاچی اسپارک و کافکا توسعه یافت.
-
طراحی یک سناریو جدید برای توسعه یک قرارداد هوشمند پانزی
1401فناوری بلاکچین یک بستر نامحدود و قابل اعتماد است که برخی از عملیات تراکنشپذیر مانند نقل و انتقالات پول در آن قابل ثبت میباشد. ساختار این فناوری به صورت زنجیرهای متصل از بلاکهای شاملِ اطلاعاتِ تراکنشهای مذکور است. هر حلقه از این زنجیر، درهم سازی اطلاعاتِ بلاک(زنجیر) قبلی را در خود نگهداری میکند. یکی از خصوصیات این فناوری توزیعشدگی یا عدم تمرکز و مالکیت آن توسط افراد یا سازمانها میباشد و با پروژههای خود مخصوصا ارزهای دیجیتال شهرت یافته است. یکی از پروژهها یا ارز دیجیتال معروف این حوزه، پروژه اتریوم است. در میان ویژگیهای مختلف اتریوم، یکی از ویژگیهای مطلوب آن، امکان کد نویسی و توسعه قرارداد هوشمند همراه با بارگزاری برروی شبکه بلاکچین است که در این ویژگی پیشرو نیز میباشد. به طور کلی قراردادهای هوشمند را میتوان بهنحوی مشابه قراردادهای سنتی در نظر گرفت با این تفاوت که قرارداد هوشمند کد نویسی شده تا شرایط قرارداد را بهطور هوشمند و با حذف واسطهای موجود در قراردادهای سنتی با دقت و سرعت بالا انجام دهد. قراردادهای هوشمند با دو زبان برنامه نویسی سالیدیتی و وایپر قابل توسعه میباشند. در حال حاضر قراردادهای هوشمند، در زمینههای مالی مانند تجارت و معاملات کاربرد بیشتری دارند؛ از طرفی در زمینههای مالی همانطور که از گذشته کلاهبرداریهایی صورت میگرفته است، در این فناوری و قراردادهای هوشمند نیز مواردی وجود داشته که همچنان کاربران را به دام خود میاندازند. برخی از مشهورترین کلاهبرداریها در قراردادهای هوشمند عبارتاند از: 6)پانزیها 8)فیشینگ 2)هانیپاتها. در این پژوهش ضمن بررسی کامل هر کدام از این کلاهبرداریها همراه با نمونه کد مرتبط یا الگوی مرسوم در دسته آنها، در نهایت سناریو جدیدی در دسته پانزیها توسعه داده میشود. در کنار توضیح کامل سناریو، تفاوت آن با سایر الگوهای این دسته آورده شده است. بهطور خلاصه در توضیح این سناریو میتوان اینطور در نظر گرفت، که با داشتن آشنایی تقریبی با زبان برنامه نویسی سالیدیتی، قراردادهای پانزی توسعه دادهشده توسط این زبان به آسانی قابل شناسایی بوده ولی در این سناریو تشخیص پانزی و کلاهبرداری در ظاهر کد نامشخص است و همچنین عملکرد قرارداد کاملا متفاوت خواهد بود. لازم به ذکر است پیش فرض متن باز بودن قراردادها در نظر گرفته شده است.
-
تنظیم و نظارت بر توافق سطح سرویس با استفاده از قراردادهای هوشمند در بلاکچین
1400امروزه با توجه به گسترش استفاده از سرویسهای ابری محققین بسیاری بر روی حل چالشهای موجود در این زمینه تمرکز کردهاند. یکی از مهمترین این چالشها ایجاد توافق سطح خدمات و نظارت بر سرویس ابری بر اساس توافق انجام شده، است. محققان برای رفع مشکلات ذکر شده چهارچوبهای متفاوتی را پیشنهاد نمودهاند ولی با این حال هنوز مشکل مربوط به تبانی یکی از طرفین در خصوص نقض موارد مندرج در توافقنامه با ناظر توافقنامه بهطور کامل رفع نگردیده است. از این رو استفاده از فناوریهایی که بتواند امکان تبانی طرفین با ناظر را از بین ببرد بسیار حائز اهمیت است. بنابراین محققان کوشیدهاند تا با استفاده از نرمافزارهای توزیع شدهی مبتنی بر شبکههای بلاک چینی تا حدی این مشکلات را رفع نمایند. البته لازم به ذکر است هنوز نیز به دلیل محدودیتهای موجود در بلاک چین این امر بهطور کامل محقق نگردیده است. یکی از محدودیتهای موجود در راه حلهای مبتنی بر شبکهی بلاک چین محدودیت حجم کد قابل اجرا بر روی گرههای شبکه است که در اینصورت امکان نظارت بر تمام موارد مندرج در توافقنامه را منتفی مینماید. در این پژوهش با استفاده از استاندارد دایموند EIP2535 امکانی فراهم شده است که بتوان تمام موارد مندرج در توافقنامه را نیز بدون داشتن دغدغه در خصوص حجم کد نظارت نمود. در این پژوهش علاوه بر تلاش برای رفع محدودیت مذکور راهکاری در جهت استفادهی هرچه بیشتر چنین نرمافزارهای نظارتی مبتنی بر شبکهی بلاک چین را برای دنیای واقع ارائه شده است که به مشکل پرداخت هزینهی سرویس به فراهم کننده میپردازد. ایدهی معرفی شده از آنجا نشات میگیرد که در تمامی پژوهشهای انجام شده در این زمینه هزینهی سرویس ابری موردنظر مشتری تا انتهای استفاده از خدمات در شبکه نگهداری شده و پس از حصول اطمینان در خصوص عدم نقض توافقنامه هزینه به فراهم کننده پرداخت میشود. چنین امری باعث میشود تا امکان استفاده از اینگونه نرمافزارها در عالم واقع محدود شود زیرا فراهم کنندگان باید زمان زیادی را برای دریافت هزینه خود صبر کنند. در این پژوهش با استفاده از ایده رتبهبندی فراهم کنندگان سرویسها و تخصیص امتیاز به آنها بر اساس سابقهی خدماتشان راهکاری ارائه شده است تا بخشی از هزینههای سرویس قبل از اتمام قرارداد به فراهم کننده پرداخت گردد. این راهکارها در یک مسئلهی مربوط به فروش سرویسهای زیرساختی پیادهسازی شد
-
کاهش تاخیر در اینترنت اشیا از طریق تبادل وظایف در مه های خوشه بندی شده
1400ظهور مفاهیم رایانش مه و لبه در اینترنت اشیا باعث کاهش فاصله ی میان حسگرها و منابع پردازشی شده که نتیجه ی آن کاهش تاخیر پاسخگویی و استفاده ی مفید از پهنای باند شبکه است. به کمک مفاهیم رایانش مه می توان بسیاری از پردازشها را نزدیک به گره های پایانی انجام داد و از ارسال حجم زیاد درخواست های ارسالی از محیط اینترنت اشیا به سمت محیط ابری جلوگیری کرد. یکی از چالش های اصلی در این حوزه، نحوه ی مدیریت منابع گره های مه است. در این پژوهش برای کاهش تاخیر، به دنبال ارائه ی روشی مبتنی بر عملیات خوشه بندی جهت توزیع درخواستها در محیط مه هستیم. در یکی از الگوریتمهای بهینه ی موجود، در صورتی که گره مه مقصد درخواست، دارای منابع لازم برای پردازش نباشد، با برقراری ارتباط با دیگر گره های مه موجود در سیستم، گره هایی که توانایی پردازش درخواست مورد نظر را دارند شناسایی کرده و درخواست برای پاسخدهی به گره مه دارای کمترین میزان تاخیر فرستاده میشود. پس از انجام محاسبات لازم برای درخواست مورد نظر، پاسخ از طریق گره مه مقصد به سمت محیط اینترنت اشیا ارسال میشود. در این حالت در صورت گستردگی شبکه، مستلزم صرف زمان برای استعلام از تک تک گره های موجود و محاسبه ی گزینه ی بهینه هستیم. در این پایان نامه برای پوشش برخی از معایب و محدودیتهای راهکارهای ارائه شده برای بهبود روش ارتباطی مه با مه، سازوکاری با هدف کاهش تاخیر پاسخگویی به درخواستها با استفاده از خوشه بندی مه های موجود در سیستم ارائه شده است. در این روش با خوشه بندی گره ها و انتخاب گره مه دارای بیشترین منابع ذخیره سازی و محاسباتی به عنوان سرخوشه، به دنبال کاهش این سربار زمانی هستیم. به این صورت که اگر گره مه مقصد درخواست، دارای منابع لازم برای پردازش نباشد، با دیگر گره های سرخوشه ی موجود در سیستم که توانایی پردازش درخواست مورد نظر را دارند، ارتباط برقرار میکند. پس از استعلام و محاسبه ی زمان مورد نیاز برای پردازش و انتقال نتیجه، درخواست برای پاسخدهی به گره سرخوشه با کمترین میزان تاخیر فرستاده میشود و پاسخ حاصل از پردازش درخواست، از طریق گره مه مقصد درخواست به سمت محیط اینترنت اشیا ارسال میشود. آزمایشات نشان می دهد که روش ارائه شده نتایج بهتری نسبت به روش پایه از نظر تاخیر پاسخگویی دارد و مدل پیشنهادی منجر به کاهش 5 درصدی این تاخیر در محیط اینترنت اشیا
-
استخراج ابعاد رضایت مشتری و تحلیل احساسات وی با استفاده از نظرات ثبت شده در سایت دیجی کالا از طریق متن کاوی
1400در دنیای امروز که رقابت شدیدی در همه ی حوزه ها برقرار است، هر سازمانی که قصد ربودن گوی سبقت را از رقبای خود دارد باید به دقیق ترین نحو ممکن خواسته های مشتریانش را بشنود و عملی بکند. اهمیت روزافزون تجزیه وتحلیل احساسات، هم زمان با رشد رسانه های اجتماعی منطبق شده است. روش های داده کاوی می تواند برای تحلیل داده ها و آشکار کردن قواعد و پیوندهای ناشناخته استفاده شود. بنابراین با استفاده از تکنیک های موجود و ایجاد ارتباط میان حوزه متن کاوی با حوزه مدیریت، به تحلیل متن فارسی و استخراج ابعاد رضایت مشتری و تحلیل احساسات در سایت های خرده فروشی (دیجی کالا) پرداخته ایم که در نهایت منجر به استخراج 38 بعد رضایت و ساخته شدن واژه نامه احساسات مختص به سایت دیجی کالا و خرده فروشی آنلاین با دقت 75.05 درصدی شده است. در این پژوهش برای استخراج موضوع های پرتکرار بحث شده در مجموعه داده ها، از روش تخصیص پنهان دیریکله (الگوریتم LDA) استفاده شده است. همچنین در امر تحلیل احساسات اقدام به ساخت واژه نامه احساسات نمودیم که در انتها واژه نامه ای شامل 862 صفت و قید پرتکرار به کار رفته در نظرات ثبت شده تولید شد که به صورت اختصاصی برای نظرات ثبت شده در سایت دیجی کالا و سایر خرده فروشی های آنلاین قابل استفاده می باشد. پژوهش کاربردی و از نوع ترکیبی( کیفی- کمی ) است. برای تحلیل متن از مجموعه داده های پلتفورم دیجی کالا نکست که در اختیار عام قرار گرفته، استفاده شده است.
-
طبقه بندی نیمه نظارتی ریزخوشه محور جریان داده
1400در عصر حاضر، داده ها با سرعت و حجم بسیار زیادی به صورت بدون توقف و به شکل جریان داده در حال تولید هستند. یکی از روشهای کاربردی در کار با جریانداده، طبقه جریان ورودی است. از این رو در سالهای اخیر روشهای زیادی برای طبقهبندی جریانداده ارایٔه شده است. روشهای موجود را از نقطهنظرهای مختلفی میتوان مورد بررسی قرار داده و در دستهبندهای مختلفی قرار داد. در نخستین دید بررسی و دستهبندی روشهای موجود بر اساس نوع الگوریتم یادگیری میباشد. در روشهای طبقهبندی نظارتی جریانداده، جهت بهروزرسانی الگوریتم نیاز به دسترسی به برچسب واقعی هر نمونه ورودی بعد از عمل طبقهبندی میباشد درحالیکه در دنیای واقعی دسترسی به برچسب واقعی دادهها امری زمانبر و دشوار است. از این روی روشهای یادگیری نیمهنظارتی، عملکرد بهتری در کاربردهای دنیای واقعی ارایٔه میدهند. در دید دیگر دستهبندی روشهای موجود براساس روش طبقهبند پایه میباشد، استفاده از طبقهبند KNN به همراه استفاده از روشهای مبتنی بر ریزخوشه جهت ایجاد مرز تصمیمگیری به همراه خلاصهسازی دادهها یکی از روشهای ساده و در عین حال کارآمد در طبقهبندی جریانداده میباشد. از سویی در دنیای واقعی، چالش اصلی ارایٔه دقت کافی با حفظ سرعت و حافظه اجرایی مناسب است. در روش پیشنهادی با اعمال رویکرد بسته محور به همراه استفاده از معیارهای مبتنی بر چگالی و استفاده از روش مبتنی بر خطا مرتبه زمانی روش پایه از مرتبه )𝑛2(𝑂 به مرتبه زمانی ))𝑛(𝑔𝑜𝑙.𝑛(𝑂 کاهش پیدا نمود. نتایج آزمایش مجموعهدادههای دنیای واقعی حاکی از بهبود 47 درصدی زمان اجرایی روش پیشنهادی نسبت به روش پایه خویش دارد. میزان تغییرات دقت خروجی چشمگیر نبوده و بهصورت میانگین میان تمامی مجموعهدادههای مورد آزمایش حاکی از بهبود 0.33 درصدی نبست به روش پایه خویش دارد.
-
ارتقا خوشه بندی توزیع شده کلان داده
1400امروزه داده ها با سرعت و حجم بسیار بالایی تولید می شوند که در موارد متعددی به صورت جریان داده هستند. جریان داده، یک توالی نامحدود از داده هایی است که با سرعت و حجم بالا تولید می شوند که آن را به عنوان دنباله ای از اشیا داده ای در فواصل زمانی تعریف می نمایند. یکی از رایجترین پردازشهای موجود در خصوص جریان داده ها خوشه بندی است که به طورکلی هدف آن تقسیم داده ها در گروه های همگن میباشد. یکی از الگوریتم های موجود برای خوشه بندی الگوریتم CluStream است که شامل دو فاز آنلاین و آفلاین می باشد و نسخه پیاده سازی شده ای از آن در محیط توزیع شده آپاچی اسپارک نیز وجود دارد. الگوریتم CluStream در فاز آنلاین تعداد ثابتی از ریزخوشه ها را حفظ میکند. این امر در یک جریان داده در حال تکامل، با توجه به پیچیدگی داده های ورودی در جریان های دنیای واقعی، فرضی غیرعملی به نظر می رسد. علاوه براین در این الگوریتم داده های تاریخی را در طول جریان نگهداشته و مکانیزمی جهت حذف تدریجی خوشه های منقضی شده تعبیه نشده است. این مسیٔله باعث میشود با ورود مداوم جریان داده به مرور شعاع خوشه ها بزرگتر شده و دادههای بیشتری به هر خوشه افزوده شود که این امر موجب کاهش دقت خوشهها میگردد. در فاز آفلاین نیز خوشه های نهایی بر اساس پارامتر ثابتی تعیین می شوند. ثابت در نظر گرفتن این پارامتر در عمل میتواند سبب شکستن یک خوشه به چند خوشه دیگر یا تجمیع چندین خوشه با یکدیگر شود و ممکن است کیفیت خوشه های تشخیص داده شده توسط الگوریتم را پایین آورد. جهت رفع مشکلات ذکر شده، در این پایاننامه تغییراتی در فاز آنلاین و آفلاین الگوریتم CluStream صورت گرفته است. در روش پیشنهادی تعداد ریزخوشه ها در طول زمان تغییر میکند. ریزخوشه های جدید به تدریج و در صورت نیاز ساخته میشوند و پس از رسیدن ریزخوشه ها به تعداد ماکزیمم، رفتار الگوریتم پیشنهادی همانند الگوریتم CluStream میباشد. علاوه براین در فاز آنلاین به منظور حذف خوشه های منقضی شده دو ایده پیشنهاد شده است. ایده اول افزودن تابعی به نام تابع پاکسازی یا هرس جهت حذف خوشه های منقضی شده و ایده دوم استفاده از پنجره لغزان به منظور حفظ داده های اخیر و حذف داده های قدیمی تعبیه شده است. همچنین در فاز آفلاین الگوریتمی پیشنهاد شده است که تعداد خوشه های نهایی را به صورت پویا مشخص میکند. در
-
بررسی وحل چالش تقسیم بندی داده های جریان در داده های حجیم
1399جریان داده یک توالی نامحدود از داده هایی است که با سرعت و در حجم بالا تولید می شود. با در نظر گرفتن چنین تعریفی، پردازش اطلاعات جریان به عنوان یک موجودیت واحد بسیار دشوار و در برخی جریان ها ناممکن است. بنابراین، روش هایی ایجاد شده اند که بتوانند پردازش چنین داده هایی را امکان پذیر نمایند. یکی از رایج ترین این روش ها، خوشه بندی نام دارد که می تواند اقلام اطلاعاتی مشابه را در تعدادی گروه قرار دهد. EvoStream یکی از الگوریتم های خوشه بندی جریان است که با استفاده از یک الگوریتم تکاملی به صورت تدریجی در زمان های بیکاری جریان، خوشه بندی نهایی را انجام می دهد. این الگوریتم ضمن ایجاد نتایج رقابتی با سایر الگوریتم ها در این حوزه، سربار محاسباتی مرحله آفلاین را به طور موثری کاهش می دهد. تعداد خوشه ها در الگوریتم EvoStream ثابت درنظر گرفته می شود، درحالی که در جریان داده ی واقعی این تعداد در طول زمان متغیر است و به پیچیدگی داده های ورودی بستگی دارد. از طرف دیگر از آنجایی که زمان وقوع بیکاری و طول زمان مذکور از الگوی خاصی تبعیت نمی کند ممکن است برخی گام های تکاملی به پایان نرسند که این امر با توجه به ثابت نبودن تعداد خوشه ها از کیفیت خوشه ها می کاهد. در راستای رفع این مشکلات در این پایان نامه الگوریتم جدیدی ارائه شده است که تعداد خوشه ها را به درستی تشخیص داده و ضمن بهبود کیفیت خوشه ها، اجرای مرحله ی تکاملی را تا چهار برابر تسریع می کند.
-
احراز هویت به عنوان سرویس مبتنی بر رویداد راندگی برای یکپارچه سازی کاربردهای سازمانی
1398چکیده: هدف از این پایان نامه ارائه یک راهکار امنیتی برای احراز هویت به صورت سرویس در یکپارچه سازی سازمانی است. سامانه های متفاوت در یک سازمان با راهکارهای احراز هویت مختلف علاوه بر مشکلاتی که در حفظ و نگهداری این اطلاعات برای کاربر ایجاد می نماید، تهدیدات امنیتی فراوانی نیز به همراه دارد. از سوی دیگر هر یک از سامانه ها مکانیسم متفاوتی برای احراز هویت دارند که بعضاً دارای ضعف امنیتی هستند و همچنین تغییر مکانیسم های احراز هویت در سامانه ها سبب ایجاد هزینه برای سازمان ها می نماید. ارائه امنیت و به طور مشخص احراز هویت به عنوان یک سرویس راهکار مناسبی برای پاسخ به چالش ها است؛ اما وجود سربار پردازش روی سرور احراز هویت یکی از مشکلات است. سازمان ها با سامانه های مختلف از راهکارهای متفاوتی برای یکپارچه سازی استفاده می نمایند که یکی از راهکارها رایج گذرگاه سرویس سازمانی است. در این پایان نامه معماری ارائه گردیده است که احراز هویت به عنوان سرویس به صورت کارا صورت می گیرد. یک برنامه کاربردی برای احراز هویت کاربر را به سرور احراز هویت منتقل می نماید. پس از احراز هویت با توجه به اینکه سامانه ها از طریق گذرگاه سرویس سازمانی باهم مرتبط هستند سرویس احراز هویت ورود و احراز کاربر را به عنوان یک رخداد به همه برنامه های کاربردی اعلان می دارد. برنامه های کاربردی دیگر برای احراز هویت نیازی به مراجعه به سرور احراز هویت نخواهند داشت. پیاده سازی یک نمونه اولیه نشان داد که این معماری قابلیت عملیاتی شدن دارد و از سوی دیگر نتایج شبیه سازی نشان داد که این روش کارا بوده و سربار پردازشی سرور احراز هویت و زمان پاسخ برای احراز هویت را کاهش می دهد.