محرم منصوری زاده

دانشیار

تاریخ به‌روزرسانی: 1403/10/01

محرم منصوری زاده

مهندسی / مهندسی کامپیوتر

رساله های دکتری

  1. Multi-modal Fake News Recognition using Attention-based Ensemble of Deep Learners
    1402
    Social networks have drastically changed how people obtain information. News in social net-works is accompanied by images and videos and thus receives more attention from readers as opposed to traditional ones. Unfortunately, fake news publishers often misuse these advantages to spread false information rapidly. Therefore, the early detection of fake news is crucial. The best way to address this issue is to design an automatic detector based on fake news content. So far, many fake news recognition systems including both traditional machine learning and deep learning models are proposed. Given that manual feature extraction methods are very time-consuming, deep learning methods are the preferred tools. This research aims to enhance the performance of existing approaches by utilizing an ensemble of deep learners based on attention mechanisms. To a great extent, the success of an ensemble model depends on the variety of its learners. To this end, we propose a novel loss function that enforces each learner to attend to different parts of news content on the one hand and obtain a good classification accuracy on the other hand. Also, the learners are built on a common deep feature extractor and only differ in their attention modules. As a result, the number of parameters is reduced efficiently, and the overfitting problem is addressed. Additionally, most research in automatic fake news detection is devoted to fully supervised setting. Given that the generation rate of news in social media is drastic and the labeling of a huge amount of data required by fully supervised models is expensive and time consuming, these models are not beneficial in real applications. To address this limitation, we extend our method for semi-supervised setting using effective augmentations, and a novel distribution-aware pseudo-labeling technique. The proposed augmentations enhance the robustness of learners and prevent overfitting effectively. Diverse learners are utilized to annotate the unlab
  2. مقایسه جامع روش های ایجاد توابع انتقالی و توسعه الگوریتم های جدید برای تخمین منحنی نگهداشت آب خاک و منحنی هدایت هیدرولیکی خاک.
    1399
    منحنی نگهداشت آب خاک (SWRC ) و منحنی هدایت هیدرولیکی خاک (SHCC) به عنوان ویژگی های هیدرولیکی خاک تاثیر و نقش عمده ای در زمینه های هیدرولوژی، حفاظت محیط زیست، اکولوژی، پدولوژی و بسیاری از زمینه های مرتبط با خاک دارند. با استفاده از این ویژگی ها می توان مدل های جریان آب و املاح، نفوذ، زهکشی و برنامه ریزی آبیاری را تبیین و پیش بینی نمود. با این وجود، اندازه گیری مستقیم ویژگی های هیدرولیکی خاک در مزرعه و شرایط آزمایشگاه گران، وقت گیر و خسته کننده است و گاهی اوقات اندازه گیری آن ها برای مقیاس های بزرگ امکان پذیر نیست. بنابراین، توابع انتقالی (PTFs) به عنوان روشی غیرمستقیم برای پیش بینی ویژگی های هیدرولیکی خاک توسعه یافت. توابع انتقالی یکی از روش های غیر مستقیم برای برآورد ویژگی های هیدرولیکی خاک هستند که با استفاده از روش های متعدد بین پارامترهای دیر یافت خاک مانند منحنی نگهداری آب خاک و هدایت هیدرولیکی و پارامترهای زود یافت خاک مانند بافت، چگالی ظاهری و مقدار ماده آلی که اندازه گیری آن ها آسان، سریع و کم هزینه است و در پژوهش های علوم خاک متداول اند، ارتباط برقرار می کنند. اگرچه ایجاد PTFها در مقایسه با اندازه گیری مستقیم بسیار ساده می باشد، اما انتخاب بهترین روش برای ایجاد PTF، مسئله ای است که در این زمینه وجود دارد. با توجه به بررسی کامل منابع مشاهده شد که تا به حال مقایسه جامع الگوریتم های مختلف برای تخمین SWRC و SHCC انجام نشده است. به طوری که در بسیاری از موارد الگوریتم های مشابه در مقاله ها مورد بررسی قرار گرفته است و در مقابل الگوریتم های بسیاری نیز وجود دارند که مورد بررسی و مقایسه قرار نگرفته اند. همچنین هیچ ترکیبی از الگوریتم های مختلف برای افزایش بهبود دقت تخمین صورت نپذیرفته است. در مطالعه حاضر، 28 روش شامل رگرسیون خطی چندگانه (MLR)، رگرسیون غیرخطی (NLR)، رگرسیون فرآیند گوسی (GPR) با تابع کواریانس نمایی (GPR_E)، رگرسیون فرآیند گوسی با تابع کواریانس ماترن (GPR_M)، مدل خطی تعمیم یافته (GLM)، رگرسیون غیرخطی بر پایه چند جمله ای درجه سوم، شبکه عصبی پرسپترون چند لایه (MLP)، شبکه عصبی بیزین، شبکه عصبی پایه شعاعی (RBF)، شبکه عصبی مبتنی بر ماشین یادگیری افراطی (ELM)، ماشین بردار پشتیبان (SVM) با تابع های هسته شعاعی (SVM_G)، چند جمله ای (SVM_P) و خطی (SVM_L)، روش مدیری
  3. تولید سیستم پرسش و پاسخ بصری با استفاده از تجمیع روش های مبتنی بر تصویرکاوی، پایگاه های دانش و یادگیری هوشمند
    1399
    چکیده : بینایی ماشین علمی برای ساخت سیستم های هوشمندی است که هدف آنها آنالیز، درک و استخراج اطلاعات مفید از داده های بصری است. این داده های بصری می تواند تصاویر ساده، حجمی و توالی های ویدئویی باشد. پردازش زبان طبیعی، توانایی ماشین ها برای خواندن و درک زبان های انسانی است. پرسش و پاسخ بصری یک مسئله تحقیقاتی هوش مصنوعی است که می توان آن را نقطه تقاطع یا ترکیبی از پردازش زبان طبیعی، بینایی ماشین و استنتاج دانش دانست. در این مسئله، به عنوان ورودی یک تصویر داده می شود و سوالی در مورد آن پرسیده می شود، و هدف یافتن پاسخ صحیح به سوال ورودی است. ار آنجا که سوالات متنوعی در مورد تصویر پرسیده می شود، سیستم به درک کاملی از تصویر، و مجموعه گسترده ای از قابلیت-های هوش مصنوعی نیاز دارد، مانند تشخیص شی، تشخیص رویداد و استدلال مبتنی بر دانش. با توجه به عملکرد قابل توجه شبکه های عصبی عمیق و عملگرهای پرکاربرد کلاسیک استخراج ویژگی از تصاویر، روش های پیشین نیز از این روش ها برای حل این مسئله استفاده کرده اند که هریک نقاط ضعف و قوت مخصوص به خود را دارند. همچنین نکته ی دیگر قابل توجه در طراحی سیستم پرسش و پاسخ بصری، حوزه ی هدف برای استفاده از این سیستم می باشد. در حوزه های تخصصی مانند پزشکی که با مسائل حیاتی انسان سروکار دارند، علاوه بر تنوع و گستردگی سوالات، دقت بالای سیستم در پاسخ دهی بسیار مهم است. در این پژوهش، یک معماری جدید برای تولید مدل های پرسش و پاسخ بصری ارائه می دهیم که بیشتر از زبان مبتنی بر آنالیز داده های بصری است. همچنین، هدایت مراحل آنالیز تصویر به طور مستقیم براساس پرسش مطرح شده انجام می شود، تا بتوان در حوزه های تخصصی نیز متناسب با هر سوال مطرح شده مدلسازی را به گونه ای انجام داد که بهترین مدل برای پیش بینی پاسخ آن سوال تولید کند. معماری پیشنهادی که مبتنی بر تکنیک توجه است، دارای دو بخش کلی شامل، استخراج ویژگی از تصاویر مبتنی بر نوع سوال مطرح شده و پیش بینی پاسخ می باشد. در این راستا هفت ماژول پیشنهادی برای پاسخ به سوالات مطرح شده در مورد تصاویر ساده و حجمی، ارائه شده است. در این ماژول ها متناسب با سوال مطرح شده یکی از روش های استخراج ویژگی های عمیق (شامل استفاده از شبکه های عصبی کانولوشنال، موبایل نت و حافظه کوتاه مدت طولانی) یا روش های کلاسیک (شامل عملگرهای معروف کلاس
  4. تشخیص تعامل انسان در ویدیو با استفاده از شبکه های عصبی عمیق
    1398
    چکیده: بسیاری از ویدیوهایی که انسان ها را به تصویر می کشد، دارای فعالیت هایی است که بین انسان ها وجود دارد و نشان گر فرهنگ و رابطه بین آن هاست. با پیشرفت تشخیص کنش های انسان در ویدیو، محققان به شناخت و پیش بینی تعامل انسان- انسان به طور خودکار پرداخته اند. هدف از پیش بینی تعامل تشخیص زود هنگام تعامل قبل از انجام کامل آن است. که در بازیابی ویدیو بر اساس محتوا، تعامل انسان و کامپیوتر و امنیت و نظارت کاربرد دارد. اما این موضوع هنوز یک مسئله چالش برانگیز است، که این چالش می تواند ناشی ازتغییرات تصویر، نحوه اجرای متفاوت افراد در انجام یک تعامل و .. باشد. روش های موجود در این حوزه بر اساس ویژگی به ویژگی های دستی و ویژگی های یادگرفته شده تقسیم می شوند. ویژگی های یاد گرفته شده تا حدودی چالش های تنظیمات ضبط، ظاهر فرد، اندازه تصویر و نقطه دید را کاهش داده اند. انتظار ما این است که استفاده از استخراج ویژگی یادگرفته شده در مدل های پیشنهادی می تواند چالش ها را تا حد امکان کاهش دهد. در اولین مدل پیشنهادی به نام Dual-Actor CNN از دو شبکه همسان برای استخراج ویژگی های دو فرد در حال تعامل استفاده شده است. که این مدل به علت استفاده از شبکه های همسان و به اشتراک گذاری وزن ها باعث می شود چالش جهت و نقطه دید انجام کنش حل شود. در روش پیشنهادی دیگر مسئله در قالب سری زمانی به نام DTW-CNN مدل می شود، فرض بر این است که استفاده از روش روش پیچ وتاب زمانی پویا بتواند بر چالش نرخ زمان اجرای تعامل غلبه کند. از آنجایی که انجام هر کنش یا تعامل ماهیتی فازی دارد و نمی-توان حرکت مشخصی برای تعریف آن در نظر گرفت، استفاده از روش فازی می تواند باعث افزایش دقت تشخیص تعامل شود، در مدل پیشنهادی Fuzzy-Relation CNN از حرکات افراد در ویدیو دو تصویر فازی ساخته می شود که شامل حرکات افراد در حال تعامل است. این تصاویر ایجاد شده اطلاعات پیش-زمینه و نا مرتبط به تعامل را حذف می کند و تغییرات مهم حرکت افراد را با توجه به زمان آن را نگه میدارد. سپس از تصویر ایجاد شده ویژگی استخراج می شود. سه مدل بر روی مجموعه داده های TV human interaction، BIT و UT ارزیابی شده اند. نتایج نشان می دهد که دقت این مدل ها برای پیش-بینی تعامل نسبت به روش های پیشین بالاتر بوده و در بین این سه مدل روش Dual-Actor دقت بالاتری داشته است.

پایان‌نامه‌های کارشناسی‌ارشد

  1. شبکه عصبی عمیق با معماری معنایی-احساسی برای تشخیص احساس در متن با استفاده از جاسازی واژه های از پیش آموزش دیده
    1402
    تشخیص احساسات از متن به سبب نیاز سازمان ها و مراجع به اطلاعات موجود در داده های مکتوب از اهمیت بالایی برخوردار است. پژوهش ها نشان داده است که به علت وجود کلمات و عبارات عامیانه و یا خارج از دایره واژگانی و نیز بُعد پیچیده و متنوع بیان مکتوب احساسات در افراد مختلف، شبکه های عصبی عمیق در ثبت الگوها و بازنمایی های پیچیده عملکرد بهتری نسبت به دیگر روش های موجود از خود نشان داده اند. در این پژوهش، یک شبکه عصبی عمیق به نام معماری معنایی-احساسی با استفاده از برچسب گذاری اجزای کلام برای تشخیص احساسات در متن، با استفاده از جاسازی واژه های از پیش آموزش دیده پیشنهاد شده است. این مدل اطلاعات معنایی و اطلاعات احساسی موجود در متن را با توجه به نقش گرامری کلمات در جمله، باهم ادغام می کند تا معنا و احساس در متن را به خوبی به تصویر بکشد. از جاسازی های کلمات از پیش آموزش دیده، برای نمایش برداری کلمات استفاده شده است. این بردارها اطلاعات معنایی غنی را رمزگذاری می کنند و مدل را قادر می سازند تا زمینه و معنای کلمات را به طور موثرتر دریافت کند. معماری پیشنهادی از سه زیرلایه تشکیل شده است. اولین زیرشبکه از شبکه BiLSTM برای گرفتن اطلاعات متنی و تمرکز بر روابط معنایی استفاده می کند. دومین زیرشبکه از شبکه CNN برای استخراج ویژگی های احساسی استفاده می کند. این زیرشبکه روابط عاطفی بین کلمات را نیز درنظر می گیرد. سومین زیرشبکه از شبکه CNN و یک بلوک POS tagging برای استخراج ویژگی های بیشتر با توجه به نقش کلمات جمله، استفاده می کند. روش پیشنهادی بر روی مجموعه داده ISEAR اعمال و آزموده شده است. نتایج بدست آمده از آزمایش روش پیشنهادی بر روی مجموعه داده و مقایسه آن با روش های پیشین نشان می دهد که مدل عملکرد مطلوبی داشته و به نتایج قابل قبولی دست یافته است.
  2. انتخاب ویژگی برای طبقه بندی با استفاده از محاسبات تکاملی
    1402
    در بسیاری از مسائل یادگیری ماشین تعداد زیادی ویژگی وجود دارد که همه این ویژگی ها ضروری نیستند؛ زیرا بسیاری از آنها اضافی یا حتی نامربوط هستند که ممکن است عملکرد یک الگوریتم طبقه بندی را کاهش دهند. هدف از انتخاب ویژگی، حل این مشکل با انتخاب تنها زیرمجموعه کوچکی از ویژگی های مرتبط از مجموعه ویژگی بزرگ اصلی است. با حذف ویژگی های نامربوط و زائد، انتخاب ویژگی می تواند ابعاد داده ها را کاهش دهد، روند یادگیری را تسریع کند، مدل آموخته شده را ساده سازی کند و یا کارایی را افزایش دهد. انتخاب ویژگی به دلیل دارا بودن فضای جستجوی بزرگ، کار دشواری است. از بین روش های مختلف موجود برای انتخاب ویژگی، روش های محاسبات تکاملی به دلیل توانایی یا پتانسیل جستجوی سراسری خود برای حل مسئله انتخاب ویژگی در سال های اخیر توجه زیادی را به خود جلب کرده اند. هدف این پژوهش، بهبود دقت طبقه بندی در مسائل مساله انتخاب ویژگی با استفاده از الگوریتم های تکاملی است. مهم ترین چالش های مسئله انتخاب ویژگی، مقیاس پذیری، هزینه محاسباتی، روش های جستجو، معیار ارزیابی و تعداد نمونه ها است. در این پژوهش برای کاهش هزینه محاسباتی به ویژه در مقیاس بزرگ از روشی برای ترکیب انتخاب ویژگی و انتخاب نمونه استفاده شده است و این روش به عنوان روش پایه در همه آزمایش ها استفاده شده است. برای بهبود دقت طبقه بندی از ترکیب روش پایه با الگوریتم های تکاملی مختلف به عنوان روش جستجو استفاده شده است و از 13 مجموعه داده برای ارزیابی روش پیشنهادی استفاده شده است. پس از اجرای آزمایش های مختلف دقت طبقه بندی نسبت به روش پایه در همه 13 بهبود داده شده است.
  3. طبقه بندی تصاویر سی تی اسکن کبد به کمک روشهای یادگیری نیمه نظارتی عمیق
    1402
    کبد یک عضو مهم و حیاتی در بدن مهره داران است و سلامت کبد برای حفظ سلامتی کل بدن ضروری است. تشخیص و طبقه بندی ضایعات کانونی کبد از تصاویر سی تی اسکن، به دلیل اهمیت کبد در بدن انسان، چالشی بسیار مهم برای پزشکان است. این پژوهش با هدف بهبود دقت طبقه بندی کبد سالم و ضایعات کانونی کبد از جمله کیست ، هیپرپلازی ندولار کانونی ، کارسینوم سلولی کبد و همانژیوم ایجاد شده است و از شبکه های عصبی عمیق و یادگیری انتقالی استفاده کرده ایم. در این پژوهش، از سه شبکه عصبی عمیق ResNet، AlexNet و EfficientNet برای طبقه بندی تصاویر سی تی اسکن کبد با کنتراست بهبودیافته از سه مدالیته مختلف NC، ART و PV استفاده شده است. به دلیل تعداد محدود تصاویر سی تی اسکن کبد، از یادگیری انتقالی برای بهبود عملکرد مدل ها استفاده کرده ایم.در این پژوهش از دو نوع تابع اتلاف میانگین مربعات خطا و تابع اتلاف متقاطع آنتروپی استفاده کرده ایم. نتایج ارزیابی نشان می دهد که مدل ResNet با یادگیری انتقالی و تابع اتلاف متقاطع آنتروپی، بهترین عملکرد را در مقایسه با سایر مدل ها و روش های پیشرفته دیگر دارد و مقایسه ی آن با پژوهش های مشابه نشان دهنده نتایج مطلوب و قابل قبولی در حوزه قطعه بندی ضایعات کانونی کبد است. این پژوهش نشان می دهد که استفاده از شبکه های عصبی عمیق و یادگیری انتقالی می تواند دقت طبقه بندی ضایعات کانونی کبد را از تصاویر سی تی اسکن به طور قابل توجهی افزایش دهد.
  4. جمعیت شماری ویدئویی با استفاده از شبکه های عصبی عمیق توسعه یافته
    1402
    اخیراً، شمارش تعداد افراد برای صحنه های ویدئویی پر ازدحام به دلیل کاربردهای گسترده آن (مانند نظارت تصویری، امنیت عمومی و تحلیل محتوای چندرسانه ای) با استفاده از روش های مبتنی بر یادگیری عمیق مورد توجه قرارگرفته است. عمده روش ها روی تصاویر ثابت تمرکز داشته اند و تعداد بسیار کمتری بر روی شمارش جمعیت مبتنی بر ویدئو تمرکز می کنند. با این وجود این مدل ها به دلیل عدم توجه به همبستگی زمانی، داده های محدود، محیط متغیر، انسداد و سایر موارد قابلیت تعمیم و کارایی مناسب برای صحنه های طبیعی را ندارند ضمن اینکه ممکن است به دلیل کمبود و عدم تنوع داده دچار بیش برازش هم باشند. این پژوهش، نشان می دهد تخمین جریان افراد در مکان های تصویر بین تصاویر متوالی و استنتاج تراکم افراد از این جریان ها بدون نیاز به معماری پیچیده تر، عملکرد را به طور قابل توجهی افزایش می دهد. علاوه بر این، افزودن یک شبکه عصبی توجه مکانی-زمانی برای تخمین تعداد عابران پیاده نیز بررسی شده است.
  5. ارائه یک روش کارآمد برای تشخیص و تحلیل بدافزارهای اندروید با یادگیری ماشین
    1402
    چکیده: با افزایش استفاده از دستگاه های تلفن همراه، حمله ی بدافزارها به خصوص در تلفن های اندرویدی که سهم زیادی از بازار را به خود اختصاص می دهند، افزایش می یابد. هکرها سعی می کنند با روش های مختلف مانند سرقت اعتبار، نظارت و تبلیغ های مخرب به تلفن های هوشمند حمله کنند. ازاین رو راهکارهای بسیار زیادی برای کشف این بدافزارها به وجود آمده است که با استفاده از تحلیل ایستای کدهای برنامه ها و بررسی مجوز های داده شده و یا تحلیل پویا و اجرای برنامه ها و بررسی رفتار برنامه و یا ترکیبی از این دو روش می توان بدافزارها را شناسایی کرد و مشخصه های اصلی برنامه ها را موردبررسی قرارداد. در میان اقدامات متقابل متعدد، روش های مبتنی بر یادگیری ماشین به عنوان وسیله ای موثر برای تشخیص این حمله-ها شناخته شده است، زیرا آن ها می توانند مجموعه ای از مثال های آموزشی را طبقه بندی کنند. در این پایان نامه، از یک مجموعه داده دارای 5560 بدافزار و 123453برنامه کاربردی سالم استفاده شده است، از بین 5560 بدافزار، ده بار به صورت تصادفی 100 بدافزار انتخاب شده اند و از بین123453 برنامه کاربردی سالم، به دلیل تعداد زیاد این برنامه های کاربردی، 2201 برنامه کاربردی به صورت ثابت انتخاب شدند. سپس ویژگی های هریک از این مجموعه 100تایی بدافزارها و 2201 برنامه کاربردی سالم استخراج می شوند. پس ازآن این ویژگی ها به الگوریتم های یادگیری ماشین داده می شوند، تا بین بدافزارها و برنامه های کاربردی سالم تمایز قائل شود. در این پژوهش علاوه بر ویژگی های استخراج شده در پژوهش های قبلی ویژگی های بیشتری استخراج می شوند. هم چنین از الگوریتم های مختلف یادگیری ماشین استفاده می شود. نتایج نشان می دهد اضافه کردن ویژگی های بیشتر، در نتایج نهایی برخی از الگوریتم های یادگیری ماشین تاثیر مثبتی دارد. هم چنین از بین الگوریتم های مختلف یادگیری ماشین، الگوریتم جنگل تصادفی بهترین عملکرد را دارد.
  6. مدلسازی و حل مساله امداد و آواربرداری زلزله با دسته بندی مصدومان و تیم های پزشکی و استفاده از سگ های زنده یاب
    1402
    مدلسازی و حل مساله امداد و آواربرداری زلزله با دسته بندی مصدومان و تیم های پزشکی و استفاده از سگ های زنده یاب
  7. استخراج ویژگی های آموزشی اساتید برتر از منظر ارزیابی دانشجویان مبتنی بر تکنیک های داده کاوی در کانواس
    1402
    توسعه ی فناوری اطلاعات باعث پدیدار شدن مفاهیم نوآورانه ای در حوزه های متنوع شده است و آموزش الکترونیکی یکی از نتایج مثبت این تحولات است. امروزه، بسیاری از موسسات آموزش عالی در سراسر جهان از سیستم های مدیریت یادگیری آنلاین به منظور آموزش بهره می برند. این سیستم ها امکان تعامل مستقیم اساتید و دانشجویان را فراهم می کنند و همه ی فعالیت های آنان در این سیستم ها به طور جامع ثبت می شود. داده های مرتبط با ثبت وقایع در این سیستم های مدیریت یادگیری الکترونیک اغلب حاوی اطلاعات مفیدی در دوره های آموزشی مختلف می باشند. با توجه به حجم عظیم این داده ها، انجام کاوش در آن ها به منظور تجزیه و تحلیل الگوهای رفتاری اساتید امری ضروری است و از طریق علم داده کاوی می توان عملکرد اساتید را به دقت تجزیه و تحلیل نمود. فرآیند داده کاوی با استفاده از تکنیک های گوناگون اطلاعات مفید را از داده ها بیرون می کشد. یکی از کاربردهای مهم داده کاوی، پیش بینی می باشد که تکنیک درخت تصمیم یکی از الگوریتم های مهم این حوزه به شمار می رود و از آنجایی که یکی از ارکان اساسی پیشرفت علمی و پژوهشی هر واحد آموزشی از عملکرد و انگیزه اساتید آن نشات می گیرد، بررسی عملکرد اساتید دانشگاه بوعلی سینا همدان و تحلیل نتایج به دست آمده می تواند باعث ارائه مدل پیشرفت به اساتید گردد. روش این پژوهش از نظر نوع انجام پژوهش، به طور توصیفی-تحلیلی و از لحاظ هدف کاربردی است. فرآیند استخراج داده ها بر اساس متدلوژی استاندارد کریسپ-دی ام بنا شده است؛ بعد از انجام مراحل این روش داده ها در نرم افزار وکا بررسی شدند و درخت تصمیم ترسیم شد. در ادامه برای به دست آوردن اطلاعاتی در مورد ویژگی های اساتید و تفاوت بین دو گروه اساتید بالا و پایین و نتیجه گیری نهایی استفاده از اطلاعات آماری نیز ضروری بود. در پژوهش حاضر جامعه ی آماری، همه ی اساتید دانشگاه بوعلی سینا همدان در سال تحصیلی 1401-1400 بودند که بر اساس آمار اداره ی ارزیابی و نظارت دانشگاه تعداد آن ها 811 نفر بود. حجم نمونه شامل 108 نفر از اساتید از همه گروه های آموزشی به همراه اطلاعات تمامی دروس اساتید ذکر شده بودند که در 390 رکورد ثبت شده اند. این پژوهش به شیوه ی هدفمند و در دسترس در دو گروه 54 نفره که به دو گروه بالا و پایین از اساتید تقسیم بندی شده اند، انجام گرفت. نتایج پژوهش نشان داد که ا
  8. قطعه بندی اسبک مغزی در تصاویر تشدید مغناطیسی با استفاده از شبکه های عصبی عمیق
    1402
    اسبک مغز یک ساختار مغزی کوچک، میانی و زیر قشری است که به حافظه بلند مدت و کوتاه مدت مربوط می شود. شکل و شمایل اسبک مغزی تحت تاثیر مواردی همچون زوال عصبی یا آلزایمر می تواند تغییر پیدا کند. قطعه بندی اسبک مغزی از تصویر تشدید مغناطیسی برای تحقیقات اختلالات عصبی- روانپزشکی از اهمیت بالایی برخوردار است و همچنین می تواند در بررسی بیماری هایی مانند آلزایمر، صرع و اسکیزوفرنی استفاده شود. یکی از ضرورت های بررسی و تحلیل تصویر اسبک مغزی، همانطور که گفته شد، پیش بینی احتمال ابتلا به آلزایمر می باشد، در صورتی که این بیماری سریع تشخیص داده شود و روند درمان آن در مراحل ابتدایی صورت بگیرد احتمال بهبود آن بیشتر است و احتمال کارآمد بودن روش های درمانی نیز بیشتر خواهد بود. هزینه های زیاد مربوط به قطعه بندی دستی اسبک مغزی باعث شده است که پژوهش هایی در حوزه قطعه بندی خودکار اسبک مغزی از تصاویر پزشکی انجام شود. یکی از مهم ترین چالشهای سر راه برای جداسازی اسبک مغزی در تصاویر پزشکی کوچک بودن محدوده ی آن می باشد بطوری که تشخیص ناحیه قرارگیری اسبک مغز در تصاویر پزشکی با چشم غیر مسلح دشوار است. هدف این پژوهش ارائه ی مدلی برای قطعه بندی و تعیین مرز دقیق قرارگیری اسبک مغز در تصاویر تشدید مغناطیسی است. امروزه یادگیری عمیق در بینایی رایانه دارای نقشی کلیدی بوده و برای اهداف گوناگونی چون بازشناسی تصویر، تشخیص چهره، قطعه بندی و تقسیم بندی تصاویر پزشکی و... به کار می رود. در این پژوهش مدلی جمعی از یادگیری عمیق با بهره گیری از ماسک فازی از پیش آموزش دیده برای قطعه بندی اسبک مغز ارائه شده است. برای افزایش دقت مدل در این پژوهش یک ماسک فازی با استفاده از مدل شبکه عصبی کانولوشنی ایجاد می شود. استفاده از ماسک فازی از پیش آموزش دیده با حذف قسمت های اضافه تصویر تشدید مغناطیسی می تواندپیچیدگی مدل جمعی نهایی را کاهش دهد و موجب افزایش دقت در قطعه بندی اسبک مغز شود. بعد از ماسک کردن تصاویر از یک مدل جمعی متشکل از شبکه های عصبی کانولوشنی برای قطعه بندی اسبک مغز استفاده می شود. مدل نهایی ارائه شده قادر است با دریافت یک تصویر تشدید مغناطیسی از مغز در صورت مشخص بودن اسبک مغز آن را با دقت قابل توجهی شناسایی کند. در ادامه بعد از ایجاد مدل با بخشی از داده های موجود در دیتاست، اقدام به ارزیابی مدل شد. نتیجه ارزیابی ان
  9. یادگیری با نمونه های محدود به کمک روش های مبتنی بر پیام واره
    1402
    امروزه، در پردازش زبان طبیعی، داده های برچسب گذاری شده مهم است، بااینحال، یافتن تعداد کافی از داده ها یک مرحله چالشبرانگیز است. بسیاری از وظایف وجود دارد که بهسختی می میتوان دادههای آموزشی موردنیاز را به دست آورد. برای مثال در ترجمه ماشینی باید دادههای زیادی را به زبان مقصد آماده کنیم تا عملکرد نهایی قابلقبول باشد؛ بااینحال، ممکن است نتوانیم دادههای مفید را در زبان مقصد جمعآوری کنیم. ازاینرو، نیاز است از یادگیری با نمونه های محدود استفاده کنیم. اخیراً روشی به نام پیام واره نویسی معرفی شده است که در آن ورودی های متن با استفاده از فرمت خاصی که یک یا چند جای خالی دارد، به متنی با ساختار جدید تبدیل می شود. با توجه به متن جدید دارای جای خالی، یک مدل زبانی پیش آموزشدیده بهترین کلمه را جایگزین جای خالی می کند. پیام واره می تواند در زمینه یادگیری با نمونه ها های محدود به ما کمک کند. حتی در مواردی که دادهای وجود ندارد که به یادگیری بدون نمونه معروف است. در کارهای اخیر از مدل های زبانی بزرگ مانند GPT-2 و GPT-3 استفاده و با روش پیام واره نویسی، کارهایی مانند ترجمه ماشینی انجام می شود. در این تلاشها از هیچ داده آموزشی برچسب داری استفاده نمی کنند؛ بااین حال این نوع مدلها با تعداد زیادی پارامتر به سختافزار قدرتمندی نیاز دارند. در این پژوهش، روشی مبتنی بر پیام واره نویسی برای یادگیری با نمونه ها های محدود معرفی شده است. روش ارائه شده بر پایه ساختار PET ایجاد شده است. PET با استفاده از مدل ها های زبانی کوچک مثل RoBERTa یادگیری با نمونه ها های محدود را با عملکرد قابلقبولی انجام می دهد. بر اساس نتایج به دست آمده، روش ارائه شده با استفاده از PET و مهندسی پیام واره و مهندسی پاسخ و همچنین انجام پردازشهای مختلف در دادههای متنی به نتایج قابلقبولی دستیافته است.
  10. یک چارچوب کاری برای تولید پیشنهادهای قابل توضیح با استفاده از یادگیری چند وظیفه ای
    1401
    به طور خلاصه، سیستم پیشنهادگر یک سیستم هوشمند بازیابی اطلاعات است که بر اساس بازخورد های کاربر در گذشته (مثلا نمرات، امتیازات یا لایک ها) فهرستی از پیشنهاد ها (مثلا فیلم ها یا کتابها) که کاربر احتمالا به آن ها علاقه مند است را پیش بینی می کند. همچنین در زمینه ی پژوهشی پیشنهاد شخصی سازی شده، نوعی از پیشنهاد به نام پیشنهاد توضیح پذیر وجود دارد که پاسخگوی این پرسش است که چرا یک محصول خاص به کاربر پیشنهاد شده است؛ یعنی با ذکر شدن توضیحاتی برای پیشنهاد ها هدف سیستم از ارائه آن ها روشن می شود. توضیح پذیری پیشنهادها شفافیت سیستم را بهبود می دهد و به کاربران در انتخاب و تصمیم گیری میان کالاهاکمک می کند. به طور کلی پیشنهاد توضیح پذیر شفافیت، اقناع، کارآمدی، اعتماد، اعتبار و در ادامه رضایت مشتریان را بهبود می دهد. یکی از رویکرد های اصلی پیشنهاد رویکرد پالایش اشتراکی است که بر اساس تعاملات قبلی بین کاربران و کالاها (مثلا امتیازات) علاقه ی کاربران در آینده را پیش بینی می کند. عموما امتیازات کاربران به کالا ها در یک ماتریس دو بعدی به نام ماتریس کاربرد ثبت می شود که کاربران و کالاها ابعاد آن را تشکیل می دهند. به طور خلاصه این رویکرد بر اساس امتیازات ثبت شده و با کمک مقایسه و شباهت یابی میان کاربران و کالاها، امتیازات ثبت نشده عناصر خالی ماتریس کاربرد را پیش بینی می کند. اولین چالشی که در رویکرد پالایش اشتراکی وجود دارد، چالش خلوت بودن ماتریس امتیازات (محدودیت داده) است زیرا همه ی کاربران به همه ی کالاها نمره نداده اند. در کنار این چالش، چالش عدم شفافیت در نتایج سیستم پیشنهادگر هم وجود دارد. این مشکل اساسا ازعدم ارائه دلایل برای چرایی فهرست پیشنهاد ها ناشی می شود. برای غلبه بر این چالش ها ایده ی استفاده از نظرات کاربران مطرح شد، پژوهشگران این حوزه به تازگی از نظرات کاربران به عنوان داده های کمکی برای رفع چالش کمبود داده بهره می گیرند. واضح است که نظرات کاربران مانند امتیازات دربرگیرنده ی ترجیحات آن ها نسبت به کالاها می باشد با این تفاوت که نظرات کاربران، بر خلاف امتیازات آن ها که فقط بیانگر ترجیحات کلی کاربران نسبت به کالاها است، با جزئیات دقیق تری ترجیحات کاربران نسبت به ویژگی های مختلف کالاها را توصیف می کنند. همچنین امروزه، تولید متن ماشینی یکی از موضوعات موردتوجه محققان در حوز
  11. پیش بینی سری های زمانی مالی و آنالیز شبکه های اجتماعی به وسیله ی شبکه های عصبی عمیق
    1401
    پیش بینی قیمت بیت کوین به عنوان یکی از چالش های حوزه ی مالی و رمزارز است. تحقیق در زمینه مدل های پیش بینی قیمت در بازارهای مالی علیرغم چالش های فراوانی که در بر دارد همچنان یکی از حوزه های فعال جهت تحقیقات می باشد. قیمت رمزارزها غیرخطی، پویا و دارای بی نظمی است. بنابراین، تشکیل سری های زمانی مالی و پیش بینی آن ها بسیار دشوار است. اخیرا بسیاری از تحقیقات نشان داده اند که بررسی توییت های منتشر شده پیرامون رمزارزها می تواند دقت مدل های پیش بینی را بهبود بخشد. در میان جدیدترین تکنیک های موجود جهت پیش بینی قیمت رمزارز، می توان به مدل های یادگیری عمیق اشاره کرد که با توجه به قابلیت بالا در شناخت الگوهای پیچیده در حوزه های مختلف، جزء موضوعاتی هستند که حجم بالایی از تحقیقات را به خود اختصاص داده اند. در این پژوهش با ترکیب سری های زمانی با توییت های پیرامون بیت کوین، که اساساً دو نوع داده ای متفاوت هستند مدلی را ارائه خواهیم داد که می تواند تاثیر توییت ها را بر قیمت این رمزارز نشان دهد. برای سری های زمانی از شاخص های مالی مهمی چون قیمت بیت کوین، قیمت نفت خام، قیمت طلا و ... و برای توییت های مربوط به بیت کوین نیز از الگوریتم FinBERT برای استخراج ویژگی استفاده شده است. در این پژوهش نشان می دهیم که ترکیب سری زمانی بیت کوین و سایر شاخص های مالی با ویژگی های استخراج شده از الگوریتم FinBERT می تواند تاثیر بسزایی بر روی پیش بینی قیمت بیت کوین داشته باشد.
  12. بهبود کارایی شبکه های عصبی عمیق با استفاده از حساب تقریبی و سنتز سطح بالا
    1401
    چکیده: امروزه الگوریتمهای یادگیری ماشین و یادگیری عمیق در زمینه های مختلف بسیار پرکاربرد هستند. روش های متعددی برای حل مشکلات سرعت و زمان اجرای این الگوریتم ها پیشنهاد شده ولی تا کنون به نتیجه ای که بتوان این الگوریتم ها را در زمان مناسب اجرا کرد، نرسیده اند. از آنجایی که این الگوریتم ها در بسیاری از حوزه های هوش مصنوعی مانند بینایی ماشین، تشخیص گفتار، تشخیص جسم و ... کاربرد دارند، در این پژوهش قصد داریم با استفاده از حساب تقریبی، کارایی و همچنین بهره وری انرژی مصرفی آنها را بهبود دهیم. در این پایان نامه، نسخه ای جدید از روشهای حساب تقریبی برای کاهش زمان اجرا در الگوریتم های شبکه های عصبی ارائه شده است، از آنجایی که در این الگوریتم ها مسئله اصلی زیاد بودن زمان اجرای الگوریتم ها است، زمان اجرا را با استفاده از حساب تقریبی و رویکرد سنتز سطح بالا کم کرده ایم، بطوریکه دقت را تا حد ممکن قربانی زمان اجرای محاسبات می کنیم. از طرفی هم مطلع هستیم که شبکه های عصبی تحمل پذیری خطا دارند، پس لزومی ندارد که پیاده سازی الگوریتم های محاسباتی خیلی دقیق باشند؛ در نتیجه می خواهیم دقت محاسبات را به اندازه ای که مورد نیاز است و دقت محاسبات الگوریتم را مختل نمی کند، طراحی کنیم. نتیجه این کار باعث کوچکتر شدن مدار، بالا بردن سرعت پردازش یا فرکانس کاری و همچنین کاهش توان مصرفی مدار است. هدف از انجام این پایان نامه، بررسی عوامل موثر در بهبود سرعت و زمان اجرای الگوریتم های شبکه های عصبی کانولوشن در پردازش تصویر است. شبکه عصبی کانولوشن به عنوان یکی از بهترین و پرکاربردترین شبکهها در زمینه پردازش و کلاسبندی تصاویر است. نتایج این پژوهش نه فقط در بهبود کارایی کانولوشن، بلکه در بسیاری از کاربردها و الگوریتم های یادگیری ماشین قابل تعمیم است. ارزیابی نتایج این پژوهش، با استفاده از گوگل کولب، ابزار سنتز سطح بالای Vivado، و ALWANN framework محاسبه شده است. همچنین در این کار از الگوریتم های پردازش تکاملی و ژنتیک هم در پیاده سازی مدارها بهره برداری شده است و شبکه عصبی مورد استفاده در این پژوهش ResNet است. نتایج این پژوهش نشان می دهد که با داشتن دقت کلاس بندی 82 درصدی تصاویر، زمان انجام محاسبات، حداکثر تاخیر مدار ضرب کننده و توان مصرفی در مقایسه با کارهای مشابه، به ترتیب 2.5%، 33.5% و 41.93% کاهش داشته ا
  13. ارتقا خوشه بندی توزیع شده کلان داده
    1400
    امروزه داده ها با سرعت و حجم بسیار بالایی تولید می شوند که در موارد متعددی به صورت جریان داده هستند. جریان داده، یک توالی نامحدود از داده هایی است که با سرعت و حجم بالا تولید می شوند که آن را به عنوان دنباله ای از اشیا داده ای در فواصل زمانی تعریف می نمایند. یکی از رایجترین پردازشهای موجود در خصوص جریان داده ها خوشه بندی است که به طورکلی هدف آن تقسیم داده ها در گروه های همگن میباشد. یکی از الگوریتم های موجود برای خوشه بندی الگوریتم CluStream است که شامل دو فاز آنلاین و آفلاین می باشد و نسخه پیاده سازی شده ای از آن در محیط توزیع شده آپاچی اسپارک نیز وجود دارد. الگوریتم CluStream در فاز آنلاین تعداد ثابتی از ریزخوشه ها را حفظ میکند. این امر در یک جریان داده در حال تکامل، با توجه به پیچیدگی داده های ورودی در جریان های دنیای واقعی، فرضی غیرعملی به نظر می رسد. علاوه براین در این الگوریتم داده های تاریخی را در طول جریان نگهداشته و مکانیزمی جهت حذف تدریجی خوشه های منقضی شده تعبیه نشده است. این مسیٔله باعث میشود با ورود مداوم جریان داده به مرور شعاع خوشه ها بزرگتر شده و دادههای بیشتری به هر خوشه افزوده شود که این امر موجب کاهش دقت خوشهها میگردد. در فاز آفلاین نیز خوشه های نهایی بر اساس پارامتر ثابتی تعیین می شوند. ثابت در نظر گرفتن این پارامتر در عمل میتواند سبب شکستن یک خوشه به چند خوشه دیگر یا تجمیع چندین خوشه با یکدیگر شود و ممکن است کیفیت خوشه های تشخیص داده شده توسط الگوریتم را پایین آورد. جهت رفع مشکلات ذکر شده، در این پایاننامه تغییراتی در فاز آنلاین و آفلاین الگوریتم CluStream صورت گرفته است. در روش پیشنهادی تعداد ریزخوشه ها در طول زمان تغییر میکند. ریزخوشه های جدید به تدریج و در صورت نیاز ساخته میشوند و پس از رسیدن ریزخوشه ها به تعداد ماکزیمم، رفتار الگوریتم پیشنهادی همانند الگوریتم CluStream میباشد. علاوه براین در فاز آنلاین به منظور حذف خوشه های منقضی شده دو ایده پیشنهاد شده است. ایده اول افزودن تابعی به نام تابع پاکسازی یا هرس جهت حذف خوشه های منقضی شده و ایده دوم استفاده از پنجره لغزان به منظور حفظ داده های اخیر و حذف داده های قدیمی تعبیه شده است. همچنین در فاز آفلاین الگوریتمی پیشنهاد شده است که تعداد خوشه های نهایی را به صورت پویا مشخص میکند. در
  14. ارائه چارچوبی جهت طبقه بندی کلان داده با استفاده از شبکه های عصبی ELM
    1400
    در سالهای اخیر رشد انفجاری داده ها به قدری شدید بوده است که هر دو سال مقدار داده ها تقریبا دو برابر می شود. تحت تاثیر این رشد انفجاری داده های جهانی، عبارت کلان داده جهت توصیف داده های بسیار حجیم، داری سرعت رشد بالا و تنوع زیاد مورد استفاده قرار می گیرد. بنابراین می توان گفت روش ها، الگوریتم ها و چارچوب های کلاسیک یادگیری ماشین برای مدیریت و پردازش این مقدار داده ناتوان می باشند. الگوریتمهای یادگیری ماشین تا زمانی که با کلان داده به چالش کشیده نشوند نوید بهبودی نخواهند داد. طبقه بندی یکی از روشهایی است که در تحلیل داده ها به ما کمک می کند، از جمله تحلیل داده های ساخت یافته، تحلیل داده های متنی، تحلیل داده های وب سایت، تحلیل داده های چندرسانه ای، تحلیل داده های شبکه، تحلیل داده های تلفن همراه. بنابراین می توان گفته مساله طبقه بندی امروزه روی کلان داده بسیار حایز اهمیت می باشد. رسیدن به راهکاری جهت طبقه بندی، در مواردی با حجم داده های بالا چون شبکه های اجتماعی، تراکنش های مالی، تشخیص نفوذ در شبکه، بسیار راه گشا خواهد بود. در این پژوهش سعی بر آن شد تا به روشی دست پیدا کنیم که با استفاده از شبکه عصبی ELM ، با سرعت بالا و منابع کمتر بتوانیم طبقه بندی کلان داده را انجام دهیم. کلان داده به علت حجم بالا به طور کامل در حافظه اصلی بارگذاری نمی شود بنابراین ما روشی ارائه دادیم که با بخش بندی مجموعه داده، و آموزش هر بخش بطور مجزا و در نهایت با استفاده از یک مجمع رده بندها که هدف آن استفاده از خرد جمعی یعنی استفاده از نظر همه رده بندهای آموزش دیده می باشد، با حداقل منابع سخت افزاری و در زمانی مناسب به دقتی قابل قبول برسیم که هم قابلیت موازی سازی داشته باشد و هم با روشهای مبتنی بر معماریهای موازی چون نگاشت کاهش و آپاچی اسپارک قابل رقابت باشد. نتایج روش پیشنهادی روی مجموعه داده MNIST دارای نرخ خطای 5.62 درصد می باشد که تفاوت آن با روش هایی که از معماریهای موازی و توزیع شده مانند آپاچی اسپارک و نگاشت کاهش استفاده می کنند، چندان معنادار نمی باشد.
  15. فهم سوال در سیستم­های پرسش و پاسخ با یادگیری عمیق
    1398
    پاسخ دادن به سوال، یکی از شاخه های بازیابی اطلاعات و پردازش زبان های طبیعی است. به طورکلی، سیستم پرسش و پاسخ یک برنامه رایانه ای است که می تواند پاسخ ها را از مجموعه اسناد زبان طبیعی استخراج کند. یکی از حوزه های پرسش و پاسخ، درک مطلب ماشین است. درک مطلب ماشین، توانایی خواندن متن توسط ماشین و پاسخ دادن به سوالات مطرح شده از متن است. به همین منظور سیستم باید همانند انسان قادر به فهم درست کلمات متن و روابط بین آن ها باشد. با توجه به جدید بودن این حوزه، بیشتر روش های ارائه شده مبتنی بر یادگیری عمیق هستند. روش پیشنهادی نیز مبتنی بر یادگیری عمیق است. در ابتدا، داده ها پیش پردازش شده و متن ها و سوالات آن به کلمه و حروف تجزیه می شوند. سپس کلمات با روش پنهان سازی GloVe و حروف با مقداردهی تصادفی به بردار عددی تبدیل می شوند و پس از کدگذاری با شبکه Bi-GRU به صورت متناظر با کلمات پاراگراف و سوال الحاق می شوند. با استفاده از شبکه Bi-GRU ماتریس جملات و سوال کدگذاری شده و به وسیله مکانیسم توجه، توجه متن به سوال به دست می آید. خروجی مکانیسم توجه توسط شبکه یادگیری افزایشی کدگذاری می شود که این شبکه دارای لایه توجه خود تطبیق است. خروجی شبکه جهت تخمین پاسخ مورداستفاده قرارگرفته و پاسخ پیش بینی شده مورد ارزیابی قرار می گیرد. در این پژوهش از مجموعه داده SQuAD استفاده شده و سعی شده روشی ارائه شود که به همراه افزایش سرعت اجرا، دقت و کارایی قابل قبولی ارائه دهد. نتایج بررسی نشان می دهد که مدل پیشنهادی به رشد مناسبی ازنظر سرعت و دقت نسبت به مدل های پیشین دست یافته است.
  16. تشخیص ناهنجاریها در شبکه های اجتماعی با استفاده از تکنیک های مبتنی بر گراف
    1398
    با رشد روز افزون «وب 2» و افزایش استفاده از شبکه های اجتماعی شاهد انقلاب عظیمی در سال 2002 با ظهور شبکه هایی نظیر لینکداین و فیس بوک در سال 2004 رخ داد که تابه حال با جذب میلیاردها کاربر از سرتاسر جهان به یکی از بزرگ ترین شبکه های اجتماعی تبدیل گشته است. شبکه های اجتماعی به دلیل اینکه محدودیت های جغرافیایی موجود در ارتباطات را از بین برده اند، کاربران بیشتری را روزبه روز به سمت خود جذب می کنند. همچنین شبکه های اجتماعی در حوزه های مختلفی از قبیل تجارت، آموزش، بازاریابی از راه دور و موارد زیاد دیگری کاربرد دارند. اما این شبکه ها با گسترش انتشار اطلاعات در آن در معرض سوءاستفاده هایی نیز می باشند ازجمله سرقت هویت ، انتشار اطلاعات جعلی ، هرزه نگاری و غیره که این نوع رفتارها در خلاف سیاست گذاری های آن شبکه هست و معضلات و مشکلات زیادی را پیش روی آن شبکه می گذارند. پیدا کردن این چنین رفتارها در شبکه های مختلف، «تشخیص ناهنجاری ها» نام دارد. روش های مختلف تشخیص ناهنجاری با توجه به محیط اجرای آن ها توسعه داده شده اند که روش های مبتنی بر گراف در شبکه های اجتماعی کارایی زیادی را از خود نشان داده اند. همچنین در میان روش های مختلف تشخیص ناهنجاری، روش های مبتنی بر احتمال به دلیل اینکه نیاز به دانش اولیه و واردکردن داده ها در مورد رفتارهای طبیعی ندارند، از اهمیت ویژه ای برخوردارند و کارایی خود را در ارزیابی ها به خوبی نشان داده اند. در این پایان نامه با بهره گیری از روش های مبتنی بر گراف و روش های آماری بر اساس رفتار افراد در شبکه های اجتماعی، روش بیزین برای تشخیص ناهنجاری ها در شبکه های اجتماعی بهبود داده شد. همچنین روش پیشنهادی به صورت مستقل برای تشخیص ناهنجاری ها استفاده گردید. روش پیشنهادی در محیط پایتون و متلب ، بروی مجموعه داده VAST 2008 اجرا گردید. نتایج نشان داد روش پیشنهادی از دقت بیشتری برخوردار است.
  17. تولید ویدیو از تصاویر با استفاده از شبکه مولد رقابتی
    1398
    پاسخ دادن به سوال، یکی از شاخه های بازیابی اطلاعات و پردازش زبان های طبیعی است. به طورکلی، سیستم پرسش و پاسخ یک برنامه رایانه ای است که می تواند پاسخ ها را از مجموعه اسناد زبان طبیعی استخراج کند. یکی از حوزه های پرسش و پاسخ، درک مطلب ماشین است. درک مطلب ماشین، توانایی خواندن متن توسط ماشین و پاسخ دادن به سوالات مطرح شده از متن است. به همین منظور سیستم باید همانند انسان قادر به فهم درست کلمات متن و روابط بین آن ها باشد. با توجه به جدید بودن این حوزه، بیشتر روش های ارائه شده مبتنی بر یادگیری عمیق هستند. روش پیشنهادی نیز مبتنی بر یادگیری عمیق است. در ابتدا، داده ها پیش پردازش شده و متن ها و سوالات آن به کلمه و حروف تجزیه می شوند. سپس کلمات با روش پنهان سازی GloVe و حروف با مقداردهی تصادفی به بردار عددی تبدیل می شوند و پس از کدگذاری با شبکه Bi-GRU به صورت متناظر با کلمات پاراگراف و سوال الحاق می شوند. با استفاده از شبکه Bi-GRU ماتریس جملات و سوال کدگذاری شده و به وسیله مکانیسم توجه، توجه متن به سوال به دست می آید. خروجی مکانیسم توجه توسط شبکه یادگیری افزایشی کدگذاری می شود که این شبکه دارای لایه توجه خود تطبیق است. خروجی شبکه جهت تخمین پاسخ مورداستفاده قرارگرفته و پاسخ پیش بینی شده مورد ارزیابی قرار می گیرد. در این پژوهش از مجموعه داده SQuAD استفاده شده و سعی شده روشی ارائه شود که به همراه افزایش سرعت اجرا، دقت و کارایی قابل قبولی ارائه دهد. نتایج بررسی نشان می دهد که مدل پیشنهادی به رشد مناسبی ازنظر سرعت و دقت نسبت به مدل های پیشین دست یافته است.
  18. برچسب گذاری تصاویر با استفاده از شبکه مولد رقابتی
    1398
    امروزه با رواج رسانه های اجتماعی و دوربین های دیجیتال، تصاویر دیجیتال برای عموم مردم بیشتر قابل دسترس است. بیشتر کاربران رسانه های برخط مانند Flicker و instagram مایلند تصاویر خود را با آشنایان و دوستان خود به اشتراک بگذارند. معمولا زمانی که کاربران تصاویر خود را به اشتراک می گذارند از کلماتی کوتاه برای توصیف آن تصویر استفاده می کنند، این فرآیند «برچسب زدن تصاویر» یا «تگ زدن تصاویر» می باشد. یک سیستم خودکار تگ زننده باید بتواند برای تصویر تگ های مناسب آن را به دست بیاورد. «برچسب زدن تصاویر» به صورت خودکار یکی از مسائل مهم و کاربردی در حوزه پردازش تصویر است. برچسب زدن تصاویر دارای کاربرد هایی است که از آنها در زمینه توسعه کارهای کامپیوتری استفاده می شود. از جمله این کاربردها می توان به جستجوی سریع تصاویر به کمک برچسب ها، افزایش کیفیت جستجو در موتورهای جستجو، افزایش تعداد بازدیدکنندگان سایت و افزایش کیفیت در اشتراک گذاری تصاویر اشاره کرد. عمل تگ زدن تصویر به طور کلی به سه صورت می تواند انجام شود: 1) به صورت دستی که کاربر خود برای تصویر تگ می زند؛ 2) به صورت نیمه خودکار که یک نرم افزار به کاربر برای تگ زدن کمک می کند؛ 3) به صورت خودکار که نرم افزار تگ تصویر را می زند. برای تگ زدن تصویر نیاز است تا محتوای تصویر به خوبی شناسایی شود. برای درک محتوای تصویر باید ویژگی های مناسب از تصویر شناسایی شود. برای شناسایی ویژگی ها می توان از تکنیک های مختلف یادگیری ماشین مانند شبکه های عصبی عمیق و ... استفاده کرد. موضوع قابل اشاره در اینجا استفاده از شبکه RBM و شبکه عصبی مولد رقابتی است برای ایجاد تگ برای تصاویر است. به طور ضمنی در شبکه مولد رقابتی دو مدل مولد و جداکننده به صورت رقابتی آموزش داده می شوند. این دو شبکه در کنار یکدیگر در یک روند رقابتی آموزش دیده و سعی در تولید داده ها با کارایی بالا دارند. این کار بر روی مجموعه داده های Cifar100 و Corel10k مورد آزمایش قرار می گیرد و نتایج به دست آمده نشان می دهد که مدل طراحی شده در بین مدل های مولد نتایج بهتری به همراه داشته است. همچنین از تصاویر تولید شده توسط شبکه مولد برای بحث افزایش داده استفاده شده و برچسب گذاری انجام می شود که موجل افزایش دقت به دست آمده می شود.
  19. تشخیص موجودیت های هم مرجع با استفاده از شبکه های عصبی عمیق
    1398
    هدف از این پژوهش یافتن موجودیت هایی است که در یک متن، سند یا گفتگو وجود دارند و در دنیای واقعی به ماهیت های یکسانی اشاره دارند. برای این کار پایگاه داده ی conll 2012 shared task dataset را در اختیار داریم که تمام موجودیت های ما در این پایگاه داده موجود است. ما در این پژوهش دو موجودیت را در نظر خواهیم گرفت و سپس تصمیم می گیریم که آیا این دو موجودیت هم مرجع هستند یا خیر. برای تصمیم گیری درباره ی هم مرجع بودن موجودیت ها از شبکه های عصبی عمیق استفاده کرده ایم و آنها نقش کلاس بند سیستم ما را ایفا خواهند کرد. چون برای هر کلاس بند همواره نیاز به تعدادی ویژگی هست ما نیز شروع به استخراج ویژگی های مهم و جداساز کرده ایم. تاکنون از ویژگی های متعددی در کلاس بندی سیستم های تشخیص موجودیت های هم مرجع استفاده شده است. مانند ویژگی های عددی و رشته ای و یا ترکیبی. ما بنا به نیاز خود برای به دست آوردن انواع ویژگی های جداساز سراغ سه پایگاه داده رفته و ویژگی های موردنظر را از آن استخراج نموده ایم. ویژگی های عددی همواره در پردازش زبان های طبیعی از اهمیت بالایی برخوردار بوده اند. در پژوهش ما نیز این ویژگی ها به عنوان یک ویژگی مهم و جداساز لحاظ شده اند. برای ویژگی های رشته ای نیز از بردار ویژگی استفاده کرده ایم و به جای هر جمله یا کلمه یا عبارت بردار ویژگی آن به عنوان ورودی به کلاس بند داده شده است. در ابتدا یک شبکه ی عصبی ساده شروع به کلاس بندی داده های ورودی می نماید. این کلاس بند تنها از یک لایه ی مخفی استفاده می کند. نتیجه ی این کلاس بند موردقبول است اما با توجه به سادگی آن انتظار می رود با به کارگیری کلاس بندی پیچیده تر شاهد نتایج بهتری باشیم. در ادامه از پرسپترون چندلایه استفاده کرده ایم و نتایجش را با شبکه ی عصبی ساده مقایسه می نماییم. سپس به سراغ شبکه ی عصبی کانوولوشن می رویم. انتظار داریم این شبکه عملکرد بسیار خوبی داشته باشد. این شبکه را در حالت های مختلفی آزمایش می کنیم تا بهترین حالت را انتخاب کرده باشیم. بعد از اتمام کار با این شبکه نوبت به ماشین بردار پشتیبان است. هسته ی این ماشین را در مراحل مختلف تغییر داده و نتایج را مدل های قبلی مقایسه می نماییم
  20. کاوش زمانی موضوع با استفاده از روش FCA
    1398
    امروزه اطلاعاتی که در سطح وب وجود دارد، بسیار زیاد است و هرروز این اطلاعات در حال افزایش است، پیدا کردن موضوعات و اطلاعات موردنیاز مشکلی هست که سازمان ها با آن روبه رو هستند، دراین بین یکی از مهم ترین داده ها در سطح وب، داده های سایت توییتر محسوب میشود و علت آن به روز بودن و فراگیر بودن آن است. درنتیجه نیاز به روش هایی که این داده ها را به اطلاعات مفیدتری تبدیل کنند رو به افزایش است. البته این داده ها به علت کوتاه بودن ابعاد برخلاف اسناد معمولی استخراج اطلاعات را با چالش مواجه کرده است. در بین روش های موجود برای کاوش موضوع مدل های موضوعی به خصوص مدل موضوعی دیریکله یکی از محبوب ترین و موفق ترین روش ها محسوب میشود. گرچه این مدل برای اسناد معمول ارائه شده است اما کاوش موضوع با این روش عملکرد مطلوبی ندارد. به همین دلیل اکثر محققان روش های دیگری را برای کاوش موضوع از توییتر ارائه می کنند. درحالی که این روش با محاسبه مقادیر پنهان در داده ها می تواند روابط بین توییت ها را استخراج کند. در این پایان نامه مسئله کاوش زمانی داده های توییتر با ترکیب روش های آماری و منطق ریاضی موردبررسی قرارگرفته اند. در ابتدا داده ها از سایت توییتر جمع آوری شده و سپس برای دقت بهتر اطلاعات وابسته به متن توییت، انتخاب موضوعات را در هر بازه ی زمانی موردتوجه قرار می دهیم. سپس داده هایی که دارای اطلاعات مفید و موردنیاز هستند پالایش می شوند و به عنوان ورودی مدل موضوعی مورداستفاده قرار می گیرند. به منظور افزایش دقت کاوش موضوعات، دیگر روش های کاوش موضوعات برای انتخاب موضوعات برتر مورداستفاده قرار می گردد و سپس برای هر موضوع از روش های مبتنی بر تجزیه وتحلیل مفاهیم رسمی، موضوعات مختلف در هر بازه زمانی به دست می آید. برای ارزیابی کار آیی روش پیشنهادی ابتدا وابستگی بین موضوعات و داده ها بررسی می شوند و سپس نتایج حاصل با دیگر روش های مطرح در مجموعه دادگان مقایسه می گردد. نتایج حاصل از پیاده سازی نشان می دهد که روش پیشنهادی برای کاوش زمانی موضوع به دقت و عملکرد قابل قبولی دست پیداکرده است.
  21. شمارش، کلاس بندی و تشخیص سرعت وسایل نقلیه عبوری از یک محور مبتنی بر پردازش تصاویر ویدئویی
    1398
    تشخیص نوع و سرعت خودروها در جادهها، نقش مهمی در کاربردهای مربوط به سیستمهای حمل و نقل هوشمند جهت افزایش امنیت و سهولت تردد وسایل نقلیه در جادهها ایفا میکند. روشهای موجود برای تشخیص نوع خودرو، روشهایی هستند که با استفاده از حسگرهای مختلف، از جمله حسگرهای مغناطیسی، لیزری، راداری و... اطلاعات مورد نیاز برای تشخیص را بدست آورده و آنها را مورد بررسی قرار میدهند، اما در این میان استفاده از روشهای مبتنی بر تصاویر یا ویدئوها، با توجه به اعتبار مناسب نتایج، مورد توجه قرار گرفتهاند. تشخیص خودرو میتواند در دو سطح صورت گیرد: اینکه نوع خودرو، تنها از نظر ابعاد و ویژگیهای کلی ظاهری آن تعیین شود ) تقسیم بندی به گروههای سواری، سنگین و ... ( و یا اینکه به طور جزئیتر، مدل و شرکت سازنده خودرو هم تعیین شود. در این پایان نامه برای بخش تشخیص خودرو، از ویدئوهای نمای نزدیک و روبرو که از مجموعه دادههای موجود تهیه شده استفاده شده است. در این پایاننامه از الگوریتمهای بلادرنگ مبتنی بر هوش مصنوعی )یادگیری عمیق( برای تشخیص نوع و طبقه بندی کلاس خودروهای عبوری از محورهای مواصلاتی استفاده شده،که سعی بر غلبه بر چالش های جدی روشهای موجود مورد استفاده دارد. در این رویکرد تعداد زیادی از تصاویر موجود در مجموعه دادههای مختلف شامل شش کلاس خودرو، به عنوان دادههای آموزشی به شبکه وارد شده و با استفاده از الگوریتم یادگیری عمیق موسوم به YOLOv3 اقدام به فرآیند شناسایی خودرو شده است. همچنین به منظور ردیابی خودروها در تصاویر ویدئویی پس از شناسایی، الگوریتمهای مختلفی بررسی و در نهایت از الگوریتم Median flow در این پایان نامه بهره گرفته ایم. در پایان نیز با استفاده از الگوریتمهای تشخیص سرعت، روشی به جهت محاسبه سرعت خودروهای عبوری ارائه شده است.
  22. پاسخ به پرسش های مطرح شده از تصاویر به کمک تکنیک های یادگیری عمیق
    1397
    پاسخ گویی به پرسش های مطرح شده از تصاویر (VQA)، یک مسئله ی تحقیقاتی میان رشته ای در هوش مصنوعی است. این مسئله علاوه بر بینایی ماشین، حوزه های دیگری همانند پردازش زبان های طبیعی و نمایش دانش و استدلال را نیز پوشش می دهد. از آن جا که VQA، محیطی عملیاتی برای سنجش درک عمیق تصاویر به حساب می آید، طی سالیان گذشته با اقبال پژوهشگران حوزه ی هوش مصنوعی مواجه شد است. پژوهش پیش رو، به منظور ارائه ی راهکاری برای حل مسئله ی VQA طرح ریزی شده است. با آن که در چند سال گذشته، تمامی روش های سرآمد VQA از معماری های نسبتاً پیچیده ای استفاده کرده اند، اما پژوهش های اخیر نشان می دهد، مدل های ساده تر نیز به شرط پیاده سازی مناسب می توانند عملکردی در حد مدل های پیچیده ارائه نمایند. بر این اساس، در پژوهش جاری تلاش شده است تا مدلی ساده، سریع و قابل فهم برای حل مسئله ی VQA طراحی گردد که عملکرد قابل قبولی نیز داشته باشد. سنگ بنای روش پیشنهادی، بر پایه ی روش Anderson و همکاران ] [ پی ریزی شده است. مهم ترین مزیت این روش، ارائه ی سازوکاری تحت عنوان مکانیزم توجه پایین به بالا برای استخراج ویژگی های تصویر است. روش انتخاب شده با اتکا بر قابلیت فوق العاده ی خود در تشخیص اشیاء موفق به کسب رتبه نخست چالش VQA 2017 شده است. روش پیشنهادی این پژوهش، بر مبنای شبکه های عصبی عمیق بنا نهاده شده و از رویکرد مرسوم تعبیه سازی توام ویژگی های تصویر و پرسش بهره می برد. به صورت خلاصه، مدل پیشنهادی از پنج بخش اصلی تشکیل گردیده است:استخراج ویژگی های تصویر، تعبیه سازی پرسش، مکانیزم توجه، ادغام ویژگی ها و در نهایت تولید پاسخ. روش پیشنهادی پس از پیاده سازی به کمک چارچوب یادگیری عمیق Pytorch، بر روی دیتاست VQA v2.0 ] [ آموزش دیده است. در مسایل یادگیری عمیق، بخش مهمی از هر پژوهش به تنظیم پارامتر های شبکه از طریق اعتبارسنجی و آزمایش های تجربی اختصاص می یابد از این رو، در این پژوهش نیز به قصد دستیابی به مدلی بهینه، آزمایش های فراوانی در جهت انتخاب بهترین معماری و بهینه ترین hyperparameterها صورت پذیرفته است. پس از انجام این فرآیند بهینه سازی، درنهایت، مدلی به دست آمده است که با کسب 65.19 درصد از امتیاز های بخش test-dev دیتاست، در حدود 2 درصد نسبت به روش پایه بهبود داشته است. باوجود این افزایش، اما نتایج نهایی مدل پیشنهادی نسبت
  23. روشی برای بهینه سازی برنامه ریزی تخصیص منابع در رایانش ابری
    1397
    رایانش ابری یک محیط پردازشی توزیع شده بر روی بستر اینترنت، باقابلیت ارائه سرویس های متنوع است. این محیط با کاهش هزینه های سرباری مختلف مثل هزینه دستگاه های پردازشی متنوع و هزینه خرید حافظه های زیاد و افزایش میزان بهره وری مثل استفاده از منابع محاسباتی در دسترس و ارزان، یک بستر محاسباتی قوی را بر اساس ارائه کیفیت خدمات سرویس بین مشتری و فراهم کنندگان ابر ایجاد می کند. یکی از مسائل پیش رو در رایانش ابری زمان بندی وظایف برای تخصیص منابع محاسباتی به وظایف به صورتی که در کمترین زمان به درخواست ها پاسخ داده شود، است. مسئله ی زمان بندی در رایانش ابر، تکنیکی برای توزیع عادلانه ی منابع بین مشتریان است که به منظور دستیابی به بهره وری بهینه ی منابع با کمترین زمان پاسخ است. امروزه کارهای بسیاری در این حوزه صورت گرفته است و الگوریتم های متنوعی به منظور بهبود در هزینه یا زمان زمان بندی وظایف در محیط رایانش ابر ارائه شده است. ازجمله ی این الگوریتم ها می توان به الگوریتم های ژنتیک، ازدحام ذرات، کلونی مورچه، جهش قورباغه و غیره، اشاره کرد. در این پایان نامه با توجه به این که الگوریتم کلونی مورچه دیر به جواب می رسد و الگوریتم ازدحام ذرات به صورت تصادفی مسیر خود را انتخاب می کند، از این دو الگوریتم برای پوشش معایب یکدیگر استفاده شده است تا بتوان نتیجه ی دقیق تر و سریع تری به دست آورد. در این تحقیق، به کمک الگوریتم کلونی مورچه یک جمعیت اولیه برای الگوریتم ازدحام ذرات ایجاد می شود. در این حالت، جمعیت اولیه ی دقیق-تری نسبت به انتخاب تصادفی جمعیت اولیه خواهیم داشت. درنتیجه ذرات می توانند همه ی نقاط را تحت پوشش قرار دهد و در نقطه بهتری از این لحاظ که کدام ماشین مجازی برای تخصیص درخواست مناسب تر است همگرا شوند. در این تحقیق، برای ارزیابی از شبیه ساز مناسب رایانش ابری که کلودسیم است، برای ارزیابی استفاده شده است. درنتیجه ی این تحقیق الگوریتمی ارائه می شود که الگوریتم های مورداستفاده را بهبود بخشد و نتیجه ی بهینه تری از الگوریتم های پیشین در ارزیابی بدهد.
  24. برچسب گذاری تصاویر بدون نمونه آموزشی با کمک شبکه های عصبی بازگشتی
    1397
    امروزه، تصاویر نقش مهمی را در جا به جایی و انتقال اطلاعات و مفاهیم بر عهده دارند. تصویر برداری شخصی و اشتراک تصاویر در رسانه های اجتماعی، صفحات اینترنتی، مباحث علمی همچون هواشناسی و زمین شناسی، مسائل جرم شناسی همچون تشخیص چره و اثر انگشت و .... همگی نمونه هایی از کاربرد تصاویر در عرصه های مختلف هستند. برای استفاده از تصاویر در موارد ذکر شده، نیازمند روش هایی هستیم که به صورت خودکار به بررسی و تحلیل تصاویر بپردازند. برچسب زنی و طبقه بندی تصاویر، از جمله مواردی است که در سال های اخیر، در زمینه پردازش تصاویر بسیار مورد توجه قرار گرفته است. یکی از چالش های موجود در این راستا، محدودیت های مجموعه دادگان تصاویر، در زمینه برچسب گذاری و توصیف تصاویر است. چرا که به صورت روزمره عناوین و مفاهیم و احساسات جدیدی به تصاویر نسبت داده می شود که همگی آن ها در مجموعه داده های مورد استفاده قابل ذخیره سازی نیستند. از این رو ارائه روش های که بتوانند بدون نمونه های آموزشی به برچسب زنی تصاویر بپردازند؛ به یکی از مسائل چالش برانگیز در سال های اخیر تبدیل شده است.
  25. تشخیص نقل به مضمون با استفاده از تکنیک های یادگیری عمیق
    1397
    چکیده: تشخیص نقل به مضمون یکی از مسائل مهم در حوزه پردازش زبان های طبیعی است. نقل به مضمون به جملات یا عباراتی اشاره می کند که معنی و مفهوم یکسانی را به خواننده منتقل می کنند اما ساختار و کلمات آن ها با هم متفاوت است. این مسئله کاربردهای فراوانی در حوزه پردازش زبان های طبیعی دارد. ازجمله این کاربردها می توان به استفاده آن در خلاصه سازی متن، ترجمه ماشینی، سیستم های پرسش و پاسخ، تشخیص سرقت ادبی و موتور های جستجو اشاره کرد. در این پژوهش، ابتدا مسئله با چندین روش مرسوم مانند وزن دهی TF-IDF و استفاده از طبقه بند هایی همچون ماشین بردار پشتیبان، حل و ارزیابی شده است. سپس با استفاده از نتایج بدست آمده از این روش ها، یک مدل جدید برای تشخیص نقل به مضمون ارائه شده است. مدل پیشنهادی را می توان به دو بخش تقسیم نمود. در بخش اول که مسئله با تکنیک های یادگیری عمیق حل می-شود، جملات پس از عبور از مرحله پیش پردازش، با استفاده از تکنیک پنهان سازی GloVe به بردار هایی عددی تبدیل می-شوند. خروجی این لایه پنهان سازی سپس به یک شبکه Bi-LSTM برای بیان کردن کل جمله داده می شود. پس از اتمام آموزش مدل، خروجی این شبکه به عنوان ویژگی های استخراج شده برای هر جمله در نظر گرفته می شوند. در بخش دوم، یک سری ویژگی دستی برای بیان کردن میزان شباهت معنایی بین دو جمله معرفی می شوند. از میان این ویژگی ها، تعدادی از آن ها جدید بوده و برای اولین بار در این پژوهش معرفی شده اند. مدل پیشنهادی از ترکیب ویژگی های بدست آمده در این دو بخش حاصل می شود. دو مجموعه داده با نام های MSRP و Quora برای ارزیابی مدل پیشنهادی در نظر گرفته شده اند. نتایج مدل برای مجموعه داده MSRP نشان می دهد که این مدل تقریبا از تمام پژوهش های انجام شده، کارایی بهتری از نظر صحت و f-measure را کسب می کند. نتایج ارزیابی مدل برای مجموعه داده Quora نیز کارایی قابل قبول و قابل مقایسه ای با سایر پژوهش های انجام شده روی این مجموعه داده را نشان می دهد. به طوری که مدل پیشنهادی جزء 24 درصد برتر روش ها از میان بیش از 3000 تیم در سایت Kaggle است. نتایج ارزیابی همچنین نشان می دهد که مدل پیشنهادی برای مجموعه داده-هایی با تعداد نمونه های کم، کارایی بهتری در مقایسه با سایر مدل های جدید دارد.
  26. تشخیص سرقت ادبی از نوع نقل به مضمون
    1397
    سرقت ادبی استفاده دوباره با کپی کردن متنی بدون ارجاع به نویسنده ی اصلی است. تشخیص سرقت ادبی به مجموعه راهکارهایی گفته می شود که استفاده از آن ها به کشف دستبرد علمی منجر می شود. استفاده از تکنیک های یادگیری ماشین و شبکه عصبی مصنوعی یکی از روش های مرسوم جهت تشخیص سرقت ادبی است و این روش ها سرعت کشف و بازدهی خوبی دارند ولی چیزی که تشخیص سرقت ادبی را مشکل می کند وقتی است تشخیص سرقت ادبی از نوع نقل به مضمون ، paraphrase plagiarisim، اتفاق می افتد . برای تشخیص سرقت ادبی از نوع نقل به مضمون در این پژوهش از ترکیب روش های واژگانی، نگارشی، معنایی استفاده شده است، با پیش پردازش اسناد مورد بررسی و تبدیل برداری رشته های لغوی جملات اصلی و غیر اصلی داده های خود را جهت بررسی آماده کردیم، ازالگوریتم jaccard و الگوریتم lcs در سه حالت برای تشخیص سرقت ادبی از نوع واژگانی و ساختاری استفاده شده است،تابع lcs متقاطع و lcs معکوس برای به دست آوردن سرقت ادبی از نوع نقل به مضمون ارائه شده است واز آنجاکه هر چه پایگاه دانش غنی تر شود تشخیص سرقت ادبی معنایی بهبود می یابد، از تبدیل های برداری word2vec و glove استفاده شده است، برای ساخت پایگاه دانش شبکه در glove از همان داده های آموزش خود این پایگاه را ساختیم و بردارهای عددی جملات را جهت بررسی استخراج کردیم ولی در word2vec از پایگاه دانشی که گوگل آن را با داده های متنی گسترده ای آموزش داده بود استفاده کردیم و داده های عددی را از آن استخراج کردیم. در مجموع تعداد نه ویژگی بدست آمده از روش های مختلف را جهت آموزش به شبکه دادیم و در طبقه بندی شبکه از طبقه بنده های مختلف مثل svm,naive bayse,rbf استفاده کردیم و به بررسی آنها روی داده های متنی پرداختیم و به این نتیجه رسیدیم که بهترین حالت ترکیب طبقه بندها بوده است که در این حالت توانستیم تشخیص سرقت ادبی را بهبود ببخشیم و به بازدهی 75.8 برسیم.
  27. بازیابی تصویر مبتنی بر محتوا با استفاده از مدل کیسه ای از واژگان چند سطحی
    1396
    بازیابی تصویر مبتنی بر محتوا استفاده از روش های بینایی ماشین برای بازیابی تصاویری از یک مجموعه است که ازنظر محتوا به تصویر پرسش شبیه باشند. چالش اصلی سیستم های بازیابی تصویر کاهش شکاف معنایی بین ویژگی های دیداری سطح پایین تصویر و مفاهیم سطح بالای موجود در آن است. دلیل اصلی شکاف معنایی این است که پیکسل ها و تکه های تصویر در بیشتر موارد مفاهیم معنایی کمی را با خود حمل می کنند. یکی از روش های کاهش این فاصله استخراج ویژگی های سطح بالا در بازیابی تصویر است. از طرفی برای تفکیک تصاویری از دو گروه مختلف که به وسیله ویژگی های سطح بالا قابل تفکیک نیستند، به ویژگی های سطح پایین نیز احتیاج داریم. در این پژوهش ویژگی های دیداری در چهار سطح پیکسل، ناحیه، شیء و مفهوم استخراج شده و تصاویر در این چهار سطح با استفاده از مدل کیسه ای از واژگان نمایه سازی می شوند. سپس از همجوشی اطلاعات این چهار سطح به منظور کاهش شکاف معنایی و بهبود دقت و فراخوانی بازیابی استفاده می شود. در سطح پیکسل ویژگی های SIFT، فیلتر گابور و گشتاورهای رنگ از تصاویر استخراج می شود. در سطح ناحیه ابتدا تصویر با استفاده از الگوریتم Jseg به چند ناحیه افراز شده و سپس ویژگی های رنگ و بافت با استفاده از توصیفگر Hue و LBP از هر یک از نواحی تصویر استخراج می شود. در سطح شیء از شبکه عصبی کانولوشنی AlexNet برای بازشناسی اشیاء و صحنه های درون تصویر استفاده می شود و در سطح مفهوم از بازنمایی برداری واژگان متناظر با این اشیاء و صحنه ها، برای سنجش شباهت معنایی تصاویر استفاده می شود. بازنمایی برداری واژگان با استفاده از شبکه عصبی Word2vec انجام می شود. برای ساختن یک سیستم بازیابی تصویر مبتنی بر محتوای چندسطحی نیز از دو راهکار همجوشی در سطح تصمیم و همجوشی ویژگی ها استفاده شده است. نتایج این مطالعه امکان سنجی روش پیشنهادی و بهبود عملکرد کلی سیستم بازیابی را در مجموعه تصاویر مختلف تائید می کند.
  28. ارائه یک روش ترکیبی و نیمه نظارتی مبتنی بر گراف برای برچسب زنی خودکار تصاویر
    1396
    با رشد سریع تعداد تصاویر تولیدشده در صفحات وب و شبکه های اجتماعی سازمان دهی و بازیابی تصاویر به روشی موثر و کارا به وسیله موتورهای جستجو یکی از حوزه های پژوهشی فعال می باشد. موتورهای جستجو در بازیابی داده های متنی دقت و سرعت مناسبی دارند و این امر باعث شده است تا پژوهشگران جهت بازیابی تصاویر، ابتدا مجموعه دادگان حاوی تصاویر را با اطلاعات متنی برچسب زنی کنند و سپس بازیابی را در حوزه متن انجام دهند. برچسب زنی تصاویر می تواند به صورت دستی یا خودکار انجام گیرد. درروش دستی، برچسب زنی تصاویر توسط افراد خبره انجام می پذیرد. به دلیل رشد سریع تعداد تصاویر تولیدشده در صفحات وب و شبکه های اجتماعی، استفاده از این روش بسیار وقت گیر، خسته کننده و پرهزینه و عملاً غیرقابل استفاده می باشد، ازاین رو روش های برچسب زنی خودکار تصاویر معرفی شدند. در سامانه های بازیابی تصویر، برچسب زنی خودکار تصویر به عنوان یک مرحله اولیه و پیش پردازشی در سیستم در نظر گرفته می شود. یادگیری نیمه نظارتی نوعی از روش های یادگیری ماشین است که از داده های برچسب دار و بدون برچسب استفاده می کند. روش های یادگیری معمول به دودسته یادگیری با نظارت و بدون نظارت تقسیم می شود. در روش های یادگیری بدون نظارت همه داده های آموزشی بدون برچسب بوده اند و در یادگیری با نظارت همه داده های آموزشی دارای برچسب هستند. هدف از یادگیری نیمه نظارتی این است که به این پرسش پاسخ داده شود که چگونه می توان با ترکیب داده های برچسب دار و بدون برچسب رفتار یادگیری را تغییر داد و الگوریتم هایی را طراحی کرد که از فواید این ترکیب ها استفاده کنند. یادگیری نیمه نظارتی در یادگیری ماشین و داده کاوی بسیار موردعلاقه است زیرا به آسانی می توان با داده های بدون برچسب در دسترس کارایی یادگیری بانظارت را با توجه به عدم دسترسی و گران بودن داده های با برچسب بالا برد. توجه به روشهای یادگیری نیمه نظارتی مبتنی بر گراف در سالهای اخیر رشد چشمگیری یافته است. دلیل این امر را می توان ارائه ساختار شباهت و تفاوت برای تصاویر بر اساس گراف دانست که در آن خواصی نظیر همسایگی راس ها، فاصله و مسیرهای بین راس ها و همچنین توازن و تراکم راس ها در نواحی گراف با مفاهیم طبیعی قابل درک برای انسان قرابت زیادی دارد.پژوهش حاضر در مورد برچسب زنی تصاویر با استفاده از روش های یادگیری نیمه نظ
  29. طراحی نرم افزار جیره نویسی گاوهای شیری
    1396
    امروزه از نرم افزار های مختلفی جهت جیره نویسی دام های شیری در ایران استفاده می شود که برخی از آن ها تحت ویندوز هستند و برخی دیگر بر پایه صفحات گسترده اکسل طراحی شده اند. تمام این نرم افزار ها به زبان انگلیسی هستند و از آن جایی که بیش از 75 درصد گاوداری های ایران به صورت سنتی اداره می شود استفاده از آن ها برای کاربران ایرانی و دامپروران سنتی و تا حدودی برای دامپروران صنعتی مشکل است. همچنین نرم افزار های رایج در کشور متناسب با نیاز های ایران نیستند و خوراک های موجود در کتابخانه خوراک آن ها با خوراک هایی که در دامداری های ایران استفاده می شود تفاوت دارد. نرم افزار جیره نویسی BASU Dairy یک نرم افزار تحت ویندوز به زبان فارسی است که از رابط کاربری ساده و روانی برخوردار است. این نرم افزار متناسب با نیاز کاربران ایرانی و بر اساس خوراک و شرایط موجود در ایران طراحی و توسعه پیدا کرده است. برای طراحی این نرم افزار از زبان برنامه نویسی سی شارپ استفاده شد و دیتابیس اکسس برای کتابخانه خوراک آن انتخاب شد. این نرم افزار بر اساس استاندارد NRC 2001 نوشته شده است و سعی شده تا ایرادات نرم افزار مشابه خود را برطرف نماید و با ظاهری کاملا متفاوت جیره نویسی برای دام های شیری را در سریعترین زمان و ساده ترین شکل ممکن به انجام برساند.
  30. استخراج اطلاعات از متن نظرآنلاین کاربران به کمک مدل سازی موضوعی
    1395
    برای تولیدکنندگان، مقایسه عقاید مشتریان درباره ی محصولاتشان و محصولات رقبایشان برای کشف نقاط ضعف و قوت جهت موفقیت در بازاریابی و تعیین جایگاه کالا بسیار مهم است. مصرف کنندگان نیز با توسعه وب و شبکه های اجتماعی نظرات خود را درباره ی محصول با دیگران به اشتراک می گذارند که این نظرها به عنوان یک منبع مهم می تواند مورد استفاده قرار بگیرد. عقاید منفی نسبت به عقاید مثبت برای تولید کنندگان جهت پیدا کردن مشکلات محصول و دلیل نارضایتی از محصول مهم تر است. هدف ما در این پژوهش استخراج نظرات حاوی گزارش نقص جهت کمک به تولید کنندگان در تصمیم گیری های کاربردی است. در این پژوهش تکنیک های محاسبه ی تشابه اسناد توسط OkapiBM25، طبقه بندی با جنگل تصادفی، خوشه بندی Kmeans، مدل سازی آماری میدان تصادفی شرطی، مدل سازی موضوعی و بازیابی اسناد را بررسی کردیم. برای تحلیل و ارزیابی روش های پیشنهادی از داده های جمع آوری شده وب سایت آمازون استفاده کردیم. روش جنگل تصادفی را برای تشخیص گزارش نقص و تکنیک بدون ناظر مدل سازی موضوعی تخصیص پنهان دیریکله را برای ارائه ی خلاصه ای از گزارش نقص در نظر گرفتیم. نتایج نشان داد جنگل تصادفی با تعداد کم داده های آموزشی عملکرد خوبی برای کشف گزارش نقص دارد و می توان با استفاده از روش تخصیص پنهان دیریکله اطلاعات مناسبی از اسناد حاوی گزارش نقص گزارش به دست آورد.
  31. نظرکاوی جنبه گرا به کمک استخراج روابط معنایی
    1395
    یکی از دغدغه‎های مصرف کننده‎ محصولات، داشتن یک پیش زمینه ذهنی با توجه به نظرات خریداران قبلی، نسبت به یک محصول، قبل از تصمیم گیری برای خرید آن است.در کنار مصرف کنندگان، تولیدکنندگان هم برای بهبود محصولات قبلی و پیشی گرفتن در بازار فروش نسبت به رقیبان به نظرات مصرف کنندگان محصولات خود اهمیت می‎دهند. امروزه با افزایش تولید برخط محتوا توسط کاربران در شبکه‎های اجتماعی درباره یک شی واقعی یا انتزاعی، امکان رسیدن به اهداف بالا فراهم شده است. اما وجود انبوهی از اطلاعات، تحلیل آن ها را سخت کرده است به همین دلیل نظرکاوی از جایگاه ویژه‎ای در متن کاوی برخوردار است. نظرکاوی رشته ای از مطالعات است که در آن عقیده، احساس، ارزیابی، گرایش و هیجان مردم از زبان نوشتاری تحلیل می‎شود. نمونه‎ای از نظرکاوی، نظرکاوی ریزدانه جنبه گرا است که در آن جنبه‎های مهم یک قلم از متن نظر استخراج شده و جهت‎گیری هر جنبه بر اساس احساس ذکرشده تخمین زده می‎شود. در اینجا هر جنبه ویژگی یا جزئی از یک قلم و جهت گیری همان ارزش عددی بیان کننده احساس کاربر است. ما در این پژوهش با استخراج ویژگی‎های معنایی متن و استفاده از میدان تصادف شرطی به عنوان مدل یادگیر، جنبه‎های نهفته در متن نظرات را استخراج کردیم. نتایج آزمایش ها نشان می دهد که روش مورد استفاده در این پژوهش عملکردی قابل رقابت با بهترین روش‎های موجود روی مجموعه دادگان Semeval2014 دارد.
  32. رتبه بندی صفحات وب در جستجوی مفهومی به کمک روابط ساختاری و معنایی بین مفاهیم
    1395
    هدف از این پژوهش، رتبه بندی صفحات وب با استفاده از اطلاعات مفهومی و معنایی بین مفاهیم می باشد. یکی از روش های موثر و متداول رتبه بندی، مدل فضای برداری است. درمدل فضای برداری، اسناد به شکل بردارهایی هستند که هر مولفه آن، وزن مربوط به واژه خاصی است. در این مدل، واژگان با استفاده از روش هایی وزن دهی می شوند. در صورت وجود واژه در سند متناسب با روش در نظر گرفته شده، وزن دهی شده و در صورت عدم وجود واژه در سند، وزن صفر می گیرند. درصورتی که می دانیم واژگان می توانند تعدادی معادل معنایی داشته باشند که با مدل فضای برداری، آنها در نظر گرفته نمی شوند . جهت رفع چنین نقطه ضعفی، تاکنون روش های جستجوی معنایی متعددی ارائه شده اند. یکی از این روش های متداول، گسترش پرس وجو یا اضافه نمودن واژگان دارای معنی مشترک با آن واژه به پرس وجو است. این واژگان بایستی با دقت به معنا و مفهوم خود در متن زمینه آن واژه انتخاب شوند؛ در غیر اینصورت تنها اثر آن منحرف ساختن بردار پرس وجو از بردار پرس وجوی بهینه است.
  33. شناسایی و دسته‎بندی ترافیک رمز شده TOR به کمک روش‎های یادگیری ماشین
    1394
    شناسایی و دسته‎بندی ترافیک‎های شبکه بر اساس نوع نرم‎افزار برای کارهای مختلف کنترلی و نظارتی شبکه همانند ایجاد صورت‎حساب، کیفیت خدمات، نظارت بر ترافیک شبکه و مهندسی ترافیک بسیار اهمیت دارد. این موارد کنترلی و نظارتی نیازمند این هستند که بدانند چه نوع ترافیکی در حال عبور از شبکه است تا با توجه به خط مشی از پیش تعریف شده ای، قانون یا قوانینی را بر ترافیک موردنظر اعمال نمایند. امروزه بسیاری از نرم‎افزارهای شبکه به دلایل مختلفی همچون محرمانگی داده، احراز هویت و مواردی دیگر از رمزنگاری استفاده می‎کنند. این نرم‎افزارها علاوه بر رمز کردن داده‎هایشان، معمولا از درگاه‎های تصادفی غیر مشهور بهره می‎برند. ازاین جهت، روش‎های شناسایی و دسته‎بندی ترافیک‎های اینترنتی همانند روش‎های مبتنی بر درگاه و مبتنی بر محتوا نمی‎توانند برای شناسایی این ترافیک‎ها مورد استفاده قرار بگیرند. بنابراین ضروری است از روش‎های دیگری بهره گرفته شود که روش‎های یادگیری ماشین می‎توانند در این زمینه بسیار سودمند باشند. روش‎های یادگیری ماشین برای شناسایی نرم‎افزارهای شبکه، بر اساس اطلاعات آماری در هر جریان عمل می‎کنند. این اطلاعات آماری از ویژگی‎های مستقل از محتوا همانند اندازه بسته، فاصله زمانی بین ورود بسته‎ها و غیره نشات می‎گیرند. در این پژوهش، ترافیک رمز شده TOR (ترافیک‎ افزونه‎های Obfs3 و Scramblesuit) با استفاده از این روش‎ها مورد شناسایی و دسته‎بندی قرار می‎گیرد. بدین منظور از شش الگوریتم یادگیری ماشین و 40 ویژگی آماری استفاده شده است. برای این‎که بتوانیم به صورت آنلاین ترافیک TOR را از ترافیک‎های پس‎زمینه شناسایی کنیم، از چند بسته ابتدایی جریان استفاده می‎کنیم. در ابتدا جریان‎ها را با استفاده از 40 ویژگی آماری دسته‎بندی می‎کنیم و سپس به منظور کاهش تعداد ویژگی‎های استفاده‎شده، دسته‎بندی با استفاده از حداقل 8 و حداکثر 12 ویژگی انجام می‎شود. نتایج به دست آمده حاکی از آن است که می‎توان به خوبی ترافیک TOR را با استفاده از چند بسته ابتدایی جریان شناسایی کرد.
  34. کلاسه بندی تصاویر اثرانگشت با استفاده از ویژگی های سطح پایین تصویر
    1394
    امروزه ویژگی های رفتاری و فیزیکی متعددی از انسان ها برای شناسایی آن ها به کار می رود. مهم ترین مشخصه بیومتریکی که برای تائید یا تعیین هویت افراد به کار می رود اثرانگشت است. افزایش تعداد افراد جوامع از یک سو و گسترش بانک های اطلاعاتی اثرانگشت از سوی دیگر، عمل شناسایی اثرانگشت به صورت سنتی را غیرممکن کرده و نیاز به خودکار سازی عمل شناسایی اثرانگشت افزایش یافته است. در سیستم های خودکار تشخیص هویت که بر اساس اثرانگشت کار می-کنند، یک تصویر اثرانگشت ورودی باید با کلیه ی تصاویر موجود در پایگاه داده مقایسه شود که این کار بسیار وقت گیر و پرهزینه است. درنتیجه نخستین مرحله در فرآیند شناسایی خودکار اثرانگشت، کلاسه بندی پایگاه داده مربوطه است.کلاسه بندی یک مجموعه بزرگ از تصاویر اثرانگشت به چندین زیرمجموعه، زمان جستجو و شناسایی یک تصویر اثرانگشت ناشناخته در آن مجموعه را به طور چشمگیری کاهش می دهد. یک سیستم بازیابی مبتنی بر محتوا معمولاً شامل دو بخش استخراج ویژگی و کلاسه بندی است. اولین مرحله روش پیشنهادی انجام پیش پردازش روی تصاویر پایگاه داده است. پس ازآن ویژگی های مختلف از تصاویر استخراج می شوند. اولین ویژگی از تصویرِ جهت به دست می آید. ویژگی بعدی نیز از اعمال تبدیل موجک بر روی تصویرِ جهت به دست می آید که تصویر تا پنج سطح تجزیه شده و ضرایب موجک سطوح دوم تا پنجم به عنوان ویژگی به کار می روند. این ویژگی ها با استفاده از کلاسه بند شبکه عصبی پرسپترون چندلایه به پنج کلاس مارپیچی ، کمانی ، کمانی شکسته ، حلقه ی چپ ، حلقه ی راست تقسیم می شوند. معیار دقت، برای ارزیابی سیستم پیشنهادی به کاررفته است. پیاده سازی روش مذکور بر روی پایگاه داده Nist و نتایج آزمایش ها و مقایسه آن ها با کارهای پیشین انجام شده در زمینه کلاسه بندی تصاویر اثرانگشت، حاکی از کارایی بالای روش پیشنهادی هستند.
  35. کاهش نویز و بهسازی گفتار با استفاده از اطلاعات زبانی و مشخصات گوینده
    1393
    گفتار ابزار اولیه ارتباط بین انسان هاست. انسان ها به کمک گفتار، مفاهیم متفاوتی را به مخاطبان خود انتقال می دهند. همچنین گفتار ابزاری مناسب برای انتقال دانسته ها، انتقال مفاهیم ذهنی و احساسات درونی نیز به حساب می آید. برتری بارز گفتار بر نوشتار متناظر با آن این است که گفتار اطلاعات جانبی بیشتری را به شنونده انتقال می دهد که بعضا هدف اصلی بیان جملات نیز انتقال همین اطلاعات است. یکی دیگر از ویژگی های بارز گفتار، سهولت انتقال آن به مخاطب است. سیگنال گفتار، سیگنال زمانی یا نگاشتی است از فشار هوایی که با میکروفون احساس می شود. برای اینکه سیگنال ضبط شده کیفیت مناسب داشته باشد طبق قضیه نایکوئیست باید حداقل دو برابر ماکزیمم فرکانس موجود در سیگنال، نمونه-برداری شود. سیگنال گفتار، سیگنال نا ایستان بوده و خواص آماری آن در طول زمان تغییر می کند. به همین دلیل تحلیل سیگنال در بازه های کوتاه انجام می شود. بهسازی گفتار بسته به مساله، هدف آن، ویژگی های نویز و امکانات موجود قابل بررسی است. از این رو روش های متفاوتی جهت بهسازی سیگنال گفتار ارائه شده است، که مواردی نظیر فیلتر وینر، فیلتر وفقی، تفریق طیفی، روش های مبتنی بر تبدیل موجک و روش های آماری را می توان نام برد. هیچ کدام از روش های بهسازی گفتار ارائه شده تا کنون قادر به کاهش یا حذف نویز به صورت موثر و در همه شرایط نویزی نیستند و همه روش ها فقط از خود سیگنال برای حذف نویز استفاده می-کنند و برای بهبود گفتار اطلاعات زبانی و مشخصات گوینده را در نظر نمی گیرند. اطلاعات زبانی و مشخصات گوینده، دو ویژگی مهم از گفتار هستند که گفتار را از نویز متمایز می کنند. در این پایان نامه، روشی پیشنهاد شده است که بدون نیاز به اطلاعات پیشین درباره ماهیت نویز، این دو ویژگی را از سیگنال گفتار استخراج نموده و بر اساس آن ها به بهسازی گفتار می پردازیم. با توجه به گفتار نویزی، رویکرد جدید گفتار تمیز را از طریق شناسایی بخش های طولانی مجموعه کلی تخمین می زند. در بازشناسی از جملات گفتار تمیز پیکره که شناسایی شده به عنوان نمونه استفاده می شود؛ تطابق بین بخش های جمله نویزی و جملات پیکره شناسایی می شود. تخمین نیز با بخش های مطابقت یافته طولانی شکل می گیرد. تطابق بخش های طولانی تر، اطلاعات زبانی و مشخصات گوینده قوی تری نسبت به بخش های گفتار کوتاه تر دارد. بنابراین، ت
  36. روشی انرژی آگاه برای مهندسی ترافیک درون دامنه ای به کمک روش های هوش محاسباتی
    1393
    مهندسی ترافیک انرژی آگاه، به دنبال تخصیص بارهای ترافیکی به منابع است. این تخصیص باید به نحوی باشد که برخی تجهیزات کم ترافیک خاموش شوند و بار مربوط به آن ها از مسیرهای دیگر انتقال یابد. خاموش کردن این تجهیزات، صرفه جویی انرژی را در پی خواهد داشت. در این پایان نامه، یک روش مبتنی بر الگوریتم های ژنتیک برای مهندسی ترافیک انرژیآگاه در شبکههای درون دامنهای ارائه میدهیم. در روش پیشنهادی هر کروموزوم معادل یک توپولوژی است و ژن های کروموزوم معادل گره های میانی و لینک های توپولوژی هستند. کروموزوم های جدید از کروموزوم های قبلی بدست می آیند تا در نهایت به کروموزومی دست یابیم که ژن های غیرفعال بیشتری دارد. کروموزومی با این خصوصیت معادل توپولوژی ای با مصرف انرژی بهینه خواهد بود. این توپولوژی زمانی مورد قبول خواهد بود که محدودیت بهره وری بیشینه لینک را نیز لحاظ می کند. نتایج شبیهسازی در شبکه Abilene و Extended Abilene به همراه انواع مختلفی از ماتریس ترافیک واقعی نشان می دهد که می توان تعدادی از گره های میانی و لینک ها را، با تضمین کیفیت سرویس ، در زمانی که ترافیک حجم کم یا متوسطی دارد، خاموش کرده و انرژی مصرفی را تا حدود 40 درصد ذخیره نمود.
  37. روشی انرژی آگاه برای مهندسی ترافیک درون دامنه ای به کمک روش های اکتشافی
    1393
    در روشهای معمول مهندسی ترافیک، تمامی مسیریابهاو پورتهای مختلف آنها، صرفنظر از میزان بار ورودی به شبکه همیشه فعال بوده و بنابراین انرژی مصرف میکنند. از طرفی میانگین بهره وری لینکها در شبکه های ارائه دهنده خدمات اینترنتی تقریبا پایین بوده و حداکثر در حدود 30 تا 40 درصد است. بر همین اساس، هدف روشهای مهندسی ترافیک انرژی آگاه این است که بر اساس وضعیت بار موجود بر روی لینکها و نیز حجم تقاضای ورودی، مسیرهای هدایت داده را به نحوی تغییر دهند که بتواند برخی گرهها/لینکهای کم ترافیک را خاموش نموده و بار تخصیص یافته به آنها را بر روی مسیرهای دیگر قرار دهد تا از این رهگذر انرژی مصرفی کل شبکه را کاهش دهد. در این پایان نامه، پس از ارائه چند الگوریتم مهندسی ترافیک انرژی آگاه، در نهایت یک روش اکتشافی برای مهندسی ترافیک انرژیآگاه در شبکههای درون دامنهای ارائه میدهیم. در روش پیشنهادی ابتدا لینکها به ترتیب بهره وری آن ها و اندیسی که به هر لینک متناسب با میزان تاثیر خاموش کردن آن در انرژی مصرفی داده ایم، مرتب می شوند. سپس، لینک های مرتب شده به ترتیب برای غیرفعالسازی موقت آزمایش می شوند. نتایج شبیهسازی در شبکه Abilene و Extended Abilene به همراه انواع مختلفی از ماتریس ترافیک واقعی نشان می دهد که می توان تعدادی از گره های میانی و لینک ها را، با رعایت تضمین کیفیت سرویس، در زمانی که ترافیک حجم کم یا متوسطی دارد، خاموش کرده و انرژی مصرفی را تا حدود 35 درصد ذخیره نمود.
  38. تشخیص تقلب متون علمی به کمک روابط معنایی و ساختاری
    1393
    یکی از معضلات موجود در عصر حاضر مبحث تقلب متون است. افراد بسیاری با استفاده از نوشته جات دیگران برای خود مطالبی تهیه و به نام خود ارائه می دهند. تشخیص تقلب می تواند ما را در بررسی صداقت آنان یاری نماید. تقلب متون به شکل های مختلفی چون کپی و جایگزینی، بازگردانی، کپی و ادغام از منابع مختلف، درج متن اضافی، ترجمه، نقل قول، دادن مرجع اشتباه، سرقت ایده و خلاصه سازی باشد. آشکارسازی تقلب توسط روش ها و الگوریتم هایی بسیاری پیگیری می شود که هر کدام با بهره گیری و بررسی متن از جنبه های مختلف در صدد شناسایی شباهت متون برآمده اند. می توان روش ها را در روش های مبتنی بر شباهت رشته ای، مبتنی بر خوشه بندی، مبتنی بر ساختار و قالب متن، مبتنی بر نحو، مبتنی بر معنا، مبتنی بر بردار، مبتنی بر منطق فازی و غیره دسته بندی نمود. در این پایان نامه یک روش مبتنی بر ساختار و نحو و دو روش مبتنی بر معنا معرفی شده اند. در روش ساختاری از LexParser برای مشخص نمودن وابستگی نحوی بین کلمات استفاده شده است، تعداد وابستگی مشترک را استخراج نموده و شباهت حاصل می شود.در روش های مبتنی بر معنا از پایگاه داده وردنت استفاده شده است. (وردنت پایگاه داده ای شامل مفاهیم انگلیسی و روابط معنایی بین آن ها است. در این پایگاه داده روابط معنایی عام و خاص، جز و کل، استلزام، علیت، شباهت، تضاد، هم چنین، خصلت، گروه بندی افعال، اشتقاق، وجه وصفی، صفت وابسته، دامنه و عضو دامنه، Domain و Member تعریف شده است). در روش پیشنهادی اول، کلمات دو جمله را در وردنت پیدا می کنیم سپس اجداد آن ها را با توجه به رابطه Hypernym، پدران کلمات مشخص می شود، در ادامه اولین پدر مشترک کلمات را پیدا نموده با توجه به فاصله کلمه از پدر مشترک و تعداد اجداد مشترک شباهت کلمات تعیین می گردد. حال با استفاده از الگوریتم DTW می توان شباهت دو جمله را مشخص نمود. نتایج آزمایش روش های پیشنهادی و مقایسه آن با سایر روش ها حاکی از کارایی روش پیشنهادی دارد.در روش معنایی پیشنهادی دوم ما به هر کدام از روابط معنایی موجود در وردنت، عددی اختصاص داده ایم. این اعداد میزان نزدیکی یا تفاوت معنایی آن ها را بیان می کند، برای مثال به رابطه تشابه عدد کوچک و به رابطه تضاد عدد بزرگتری اختصاص داده ایم. حال بعد از دریافت ورودی کلمات جمله ها را از لحاظ روابط معنایی بررسی کرده و نتایج را
  39. فراهم آوری امکان پشتیبانی از کیفیت سرویس در لایه دسترسی به رسانه شبکه های حسگر بیسیم مبتنی بر استاندارد IEEE 802.15.4
    1393
    استفاده از شبکه های حسگر بیسیم امروزه بسیار رواج یافته و اکنون این شبکه هاکاربردهای متنوع و وسیعی دارند. هر کدام از این کاربردها، بسته به نیازمندی های خود درجات مختلفی از تضمین کیفیت سرویس را طلب می کنند.راهکارهای بسیاری جهت فرآهم آوری کیفیت سرویس در لایه های مختلفِ پروتکل های مربوط به شبکه های حسگر ارائه شده است. استاندارد IEEE 802.15.4 بعنوان یکی از پرکاربردترین آن ها با استفاده از مکانیزمهای غیر رقابتی سعی در ارائه درجاتی از کیفیت سرویس دارد که آن هم محدودیت های خاص خود را دارد.در این پایان نامه روشی مبتنی بر بهبود مکانیزم های مورد استفاده در این استاندارد در لایه دسترسی به رسانه ارائه شده که از مزایای هر دو مُد رقابتی و غیر رقابتی آن استفاده می کند.ارزیابی نتایج شبیه سازی نشان می دهد که روش ارائه شده روشی کارآمد بوده که قادر به فراهم آوری پشتیبانی از کیفیت سرویس در شبکه های حسگر است.
  40. جمع آوری داده با چاهک متحرک در شبکه های حسگر بی سیم
    1392
    با رشد و توسعه فناوری شبکه های حسگر بی سیم، استانداردهای 802.15.4 و RPL به منظور همگن سازی پروتکل های ارتباطی در این شبکه ها ارائه شده اند. برای جمع آوری داده در برخی کاربردهای شبکه های حسگر، بسته های حاوی داده توسط گره ها به سمت چاهک ساکن هدایت می شوند. با این حال در بسیاری کاربردهای دیگر، چاهک در محیط حرکت می کند و داده ها را از گره هایی که از کنارشان می گذرد جمع آوری می کند. با توجه به استقبال از استانداردهای فوق الذکر برای شبکه-های حسگر بی سیم و نیاز آنها به نگهداری هم بندی شبکه با محوریت چاهک، بررسی تاثیر تحرک چاهک در پارامترهای کارایی شبکه حسگر اهمیت دوچندان می یابد. بنابراین در این پایان نامه، این مساله را بررسی نموده و با یک سناریوی پیشنهادی نشان می دهیم که چاهک متحرک، با سرعت کنترل شده، می تواند میانگین طول عمر شبکه را افزایش داده و توازن را در مصرف انرژی بین گره های حسگر ایجاد کند.
  41. استخراج خودکار رده بندی مفاهیم از متون بدون ساختار با استفاده از روش های هوشمند پردازش متن
    1392
    استخراج اطلاعات ساخت یافته از متون بدون ساختار یکی از زمینه های رایج پردازش زبان های طبیعی است که از همان ابتدای پیدایش پردازش زبان های طبیعی مورد توجه پژوهشگران این زمینه بوده است. روش های زیادی وجود دارند که به استخراج اطلاعات از متون بدون ساختار می پردازند، ولی تعداد کمی از این روش ها به ترکیب این اطلاعات و ساخت یک منبع دانش ساخت یافته پرداخته اند. در این پایان نامه روشی برای برای ساخت گراف شمول معنایی از یک متن بدون ساختار ارایه داده شده است. گراف شمول معنایی گرافی است که راس های آن مفاهیم کلیدی موجود در متن و یالهای آن بیانگر وجود رابطه شمول معنایی بین دو مفهوم می باشد. رابطه شمول معنایی به رابطه ی بین دو مفهوم گفته می شود که در آن یکی از مفاهیم از لحاظ معنایی شامل مفهوم دیگر باشد. رابطه شمول معنایی به دو دسته کل-جز و عام-خاص تقسیم می شود، رابطه کل -جز به رابطه ای گفته می شود که در آن یکی از مفاهیم جزی از مفهوم دیگر باشد مانند رابطه بین "تیم" و "بازیکن" . رابطه ی عام خاص به رابطه ی گفته می شود که در آن یکی از مفاهیم از لحاظ معنایی شامل مفهوم دیگر باشد مانند رابطه "کامپیوتر" و "هوش مصنوعی". در این پایان نامه روش استخراج گراف شمول معنایی از متون بدون ساختار از چند مرحله تشکیل شده است که به صورت زیر می باشند: - پیش پردازش پیکره متنی ورودی - استخراج مفاهیم کلیدی از پیکره متنی ورودی - استخراج روابط شمول معنایی با استفاده از مفاهیم کلیدی استخراج شده - رفع ابهام معنایی از روابط استخراج شده - وزن دهی به روابط شمول معنایی و ساخت گراف اولیه - پیرایش گراف - تکمیل کردن گراف با استفاده از استخراج روابط شمول معنایی از صفحات وب در کارهای قبلی گراف شمول معنایی، با استفاده از کلمات موجود در متن ساخته شده است ولی در این پایان نامه گراف شمول معنایی بر اساس معانی کلمات ساخته می شود. در این پایان نامه یک روش جدید برای ساخت گراف و همچنین استخراج روابطی که صراحتا در متن وجود ندارند ارایه شده است. نتایج بدست آمده در این پایان نامه بیانگر این است که منابع دانش رده بندی لغوی (مانند وردنت) که به صورت دستی ساخته شده است را می توان به صورت خودکار استخراج کرد.
  42. بررسی جامع قابلیت برازش مدل های مختلف منحنی توزیع اندازه ذرات خاک و منحنی مشخصه آب خاک بر داده های تجربی در کلاس های بافتی متفاوت
    1392
  43. ساخت پیکره ی متنی فارسی حوزه ی فاوا
    1391
    در زبانشناسی رایانه ای پیکره، انباره ای از داده های متنی است که برای اهداف مختلفی مثل مطالعات فرهنگی یک زبان خاص، مطالعه تغییرات یک زبان با گذشت زمان، پروژه های پردازش زبان های طبیعی، پروژه هایی که مربوط به حوزه ی زبان شناسی است، ایجاد می شوند. در این تحقیق تمرکز ما بر طراحی و ساخت پیکره ی دو زبانه ی فارسی-انگلیسی حوزه ی فاوا است. این پیکره به صورت خودکار ساخته شده است و منابع آن اسناد تخصصی حوزه ی فاوا است. در این پژوهش نرم افزاری برای ساخت پیکره طراحی شده است که هزینه و مدت زمان ساخت پیکره را کاهش می دهد علاوه بر این، نرم افزار ارائه شده قابلیت مدیریت پیکره را نیز برای کاربران فراهم می کند. از ویژگی های پیکره ی ساخته شده فراهم کردن یک مجموعه ی متمرکز از اسناد تخصصی است که می تواند در پروژه های مختلف حوزه ی فاوا استفاده شود. مهمترین مرحله ی ساخت پیکره-های چند زبانی ترازبندی داده های پیکره است. در این پروژه روشی برای ترازبندی جمله های پیکره ی فارسی تخصصی حوزه فاوا ICT و جملات انگلیسی پیکره ی تخصصی حوزه فاوا ارائه شده است. هدف این پژوهش طراحی یک سیستم ترازبندی برای استخراج جمله های متناظر دو زبان است. در این روش با استفاده از یک لغت نامه دو زبانی که ایجاد کرده ایم و تکنیک های هوش مصنوعی، امتیاز نشان دهنده شباهت دو جمله، محاسبه می شود. در نهایت اطلاعات مربوط به نگاشت جمله-های دو مجموعه ی انگلیسی و فارسی در پایگاه داده ی پیکره ذخیره می گردد. آزمایش ها نشان می دهد که این تکنیک علاوه بر اینکه از نظر دقت مناسب است، تعداد جمله های کاندید را نیز کاهش می دهد. در انتها آماری از وضعیت فعلی پیکره ی فاوا ارائه می شود.
  44. تشخیص احساس از روی گفتار پیوسته فارسی
    1391
    در سال های اخیر بازشناسی احساس به عنوان روش جدیدی برای تعامل انسان با کامپیوتر مورد توجه و موضوع تحقیقات زیادی بوده است. احساس، در قالب حرکات چهره، گفتار، حرکات دست و بدن و علایم زیستی مانند ضربان قلب بروز می یابد. مدل پیشنهادی در این پایان نامه از گفتار پیوسته فارسی برای بازشناسی احساس استفاده می کند. بازشناسی احساس از گفتار بر روی زبان های مختلفی انجام شده اما بر روی زبان فارسی تا کنون این چنین به آن پرداخته نشده است. برای ارزیابی عملکرد سیستم طراحی شده، نیاز به پایگاه داده مناسبی داشتیم. به علت نبود پایگاه داده مناسب اقدام به ساخت و تهیه پایگاه داده صوتی احساسی نموده و آن را BASU Speech database نام نهادیم. این پایگاه داده از صدای ضبط شده بازیگران در سریال ها و فیلم های تلوزیونی و نمایشنامه های رادیویی ساخته شده است. هدف طبیعی بودن و جامع بودن گفتار موجود در پایگاه داده بود که به همین خاطر در این پایگاه از گفتار زن و مرد و در رده های مختلف سنی استفاده شده است. در این مدل ابتدا ویژگی های مورد نیاز گفتار را استخراج کرده و با استفاده از سه طبقه بند شبکه عصبی، SVM و بیز به بازشناسی احساس از گفتار پرداخته شده و نتایج به دست آمده مقایسه و تحلیل شده است. در این پایان نامه سه آزمایش متفاوت ترتیب داده شده است. آزمایش اول و دوم به بازشناسی احساس تنها یک فرد پرداخته، با این تفاوت که در آزمایش اول هر احساس به صورت جدا بررسی شده اما در آزمایش دوم هر پنج احساس مورد نظر مورد بررسی قرار گرفته شده است. اما آزمایش سوم بر روی کل پایگاه داده تهیه شده، انجام گرفته است. بر اساس نتایج به دست آمده، بازشناسی احساس از گفتار برای یک شخص خاص نتایج بهتری از خود نشان خواهد داد، علاوه بر این هر چه تعداد احساس مورد بررسی بیشتر شود، احتمال نزدیک شدن آنها به هم و پایین آمدن دقت بیشتر خواهد شد. در آزمایشات انجام شده طبقه بند بیز دقت بالاتری برای بازشناسی احساس از گفتار بدست آورده است. با مقایسه نتایج بدست آمده در این تحقیق با کارهای دیگری که در این زمینه انجام شده اند، دقت به دست آمده در آزمایشات انجام شده در این پایان نامه که به صورت میانگین برای سه طبقه بند شبکه عصبی، SVM و بیز به ترتیب،6.69%، 4.71% و 78% می باشد، نتایج قابل قبولی خواهند بود.