Faculty Profile

Fardin Akhlaghian Tab
Update: 2024-09-12

Fardin Akhlaghian Tab

Faculty of Engineering / Department of IT and Computer Engineering

Theses Faculty

M.Sc. Theses

  1. Self-representation factorization to learn generalizable representation
    2024
    Nonnegative Matrix Factorization (NMF), as a group representation learning model, produces part-based representation with interpretable features and can be applied to various problems, such as text clustering. The findings indicate that the NMF model with Kullback-Leibler divergence (NMFk), and NMF with β divergence (β-NMF) exhibits promising performance in the task of data clustering. However, existing NMFbased data clustering methods are defined within a latent decoder model, lacking a verification mechanism. Recently, self-representation techniques have been applied to a wide range of tasks, empowering models to autonomously learn and verify representations that faithfully reflect the intricacies and nuances inherent in their input data. In this research, we propose two self-representation factorization models for data clustering that incorporates semantic information and grapg regularization into its learning process, respectively. The Semantic-aware Encoder-Decoder NMF model based on Kullback-Liebler divergence (SEDNMFk), and Encoder-Decoder NMF with β divergence integrates encoder and decoder factorizations into a unified cost function that mutually verify and refine each other, resulting in the formation of more distinct clusters. We present an efficient and effective optimization algorithms based on multiplicative update rules to solve the two proposed unified model. The experimental results on the ten well-known datasets show that the proposed models outperforms other state-of-the-art data clustering methods.
  2. A Filter-Wrapper Many-Objective Multi-label Feature Selection
    2023
    As a data preprocessing method, feature selection is a significant step before classification and other machine learning algorithms. Feature selection approaches are mainly divided into filter and wrapper methods, and each one has its own advantages. To leverage the strengths of both approaches, filter-wrapper methods have been introduced. However, the integration and collaboration of filter and wrapper methods can be a challenging process, because there is a need to coordinate different criteria and algorithms, as well as designing a method that ensures compatible cooperation between these methods. On the other hand, multi-objective optimization algorithms are efficient for dealing with multi-label feature selection problems. Nevertheless, there have been relatively few studies conducted on filter-wrapper multi-objective feature selection for multi-label data. In this research, we first present a new method for collaboration between filter and wrapper components using an innovative technique called Importance Probability Models (IPMs). And then using this technique, we introduce a multi-objective filter-wrapper feature selection approach for multi-label data called FWMMFS-IMPs. This approach uses a modified fast filter component to adjust the initial IPMs, which are then used to generate the optimal initial population in the wrapper algorithm. IPMs are continuously updated using the optimal solutions resulting from the evolution of the wrapper method, and by taking advantage of this situation, a new approach for the mutation process in this algorithm is also presented. This process improves the convergence rate of the algorithm, prevents it from getting stuck in the local optimum, and balances the exploration and exploitation. The final IPMs, which are the result of a consistent collaboration between the filter and wrapper methods, are converged, and their sorting in descending order creates the final feature ranking. To demonstrate the effectiveness of the proposed method, we used several well-known criteria for multi-label classification evaluation, and performed various experiments on different multi-label datasets. FWMMFS-IMPs has been compared to similar multi-label feature selection algorithms, and the experimental results demonstrate its effectiveness across several evaluation aspects, including stability and performance metrics. FWMMFS-IMPs effectively reduces the dimensionality of multi-label data across various domains, including text, music, biology, and images, and consistently outperforms other approaches across different evaluation criteria.
  3. Elastic Nonnegative Matrix Factorization with Self-paced Learning
    2023
    Nonnegative matrix factorization (NMF) is an algebraic method frequently utilized in fields such as data mining and machine learning. The fundamental concept behind NMF is to minimize the distance between the original input matrix and a lower-rank approximation of it. However, the basic NMF approach is not suitable for dealing with corrupted data, since the loss function it mploys is highly susceptible to noise and outliers. Recently, robust NMF models are introduced which choose a loss function based on the specific noise assumed on the data. However, in many real-world problems, the noise model is unknown and difficult to estimate using an ad hoc loss function. This paper proposes the self-elastic NMF (SE-NMF) that is adapted between the Frobenius norm and the L_2,1 norm, where in a self-paced learning (SPL) method, the contribution of each norm is determined according to the learning pace. In addition, we employ the SPL soft weighting approach method to enhance the performance of the SE-NMF model. The optimization problem is solved by a proposed iterative updating algorithm. It provides efficient updating rules and incurs almost the same computational cost as conventional robust NMFs. The comprehensive experimental results on the datasets including by noises demonstrate the effectiveness and robustness of Self-Elastic NMF for learning robust subspaces.
  4. Community discovery in Attributed Graphs using Community discovery in Attributed Graphs using Joint Nonnegative Matrix Tri-Factorization
    2023
    Clustering attributed graphs, which involves learning node representations from node attributes and topological graph structures, is a fundamental and challenging task in the analysis of network-structured data. However, existing methods often overlook the distinctions between topological and non-topological information, resulting in redundant representations. To address this issue, this thesis introduces the Diverse Joint Nonnegative Matrix Tri-Factorization (Div-JNMTF), an embedding-based model that aims to uncover communities in attributed graphs. The novel Div-JNMTF model utilizes a joint nonnegative matrix tri-factorization approach to extract diverse node representations from both topological and non-topological data. To reduce redundancy among the representations and encourage the distinct contributions of each type of information, a diversity regularization technique is employed using the Hilbert-Schmidt Independence Criterion (HSIC). Additionally, two graph regularization terms are introduced to preserve the local structures in both the topological and attribute representation spaces. To solve the problem, an iterative optimization strategy is devised for the proposed method. Extensive experiments are conducted on eight attributed graph datasets, demonstrating the effectiveness of the Div-JNMTF model in accurately identifying attributed communities. The results indicate that it outperforms state-of-the-art methods in this domain.
  5. Multi-label Feature Selection by Exploiting Global and Local Label Correlation
    2023
    In various application domains, high-dimensional multi-label data has become more prevalent, presenting two significant challenges: instances with high-dimensional features and a large number of labels. In the context of multi-label feature selection, the objective is to choose a subset of features from a given set that is highly pertinent for predicting multiple labels or categories associated with each instance. However, certain characteristics of multi-label classification, such as label dependencies and imbalanced label distribution, have often been overlooked although hold valuable insights for designing effective multilabel feature selection algorithms. In this research, we propose a feature selection model which exploits explicit global and local label correlations to select discriminative features across multiple labels. In addition, by representing the feature matrix and label matrix in a shared latent space, the model aims to capture the underlying correlations between features and labels. The shared representation can reveal common patterns or relationships that exist across multiple labels and features. An objective function involving ℓ2,1-norm regularization is formulated, and an alternating optimization-based iterative algorithm is designed to obtain the sparse coefficients for multi-label feature selection. The proposed method was evaluated on twelve real-world multi-label datasets using six evaluation metrics, through comprehensive experiments. The results indicate its effectiveness, surpassing that of several representative methods.
  6. Asymmetric Nonnegative Matrix Factorization for Directed Graph Clustering
    2023
    Graph clustering is a basic technique in machine learning, and has widespread applications in different domains. Recently, deep Nonnegative Matrix Factorization (DNMF) was introduced to deal with the extraction of several layers of features and has been shown to reach outstanding performances on unsupervised tasks such as graph clustering. While DNMF has been successfully applied for clustering undirected graphs, the performance of existent deep NMF methods for directed graphs is not in general satisfactory: these methods are intrinsically node representation models, and their objective functions do not capture cluster structures in which the information given by the direction of the edges is crucial. To overcome these downsides, this paper proposes a graph-specific DNMF model based on the Asymmetric NMF which can learn structure of directed and undirected graphs. Inspired by hierarchical graph clustering and graph summarization approaches, the Deep Asymmetric Nonnegative Matrix Factorization (DAsNMF) is introduced for the directed graph clustering problem. |In a pseudo-hierarchical clustering, DAsNMF decomposes the input graph to extract low-level to high-level node representations and graph representations (summarized graphs). In addition, the asymmetric cosine and PageRank-based similarities are imposed on the proposed model to preserve the local and global structures. The learning process is formulated as a unified optimization problem to jointly train representation learning model and clustering model. The extensive experimental studies validate the effectiveness of the proposed method on directed graphs.
  7. Development of relative strength index and commonly used patterns in cryptocurrency trading
    2023
    In today's era, cryptocurrencies use blockchain technology in a decentralized manner for security and verification of transaction registration. It is one of the most discussed topics in this field. New currencies are also extracted in the process of recording transactions. With the difference that their construction is different from other digital currencies related to the government and basically this money belongs to the people. Bitcoin is the first and flagship cryptocurrency that has eliminated the biggest problem of double spending. Various methods of earning money in the cryptocurrency market without the need to buy and sell, including mining digital currencies and setting up a full node, building and buying and selling NFT, blockchain games, lending and cultivating profits, receiving currency airdrops Digitalization is staking or staking of digital currencies and investment and long-term purchase and maintenance of digital currencies. There are three important types of analysis in this market, which include technical analysis, fundamental analysis, and intra-chain analysis. In this thesis, we examine and analyze the technical trends and price patterns. By developing the relative strength index indicator algorithm and finding commonly used patterns such as triangles, flags, corners, doubles and doubles in the price chart, we have achieved a more reliable definition of entry and exit points. In this regard, we provide two tools (indicators) to help the trader in identifying more reliable entry and exit points. In a better look at the relative strength index, instead of the entry point of 30, we use 55 and instead of the exit point of 70, we use the points 55-70-80-90. We will also change the basis of closing 14 candles to two numbers 9 and 17. Also, the divergences and convergences are determined by the indicator itself. The experiments conducted by robots show an increase of up to 30 times in the detection of the more accurate trend of the relative power index.
  8. Boosting Semi-Supervised Nonnegative Matrix Factorization using Self-Supervised Learning
    2022
    Semi-supervised nonnegative matrix factorization exploits the strengths of matrix factorization in successfully learning part-based representation and is also able to achieve high learning performance when facing a scarcity of labeled data and a large amount of unlabeled data. Its major challenge lies in how to learn more discriminative representations from limited labeled data. Furthermore, self-supervised learning has been proved very effective at learning representations from unlabeled data in various learning tasks. Recent research works focus on utilizing the capacity of self-supervised learning to enhance semisupervised learning. In this paper, we design an effective Self-Supervised Semi-Supervised Nonnegative Matrix Factorization (S4NMF) in a semi-supervised clustering setting. The S4NMF directly extracts a consensus result from ensembled NMFs with similarity and dissimilarity regularizations. In an iterative process, this self-supervisory information will be fed back to the proposed model to boost semi-supervised learning and form more distinct clusters. The proposed iterative algorithm is used to solve the given problem, which is defined as an optimization problem with a well-formulated objective function. The theoretical analysis investigated the convergence of the proposed optimization algorithm. To demonstrate the effectiveness of the proposed model in semi-supervised clustering, we conduct extensive experiments on standard benchmark datasets.
  9. پیش بینی پیوند با استفاده از تجزیه ماتریس نامنفی عمیق خصمانه
    2022
    امروزه شبکه های پیچیده به طور گسترده و وسیعی برای توصیف سیستم های پیچیده مورد استفاده قرار می گیرد. روش های زیادی برای پیش بینی پیوند و استنتاج پیوند های ناموجود بر اساس توپولوژی شبکه موجود است، اما اثربخشی روش های پیش بینی پیوند فعلی اغلب به دلیل وجود نویز و یا پیوند های اشتباهی ( پرت) در شبکه های واقعی و همچنین تُنکبودن این شبکه ها کم بوده و در نوع خود محدود می باشند. از سویی دیگر، شبکه های دنیای واقعی حاوی اطلاعات سلسله مراتبی نسبتاً پیچیده ای با ویژگی های پنهان سطح پایین تر هستند. از این رو به دست آوردن اطلاعات چندلایه ای پنهان تر بر اساس روش های سطحی میسر نمی باشد. برای غلبه بر این چالش ها، ما دو روش پیشنهادی سطحی و عمیق برای پیش بینی پیوند بر اساس تجزیه ماتریسنامنفی خصمانه ارائه می دهیم که می توانند شبکه را با یک الگوریتم مبتنی بر آموزشی خصمانه بازسازی نمایند. برخلاف روش های مرسوم پیش بینی پیوند مبتنی بر تجزیه ماتریس، که بر روی توپولوژی گراف یا نویز خاصی تمرکز دارند، مدل های پیشنهادی حملات خصمانه ای را در نظر گرفته که به صورت آموزش خصمانه از پیش تعریف شده می تواند در مقابل نویزهای مختلف پایداری کند و مقاومت مدل را افزایش بخشد. علاوه بر این، برای حفظ ساختار محلی شبکه و استخراج میزان شباهت گره ها و اعمال آن در فضای جدید با ابعاد کم، از الگوریتم همسایگان مشترک استفاده شده و به طور همزمان از یک منظم ساز با نرم فروبنیوس برای جلوگیری از بیش برازش مدل های پیشنهادی استفاده می کنیم. همچنین به هدف بهینه سازی و یادگیری پارامترهای مدل پیشنهادی یکروش بیشینه-کمینه ساز کارآمد را ارائه داده و از آن بهره می گیریم. بر اساس مشاهدات و نتایجی که در بخش آزمایشات نشان داده شده است روش های پیشنهادی بر روی مجموعه داده دنیای واقعی و AUC اعمال شده و با روش های پایه و نوین پیش بینی پیوند بر اساس دو معیار مقایسه شده که نتایج حاکی از عملکرد بهتر روش های پیشنهادی است.
  10. Deep Nonnegative Matrix Factorization with Contrastive Regularization and Feature Relationship Preservation
    2022
    Nonnegative Matrix Factorization is a data analysis method to discover partsbased, linear representations of data. It has been successfully used in a great variety of applications. Deep Nonnegative Matrix Factorization (deep NMF) was recently established to cope with the extraction of hierarchical latent feature representation, and it has been demonstrated to achieve outstanding results in unsupervised representation learning. However, defining a suitable regularization for the deep models is a key challenge, and the existing Deep NMF approaches lack a well-suited regularization. In this research, we propose the Deep Autoencoder-like NMF with Contrastive Regularization and Feature Relationship preservation (DANMF-CRFR) to address the above problem. Inspired by contrastive learning, this deep model is able to learn discriminative and instructive deep features while adequately enforcing the local and global structures of the data to its decoder and encoder components. Meanwhile, DANMF-CRFR also imposes feature correlations on the basis matrices during feature learning to improve part-based learning capabilities. Multiplicative update rules based on deep structures are provided to solve the presented model. Extensive experiments have been conducted on ten datasets widely used for clustering tasks to verify the performance of proposed method, and experimental results have been evaluated by three commonly used metrics (MI, ACC, and ARI). The experimental results demonstrated the superiority of the proposed method on all datasets, and DANMF-CRFR is ranked first in 23 cases out of 30, and for the rest of the cases, it is placed as the second-best.
  11. presenting a two-stream method based on traditional and deep complementary features to detect human activity in video
    2022
    Today, human action recognition as an important research field is used in different applications and many computer-vision researches have focused on this area to improve recognition accuracy. In this paper, a two-stream method is introduced incorporating a new structure including two spatial features to cover their defects. Utilizing this structure leads to better performance finally. In the first stream, wavelet coefficients of key-frames with proper multi-resolution are extracted, and deep features of these key-frames are also extracted to be used in the other stream. Utilizing these features results in using proper spatial information of both local and global changes for this application. The features in each stream are gathered in a spatial feature map. The map in each stream is then given to a deep network with convolutional layers to learn the temporal relations between spatial features of sequential key-frames, and then the network classifies the action in each stream independently. Finally, the classification results of both streams are combined to achieve an accurate and confident prediction for the action label. The proposed method is examined on three challenging datasets as UCFYT, UCF-sport, and JHMDB with real videos which its accuracy on these datasets is 98.7, 99.83, and 92.86, respectively. The proposed method has about 4.6 percent better performance rather than the best previously introduced method on average.
  12. عنوان: انتخاب ویژگی بدون نظارت مبتنی بر تجزیه ماتریس و یادگیری خلوت
    2022
    با گسترش سریع تکنولوژی اطلاعات، داده ها عموماً با تعداد ویژگی های زیادی در بسیاری از حوزه ها ظاهر می شوند. این داده ها نه تنها پیچیدگی های محاسباتی و نیازهای حافظه ای الگوریتم-های یادگیری را افزایش می دهند، بلکه عملکرد آن ها را نیز بدتر می کنند؛ به دلیل وجود ویژگی-های غیرمرتبط، افزونه و اختلالی. کاهش ابعاد ویژگی فرایند انتخاب یک زیر مجموعه از ویژگی هایی است که حاوی اطلاعات مفید برای ایجاد مدل هستند، و در الگوریتم های یادگیری ماشین، روشی برای افزایش سرعت الگوریتم و غلبه بر بیش برازش است. در این پایان نامه تمرکز بر روی انتخاب ویژگی از نوع بدون نظارت است که به دلیل نبود برچسب داده ها مسئله چالش برانگیزی است، و روش جدیدی برای انتخاب ویژگی از نوع بدون نظارت ارائه می شود. در روش پیشنهادی، داده ها ی ورودی فاقد برچسب فرض شده اند که این روش در روش پیشنهادی اول از رمزگذار-رمزگشا استفاده می کند؛ به نحوی که از رمزگذار برای تبدیل داده های اصلی به بازنمایی با ابعاد پایین و هم زمان از رمزگشا برای بازسازی داده های اصلی به کمک همان بازنمایی ابعاد پایین استفاده می کند که با این روش نتایج به نسبت برخی روش های مطرح بهبود پیدا کرده اند و در روش پیشنهادی دوم دوم برای بهبود بیشتر و تفکیک بهتر از قید تعامد بر روی بازنمایی داده ها استفاده می شود؛ همچنین اهمیت ساختار محلی نیز به حساب آمده است و در نهایت زیر مجموعه ای از ویژگی ها به کمک خروجی روش که ویژگی های امتیازبندی شده هستند انتخاب می شوند. برای ارزیابی عملکرد روش پیشنهادی، ازآنجاکه الگوریتم پرکاربرد در حوزه داده های بدون برچسب الگوریتم خوشه بندی است، زیر مجموعه ویژگی های به دست آمده در این الگوریتم مورداستفاده قرار می گیرند و با روش های متداول و مورد ارجاع در سایر کارها مقایسه می شوند
  13. بازسازی تصویر مبتنی بر شبکه متخاصم مولد هدایت شده توسط اطلاعات اضافه تعریف شده توسط کاربر
    2022
    بازگرداندن ناحیه آسیب دیده در تصاویر دیجیتال (بازسازی تصویر) می تواند به عنوان یک مشکل دشوار در نظر گرفته شود که بر اساس شدت آسیب به نسبت سخت تر می شود. در چند سال اخیر پیشرفت هایی در مقابله با این موضوع از طریق استفاده از مدل های یادگیری عمیق صورت گرفته است. در این مطالعه با توجه به کاربردهای موفق GAN ها در زمینه های مختلف، رویکرد جدیدی برای بازسازی تصویر ارائه شده است. الگوریتم پیشنهادی شامل یک مولد و یک تمایز عمومی است. ژنراتور مسئول بازیابی ناحیه از دست رفته است و تمایزکننده عمومی به تشخیص درست بودن یا نبودن ناحیه تعمیر مربوط می شود. معماری ژنراتور از دو انکودر خودکار تشکیل شده است. علاوه بر این، Wasserstein GAN برای اطمینان از ثبات تمرین استفاده می شود. به عنوان تصویر ورودی، یک تصویر نماد 32 در 32 نیز برای هدایت معنایی ژنراتور استفاده می شود و سپس با تصویر خراب برای پر کردن قسمت یا مناطق از دست رفته بدون از دست دادن برخی اشیاء موجود یا پیش بینی اشیاء یا اشکال ناخواسته، الحاق می شود. تصویر راهنما می تواند توسط کاربر برنامه پیشنهاد شود یا موارد دیگری مانند واترمارک در نظر گرفته شود. این روش از نظر کمی و کیفی با مدل های پیشرفته ای که از شبکه متخاصم مولد استفاده می کنند مقایسه می شود. این رویکردها می توانند ساختارها و بافت های بصری قانع کننده ای ایجاد کنند، اما اغلب ساختارهای تغییر شکل یافته، بافت های تار یا اشیایی از دست می دهند که با مناطق اطراف همگام نیستند. نتایج ارائه شده روی مجموعه داده CelebA-HQ نشان می دهد که مدل پیشنهادی می تواند با پیکسل های از دست رفته در مقیاس بزرگ مقابله کند و نتایج واقعی ایجاد کند.
  14. بازسازی تصویر مبتنی بر شبکه متخاصم مولد هدایت شده توسط اطلاعات اضافه تعریف شده توسط کاربر
    2022
    بازگرداندن ناحیه آسیب دیده در تصاویر دیجیتال (بازسازی تصویر) می تواند به عنوان یک مشکل دشوار در نظر گرفته شود که بر اساس شدت آسیب به نسبت سخت تر می شود. در چند سال اخیر پیشرفت هایی در مقابله با این موضوع از طریق استفاده از مدل های یادگیری عمیق صورت گرفته است. در این مطالعه با توجه به کاربردهای موفق GAN ها در زمینه های مختلف، رویکرد جدیدی برای بازسازی تصویر ارائه شده است. الگوریتم پیشنهادی شامل یک مولد و یک تمایز عمومی است. ژنراتور مسئول بازیابی ناحیه از دست رفته است و تمایزکننده عمومی به تشخیص درست بودن یا نبودن ناحیه تعمیر مربوط می شود. معماری ژنراتور از دو انکودر خودکار تشکیل شده است. علاوه بر این، Wasserstein GAN برای اطمینان از ثبات تمرین استفاده می شود. به عنوان تصویر ورودی، یک تصویر نماد 32 در 32 نیز برای هدایت معنایی ژنراتور استفاده می شود و سپس با تصویر خراب برای پر کردن قسمت یا مناطق از دست رفته بدون از دست دادن برخی اشیاء موجود یا پیش بینی اشیاء یا اشکال ناخواسته، الحاق می شود. تصویر راهنما می تواند توسط کاربر برنامه پیشنهاد شود یا موارد دیگری مانند واترمارک در نظر گرفته شود. این روش از نظر کمی و کیفی با مدل های پیشرفته ای که از شبکه متخاصم مولد استفاده می کنند مقایسه می شود. این رویکردها می توانند ساختارها و بافت های بصری قانع کننده ای ایجاد کنند، اما اغلب ساختارهای تغییر شکل یافته، بافت های تار یا اشیایی از دست می دهند که با مناطق اطراف همگام نیستند. نتایج ارائه شده روی مجموعه داده CelebA-HQ نشان می دهد که مدل پیشنهادی می تواند با پیکسل های از دست رفته در مقیاس بزرگ مقابله کند و نتایج واقعی ایجاد کند.
  15. استفاده از ویژگیهای معنایی برای بهبود تشخیص رفتارهای حرکتی انسان
    2021
    امروزه آنالیز رفتار انسان در سیستم های برخط ویدئویی مانند جستجو، دوربین نظارتی و تعامل انسان و ماشین بسیار مورد توجه قرار گرفته است. با ورود هوش مصنوعی به این حوزه سعی شده تا ماشین در تحلیل و بررسی رفتارها جایگزین عامل انسانی گردد. مهمترین گام برای این کار بازنمایی رفتار است به طوری که حاوی جزئیات رفتار برای انجام عملیات طبقه بندی باشد. بازنمایی رفتار می تواند بر اساس مدل یا داده های حاصل از رفتار باشد که منتج به معرفی روش های مدل محور و داده محور گشته است. روش های مدل محور با ایجاد مدل هایی دو یا سه بعدی از بدن انسان بازنمایی را انجام می دهد در حالی که روش های داده محور با پیچیدگی زمانی و حافظه مورد نیاز کمتر تغییرات در قاب ها را بررسی می کنند. روش های داده محور با استفاده از ویژگی های سراسری و محلی به بازنمایی رفتار انسان می پردازند. ویژگی های سراسری با بررسی تغییرات کلی قاب ها و ویژگی های محلی با بررسی حرکت های اجرا شده در یک یا چند ناحیه محلی از ویدئو به بازنمایی رفتار انسان می پردازد. در کارهای صورت گرفته تاکنون معنای رفتار که به یک توالی از زیررفتارها تعبیر شود مورد توجه قرار نگرفته است. لذا در این پایان نامه برای تشخیص و بازیابی رفتار انسان در ویدئو، بازنمایی رفتار انسان با استفاده از معنای حرکات بوسیله شبکه های عمیق انجام می شود. برای تعریف معنا در این کار، هر رفتار به زیررفتارهایی از حرکت های تشکیل دهنده آن تبدیل شده و بعد از مدل کردن حرکت ها، رفتار انسان بر اساس ترکیب این مدل ها بازنمایی می شود. بدین منظور ابتدا حرکت های تشکیل دهنده رفتار با استفاده از ویژگی های محلی استخراج شده از روش Dollar و انتقال بردارهای این ویژگی ها به فضای فرکانس با استفاده از روش CWT، برای پردازش های آتی به منظور تفکیک ساده حرکت ها، بدست می آیند. سپس با استفاده از شبکه های عصبی عمیق هر کدام حرکت های بدست آمده مدل شده و نهایتا با ترکیب مدل های حرکت های تشکیل دهنده هر رفتار، بازنمایی نهایی آن انجام می شود که برای تفکیک رفتارها مورد استفاده قرار گرفته اند. به منظور ارزیابی مدل پیشنهادی از مجموعه داده های ویدئویی HMDB، UCF Sport، UCFYT و UCF50 استفاده شده است که همه آنها شامل ویدئوهای واقعی ضبط شده در شرایط گوناگون هستند. روش معرفی شده با استفاده از زبان برنامه نویسی پایتون، کتابخانه های krase و Tensorfllow پیاده سازی شده تا به بخش بندی ویدئو، بازنمایی رفتار و طبقه بندی بپردازد. عملکرد روش پیشنهادی با سایر روش های معرفی شده در حوزه تشخیص و بازیابی رفتار مقایسه شده است. روش های مورد بررسی از شبکه های عصبی عمیق و یا ترکیبی از روش های داده محور، مدل محور و شبکه های عصبی عمیق برای بازنمایی و طبقه بندی رفتار استفاده کرده اند. ارزیابی نتایج بدست آمده نشان می دهد که روش پیشنهادی در کاربردهای شناسایی و بازیابی در مقایسه با سایر روش ها به دلیل توجه به حرکت های تشکیل دهنده رفتار و توالی آنها و بازنمایی مناسب، به ترتیب از 02/0 درصد تا 5/1 درصد و از 7/0 درصد تا 4 درصد دقت بالاتری داشته است.
  16. شناسه جدید مبتنی بر سیستم دید عمیق به عنوان یک عامل سمپاشی هوشمند سم برای استفاده در مزرعه سیب زمینی
    2021
    در مزارع کشاورزی تعداد زیادی علف های هرز در کنار سیب زمینی رشد می کنند. سیب زمینی از دیگر گیاهان زراعی با اهمیت آسیایی است و به طور کلی، چنین تولیدی سالانه توسط علف های هرز مخرب آلوده می شود که باید با روش های خاص به طور خودکار کنترل شود. معمولاً کنترل علف های هرز شامل سم پاشی علف کش ها در سراسر مزارع کشاورزی است. هدف از این مطالعه توسعه کنترل علف های هرز برای توزیع مناسب مدیریت علف کش در سیب زمینی های ثبت شده است. زیرا این علف های هرز با رقابت در جذب آب، نور و مواد مغذی از خاک، باعث کاهش تولید محصولات می شوند. طبقه بندی علف های هرز گام مهمی در سیستم مدیریت علف های هرز سایت مخصوص (SSWMS) است که می تواند با جلوگیری از کاربردهای مکرر شیمیایی منجر به صرفه جویی در علف کش ها شود. سیب زمینی و خصوصیات آن ها از علف های هرز متمایز می شود. در این حالت، ما شبکه های عصبی کانولوشن را ارائه می دهیم که دارای دقت بالایی هستند. با یک الگوریتم یادگیری عمیق، ویژگی های علف های هرز استخراج می شود که عملکرد بیشتری را در مقایسه با روش های معمول یادگیری ماشین ارائه می دهد. کشاورز ابتدا باید بتواند بفهمد که (زمان در روز) و کجا (فاصله بین گیاه و دوربین حسگر) زمین را پاشیده است تا تأثیر قابل اندازه گیری داشته باشد. در مطالعه ما برای جمع آوری مجموعه داده های تصویر از خود در سیب زمینی به پنج قد احترام با چهار زمان اختلاف در روز پرداختیم. فاصله شامل (20-40-60 80-100) سانتی متر از سطح زمین، همچنین شرایط مختلف روشنایی و سایه اندازی، چهار زمان مختلف (شامل 8:00 تا 11:00 ، 11:00 تا 14:00 ، 15:00 تا 17:00 ، 17:00 تا 19:00). نتایج تجربی نشان می دهد که مدل نهایی در اثر طبقه بندی 10 گونه عکس علف های هرز به خوبی عمل می کند. در روش ما، سه طبقه بندی CNN ساخته شده است کهEN-Inception-V3، EN-VGG-16و HCNN هستند، و آن ها نتایج قابل مقایسه و قابل قبولی را در مجموعه داده ما بدست آوردند. دقت کلی طبقه بندی کننده های EN-Inception-V3، EN-VGG-16 و HCNN به ترتیب 99.42 ، 97.02 و 98.22 است. علاوه بر این، یافته های این تحقیق برای پاشش موفقیت آمیز علف کش ها در یک سیستم رباتیک استفاده خواهد شد.
  17. سیستم نشانه گذاری دیجیتال تصویر ترکیبی مبتنی بر شبکه های خود رمزگذار عمیق و دامنه تبدیل
    2021
    رشد سریع فناوری های چند رسانه ای و تکنیک های پیشرفته پردازش تصویر و اینترنت، نسخه برداری، اصلاح، تولید و توزیع تصاویر دیجیتال را با کمترین هزینه و با تحویل بر خط و بدون افت کیفیت، آسان تر نموده است. بنابر این، احراز هویت محتوا، محافظت از حق چاپ و کنترل کپی نقش اساسی در مواجهه با چالش ها و تهدید های موجود در زمینه اطلاعات دیجیتال دارد. نشانه گذاری دیجیتال یک راه حل برای اطمینان از مالکیت معنوی، محافظت در برابر دستکاری و تقویت امنیت اسناد چندرسانه ای می باشد. انواع داده های چندرسانه ای دیجیتال مانند تصویر، صوت، متن و فیلم می تواند برای پنهان ساختن داده ها مورد استفاده قرار گیرد. همچنین داده های پنهان شده نیز می توانند شامل تصویر، صوت، متن و فیلم یا داده های عددی باشند. نشانه گذاری دیجیتال تکنیکی است که در آن داده-های نشانه در یک محصول چندرسانه ای درج شده و بعداً از محصول نشانه گذاری شده استخراج یا شناسایی می شوند. در این پایان نامه یک روش جدید ترکیبی مبتنی بر دامنه تبدیل و شبکه خود رمز گذار عمیق ارائه می شود. در این روش از مزایای مناسب هر دو روش استفاده شده است که می توان به مقاومت دامنه تبدیل و توانایی بازنمایی و بازسازی داد ه ها در شبکه های عصبی عمیق اشاره نمود. روش پیشنهادی ابتدا با استفاده از یک شبکه خود رمز گذار عمیق تصویر نشانه را با بازنمایی جدیدی ارائه می نماید. همچنین تصویر میزبان در دامنه تبدیل با استفاده از چند سطح تبدیل موجک گسسته به زیر باند های فرکانسی مختلف تقسیم می شود. در ادامه تجزیه مقادیر منفرد برای بدست آوردن مقادیر ویژه روی زیرباند فرکانس پایین سطح مورد نظر تصویر میزبان اعمال شده و بازنمایی تصویر نشانه در این مقادیر درج می شود. در بخش استخراج نشانه نیز این مراحل به ترتیب انجام شده و کد بازنمایی تصویر نشانه از زیر باند فرکانس پایین تصویر نشانه گذاری شده استخراج می گردد. در مرحله آخر، کد استخراج شده توسط شبکه خود رمز گذار عمیق باز سازی می شود و نشانه استخراج شده بدست می آید. ویژگی برتر این روش نداشتن مشکل مثبت کاذب می باشد که اغلب روش های مبتنی بر تجزیه مقادیر منفرد این مشکل را دارند. برای ارزیابی الگوریتم پیشنهادی، تصاویر میزبان مختلف مورد آزمایش قرار گرفتند و نتایج آن ها از نظر نا محسوس بودن و مقاومت استخراج گردید. نتایج بدست آمده نشان دهنده کار آمدی و قابل قبول بودن الگوریتم پیشنهادی می باشد به طوری که از نظر نا محسوس بودن در حد بسیار خوبی بوده و از لحاظ بصری هیچ گونه تغییر و تفاوتی را با تصویر اصلی نشان نمی دهد. همچنین برای اکثر حملات شامل فیلتر های میانه و میانگین، فیلتر گوسین، نویز فلفل و نمک، تغییر اندازه، تیز کردن و تصحیح گاما نتایج مناسبی را ارائه می دهد و توانایی مقاومت در مقابل حملات ذکر شده را دارا می باشد.
  18. روشی جدید برای تشخیص ناهنجاری یال بر اساس پیشگویی پیوند
    2020
    تشخیص ناهنجاری در داده ها یک کار بسیار مهم و حیاتی است و کاربرد های زیادی در حوزه های مختلف از جمله امنیت، سلامت، امور مالی، مراقبت های بهداشتی و اجرای قانون دارد. در سال های اخیر روش های زیادی برای تشخیص ناهنجاری یا داده های پرت در مجموعه های بدون ساختار داده های چند بعدی ارائه شده است که بعضی از این روش ها روی ساختار گراف متمرکز شده اند. در این پایان نامه بر روی تشخیص ناهنجاری یال در گراف کار شده و دو روش بر اساس پیشگویی پیوند منفی برای تشخیص ناهنجاری یال پیشنهاد شده است. روش اول برای گراف های بدون وزن و روش دوم برای گراف های وزن دار ارائه شده و بر اساس عملکرد این روش ها، یال های ناهنجار در گراف با الگوریتم پیشگویی پیوند منفی تشخیص داده شده است. در دو روش پیشنهادی، از چهار الگوریتم پیشگویی پیوند، شاخص جاکارد، پیوست امتیازدهی، همسایه های مشترک و آدمیک-آدر به صورت بدون نظارت و مجزا استفاده شده است. همچنین از چهار مجموعه داده استاندارد دلفین، جاز، ایمیل و ترینیتی برای گراف های بدون وزن و از چهار مجموعه داده لسمیس ، پادشاه جیمز ، شبکه علمی و نوجوان برای گراف های وزن دار استفاده شده است. به منظور ارزیابی و کارایی روش پیشنهادی اول، چند درصد از کل یال های گراف، یال ناهنجار به گراف ها اضافه شد و با استفاده از روش پیشنهادی و هشت الگوریتم دیگر سعی شده که یال های ناهنجار تشخیص و نتایج روش ها باهم مقایسه گردد. نتیاج با معیاری های صحت، دقت، فراخوانی و معیار F1 ارزیابی شده است. برای روش پیشنهادی دوم، سعی شده است که با حذف یال های ناهنجار جوامع بهتری به وجود بیاید و جهت ارزیابی دو الگوریتم برچسب گذاری نامتقارن و الگوریتم وزن دار بهینه سازی شده گروین- نیومن مورد استفاده قرار گرفته است. سپس برای تعیین بهبود جوامع از سه تابع کیفیت اجتماعات، ماژولاریتی، کارایی و کاوریج ، استفاده می شود البته نیاز به ابداع روشی برای پیشگویی پیوند منفی در گراف های وزن دار و همچنین روشی برای اضافه کردن یال های ناهنجار به گراف های بدون وزن نیز وجود داشت که انجام شد.
  19. ارائه یک الگوریتم بهینه سازی ترکیبی کارآمد مبتنی بر جستجوی نیمه محلی برای مسأله انتخاب ویژگی
    2019
    گسترش مجموعه داده ها با ابعاد بسیار بالا، روش های کاهش بعد را به یک امر حیاتی برای پردازش و تحلیل داده ها در داده کاوی و شناسایی آماری الگو تبدیل کرده است. از روش های رایج کاهش بعد انتخاب ویژگی می باشد. انتخاب ویژگی بدلیل قابلیت تشخیص ویژگی های متمایز کننده و ویژگی های حاوی اطلاعات تکراری درمجموعه داده ها مورد توجه قرار گرفته است. تکنیک های انتخاب ویژگی با کاهش زمان محاسباتی، افزایش دقت پیش بینی و ایجاد درک بهتری از داده ها عامل اصلی بهبود در کاربردهای یادگیری ماشین می شوند. در میان روش های متنوع ارائه شده برای حل مسأله انتخاب ویژگی، جستجوهای بهینه سازی مانند الگوریتم های تکاملی و فرا اکتشافی برای بدست آوردن زیرمجوعه بهینه یا نزدیک به بهینه از ویژگی ها نسبتا موفق بوده و مورد استفاده گرفته اند. در این پایان نامه یک روش انتخاب ویژگی جدید مبتنی بر ترکیب الگوریتم ژنتیک بهبود یافته و یک الگوریتم جستجوی محلی ارائه می شود. در این روش، فضای جستجو توسط الگوریتم ژنتیک به زیرفضاهای ناپیوسته تقسیم می شود. جستجو در این زیرفضاها توسط یک الگوریتم جستجوی دیگر صورت می پذیرد. در الگوریتم پیشنهادی اول از شبیه سازی تبرید برای جستجوی محلی اعمال شده است. در مجموعه داده ها با ابعاد بالا تعداد نقاط مورد جستجو افزایش می یابد. بنابراین، در الگوریتم پیشنهادی دوم از الگوریتم بهینه سازی گروه ذرات به منظور جستجوی نیمه محلی استفاده می شود. این الگوریتم بدلیل قابل تنظیم بودن تعداد ذرات برای جستجو متناسب با ابعاد زیرفضاها باعث افزایش دقت پیش بینی می شود. پس از جستجو و مشخص کردن مقدار برازندگی زیرفضاها، عملگر های تطبیق یافته الگوریتم ژنتیک برای تکامل زیر فضاها بکار گرفته می شوند. به عبارت دیگر، جستجوی نقطه به نقطه به جستجوی زیرمجموعه ای از نقاط و حرکت به زیرمجموعه بهتری از نقاط تبدیل شده است. مزیت قابل توجه این روش قابلیت انعطاف پذیری و ایجاد تعادل میان جستجوی سراسری و جستجوی محلی می-باشد. لذا، الگوریتم پیشنهادی علاوه بر افزایش سرعت همگرایی در دام بهینه محلی نیز گیر نمی کند. برای ارزیابی، روش پیشنهادی با روش های شناخته شده و جدید بر روی 16 مجموعه داده با ابعاد متفاوت و طبقه بندی کننده های مختلف مقایسه شده است. نتایج آزمایشات تجربی برتری این روش نسبت به سایر روش ها از نظر دقت عملکرد و تعداد ویژگی های انتخاب شده را نشان می دهد. روش پیشنهادی از نظر پایداری نیز در دسته روش های برتر قرار می گیرد.
  20. بهبود دید در تصاویر غبارآلود با استفاده از مدل فیزیک اپتیک
    2019
    پدیدههای جویی زیادی همانند مه، هیز، گردوغبار، میست، بارش و.. وجود دارند که باعت کاهش دید و یا افت کیفیت تصاویر دوربینهای ما میشوند. در سالهای اخیر پدیده گردوغبار مشکالت عمدهای را در بسیاری از نقاط دنیا بوجود آورده است. ذرات معلق شن، ماسه، نمک و یا خاک که بصورت تودهای عظیم به وسیله باد و یا جریانات کم فشار از سطح زمین ارتفاع گرفته و گاها تا هزاران متر باال میروند، که یکی از مشکالت عمده این پدیده جویی کاهش دید ناشی از آن میباشد. این ذرات همانند سدی در برابر انتقال مناسب نور بازتابش یافته از اجسام و نور محیط به لنز دوربین عمل میکنند. در سالهای گذشته کارهای زیادی با استفاده از قوانین فیزیک اپتیک در زمینه بهبود کیفیت و دید در تصاویر دارای پدیدههای جویی انجام شده است که عموما بر روی مه و یا هیز کار کردهاند اما روشهای ارائه شده قبلی در حالتی که گردوغبار باعث افت کیفیت تصاویر شده باشد جواب مناسبی را تولید نمیکنند زیرا اساسا ماهیت فیزیکی ذرات گردوغبار با هیز و مه بسیار متفاوت است. از این رو در این پژوهش ما روشی را ارائه دادیم که با استفاده از آن بتوانیم تصاویر دارای گردوغبار را بخوبی بازیابی کنیم. اساس روش ما در این کار، تخمین مناسب نور محیط و تابع انتقال با استفاده از قوانین فیزیک اپتیک و استفاده از یک فیلتر مناسب جهت برجسته سازی جزئیات در تصاویر میباشد. اگرچه کارهای زیادی در زمینه بهبود کیفیت تصاویر دارای گردوغبار انجام نشده است و چند کار محدود قبلی عموما با استفاده از روشهای فیلتر رنگ سعی در بهبود کیفیت اینگونه تصاویر داشتهاند اما روش ما با استفاده از قوانین فیزیک سعی در بازیابی اینگونه تصاویر را دارد میتوان گفت که این موضوع یک زمینه کاری جدید میباشد. هرچند تمرکز اصلی ما در این پژوهش بر روی تصاویر داری گردوغبار است اما نتایج آزمایشات و تصاویر بازیابی شده توسط روش ما در مقایسه با سایر روشها حذف هیز نشان میدهد که نتایج روش ما در زمینه حذف هیز نیز بخوبی عمل میکند و دارای قدرت زیادی میباشد. همچنین نتایج آزمایشات بر روی تصاویر دارای گردوغبار نشان میدهد که روش ما در مقایسه با سایر روشهای حذف گردوغبار بسیار مناسبتر عمل میکند. در ادامه کار به دلیل نبود تصاویر واحد گردوغبار با مقدار غلظت مشخص عددی، مدلی را جهت تولید گردوغبار بر روی تصاویر همگن نیز ارائه دادیم که با استفاده از آن میتوان مقدار گردوغبار مشخصی را با غلظت عددی تعیین شده به تصاویر دو بعدی اضافه کنیم که با استفاده از آن میتوان هر میزان غلظت دلخواه گردوغبار را به تصاویر اضافه نمود
  21. یک راهکار طبقه بندی داده های کلان مبتنی بر یادگیری تدریجی با تاکید بر اولویت نمونه های آموزشی
    2018
    در سال های اخیر، نرخ تولید داده افزایش چشم گیری داشته است. از دلایل این امر می توان به توسعه ابزارهای دیجیتال و دستگاه های ذخیره سازی، استفاده روز افزون از ابزار های دیجیتال همچون تلفن های همراه و رایانه های شخصی، ظهور و پیدایش سیستم ها و نرم افزار های ارتباطی جدید نظیر شبکه های اجتماعی، علاقمندی سازمان ها و شرکت ها به ذخیره سازی و استخراج اطلاعات مفید از میان حجم عظیمی از داده ها و از این قبیل، اشاره نمود. این حجم از داده تولید شده به حدی زیاد است که چالش های جدیدی را برای محققان علوم داده بوجود آورده است و باعث شکل گیری مفهوم جدیدی به نام داده های کلان گردیده است. تجزیه و تحلیل و استخراج دانش مفید از این حجم عظیم داده، با تکنولوژی ها و روش های موجود کنونی بسیار مشکل و در برخی موارد غیرممکن است. در این تحقیق سعی شده است که با اولویت بندی سریع داده ها به لحاظ اهمیت و خلاصه سازی و حذف داده های زائد و کم اهمیت و تاکید بر داده های ارزشمند، باغلبه بر چالش های موجود سر راه پردازش داده های کلان، روشی جدید و سریع برای طبقه بندی این قبیل از داده ها ارائه گردد.
  22. یک راهکار یادگیری نیمه نظارتی مبتنی بر گراف برای طبقه بندی چندبرچسبه
    2018
    مسائل چندبرچسبه در حوزه های مختلف از جمله طبقه بندی خودکار داده های چندرسانه ای به وجود آمده اند و در زمینه بینایی ماشین و یادگیری ماشین مورد توجه قرارگرفته اند. اما روش های موجود به دو چالش اصلی، استخراج وابستگی بین برچسب ها و کمبود داده های برچسب گذاری شده و حتی برچسب های از دست رفته نمی پردازند، درحالی که استخراج همبستگی برچسب ها برای یادگیری چندبرچسبه بسیار مهم است. همچنین رویکردهای فعلی معمولاً با فرض اینکه همبستگی برچسب ها در همه موارد به اشتراک گذاشته شده است از همبستگی های برچسب سراسری استفاده می کنند. لذا در این پژوهش، مدل نیمه نظارتی تجزیه مبتنی بر همبستگی محلی، برای پوشش چالش های ذکر شده پیشنهاد شده است که اجازه می دهد همبستگی برچسب ها به صورت محلی مورد استفاده قرار داد. این مدل به صراحت پایه کمکی را برای یادگیری زیر فضای معنایی معرفی می کند و توانایی های تفکیک کنندگی آن را با استفاده از نمونه های برچسب دار و بدون برچسب تقویت می کند. به عبارت دیگر، برچسب نمونه های برچسب دار را به نمونه های بدون برچسب منتقل می کند. این روش پیشنهادی می تواند به طور مؤثر با مجموعه های مقیاس بزرگ مقابله و همبستگی برچسب ها را استخراج کند و پیش بینی های امیدوار کننده و بهتری نسبت به روش های نوین بدست آورد.
  23. نقش فیلترینگ در آشکارسازی زونهای آلتراسیون
    2018
    همواره در پروژه های اکتشافی، بخصوص در مراحل پی جویی، کوچک نمودن محدوده های اکتشافی به مناطق امید بخش از اهمیت ویژه ای برخوردار بوده است. منطقه مورد مطالعه به وسعت تقریبی 400 کیلومتر مربع در ورقه زمین شناسی 1:100000 ایرانخواه در استان کردستان واقع شده است و راه اصلی دسترسی به آن جاده اصلی سنندج – دیواندره – ایرانخواه – سقز می باشد. از لحاظ زمین شناسی عمده ترین واحدهای سنگی منطقه را سنگ های آتشفشانی از نوع پیروکسن آندزیت و آندزیت تشکیل می دهد. در این پروژه ابتدا تصاویر ماهواره ای سنجنده ASTER )Advanced Spaceborne Thermal Emission and Reflection Radiometer( مربوط به تاریخ 2012/03/19 منطقه مورد نظر تهیه شد و پس از تبدیل کردن آنها از پلن L1A (خام) به پلن L1B(ژیٔورفرنس شده)، تصاویر مربوط به منطقه به منظور برش زدن محدوده مورد مطالعه موزایٔیک(کنارهم گذاشته شدند) شدند در ادامه تصحیح اتمسفری IAR(Internal average )relative reflectance روی تصویر برش زده شده اعمال شد. پس از آماده شدن تصویر برای پردازش، آشکارسازی زون های آلتراسیون آرژیلیک، فیلیک و پروپیلیتیک با استفاده از تکنیک های تر کیب رنگی کاذب، تقسیم باندی، آنالیز مولفه اصلی و کمترین مربعات روی آن پیاده سازی شد و پس از آن در وحله اول برای هموار کردن و همچنین شفاف تر دیده شدن آنها از فیلترهای پایین گذر نظیر فیلتر میانگین و میانه استفاده شد. سپس با توجه به اهمیت اکتشافی زون های فیلیک و آرژیلیک برای کوچک کردن آنها با همان شکل قبلی از عملکردهای مورفولوژیکی نظیر Erosion و Opening استفاده شد. این کار توسط عملکردهای مورد نظر با عناصر ساختاری در شکل های مختلف و اندازه های مختلف انجام شده است که پس از آزمون و خطاهای بسیار، نتایج بدست آمده نشا ن داده است که در ابتدا اعمال فیلتر میانه بر روی زون آرژیلیک یا فیلیک باعث بارزتر دیده شدن آن می شود. سپس با اعمال عملکرد مورفولوژیکی Opening با عنصر ساختاری مربع در اندازه 3×3 زون آرژیلیک یا فیلیک جمع تر و کوچک تر شد و علاوه بر آن باعث تفکیک پیکسل هایی از تصویر که در آن احتمال وجود زمین زراعی به جای آلتراسیون می رود، شده است. در ضمن با بردن تصویر خروجی به سیستم های رنگی مختلف شدت آلتراسیون در نقاط مختلف بدست آمد. در نهایت خطوط هم شدت آلتراسیون توسط نقشه کانتور شده تهیه
  24. نشانه گذاری بلاکی ویدیویی شفاف، مقاوم به نرخ تغییر قاب وحملات هندسی
    2015
    در دهه های اخیر با پیشرفت سریع تکنولوژی اطلاعات وگسترش شبکه اینترنت، امکان استفاده یا تغییر غیرمجاز داده ها مانند کپی و یا جعل با سرعت قابل توجهی افزایش یافته است. درهمین راستا، این امکان باعث شده است که مسئله امنیت و حفاظت اطلاعات به صورت جدی تری مطرح و پیگیری گردد. راه حل های مختلفی برای حل این چالش ارائه گردیده است. یکی از روش های موثر درحل این مسئله، نشانه گذاری می باشد. نشانه گذاری به فرآیند درج یا تعبیه یک نشانه (متن، صدا، تصویر وغیره) در داخل داده میزبان گفته می شود و برای کاربردهایی مانند اثبات مالکیت، شناسایی صاحب اثر، کنترل کپی، تعیین اعتبار محتوی و بایگانی به کار برده می شود. در این پایان نامه، چند الگوریتم برای نشانه گذاری داده های ویدیویی در حوزه مکان و تبدیل ارائه شد است. برخلاف الگوریتم های رایج که نشانه به صورت مستقیم در داده میزبان درج می شود، در الگوریتم های اول و دوم پیشنهادی که جزء روش های نشانه گذاری نیمه کور هستند، از تولید تصویر رمزشده برای درج و استخراج نشانه استفاده می شود. در الگوریتم پیشنهادی اول، ابتدا توسط یک روش بهینه سازی فریم هایی که مناسب هستند انتخاب می شوند. سپس ، در هرفریم مناطقی که مستعد نشانه گذاری هستند و مقاومت بالایی در مقابل حملات مختلف دارند انتخاب می شوند. با این روش الگئریتم به مقاومت بالایی دست می یابد. در همین راستا، به بلاک تفسیم بندی و نهایتا طبقه بندی می شوند. تصویر رمزشده از طریق نوع بلاک و نوع بیت نشانه (0 یا 1) تولید شده و در مرحله استخراج به کمک این تصویر و نوع بلاک نشانه بازسازی خواهد شد. در الگوریتم دوم ضعف الگوریتم اول مرتفع می گردد. الگوریتم دوم در واقع همان روش اول است اما آن را بهبود داده به گونه ای که روش پیشنهادی می تواند در مقابل حملات هندسی نظیر چرخش و برش مقاومت بالایی داشته باشد. در این روش با محاسبه میزان تغییر دستگاه مختصات سعی در جبران آن نموده یعنی تغییرات معکوس می شوند تا سیستم به حالت اولیه برسد سپس نشانه استخراج می شود. این راهکار پیشنهادی باعث می شود که با وجود حملات شدید هندسی نشانه با جزئیات بیشتری بازسازی شود. این روش پیشنهاد شده می تواند تاثیر بسزایی درمقاومت روش های که از بلاک بندی استفاده می کنند، داشته باشد. در الگوریتم سوم، از یک روش نیمه کور دیگر بهره می گیریم که در آن نشانه برخلاف دو
  25. سیستم شناسایی پلاک ماشین با استفاده از تصاویر دید گسترده
    2015
    در طبیعت انواع مختلفی از بینایی دید گسترده در برخی از موجودات تکامل یافته است.ویژگی ها و قابلیت های این نوع از بینایی و ویژگی هایی از جمله کاهش هزینه تجهیزات ویدیویی برای پوشش یک منطقه در کنار افزایش قدرت پردازش رایانه ها موجب شده است که این موضوع در بینایی ماشین مورد توجه قرار گیرد.جذابیت ها و توانایی های منحصر به فرد این نوع از بینایی باعث شده که محققین زیادی در این زمینه فعالیت کرده و هر کدام به جنبه های خاصی از آن بپردازند. هدف اصلی این پایان نامه طراحی و ساخت یک سیستم تصویر برداری با پوشش فضای زاویه ای 360 درجه ای محیط می باشد.به همین منظور از یک سیستم تصویر برداری کاتادیوپتریک متشکل از یک دوربین و آینه هذلولی برای ایجاد تصویر دید گسترده استفاده شده است.همچنین برای نمایش بعضی از خصوصیت های کاربردی این سیستم بینایی،دو موضوع تشخیص پلاک و تشخیص صورت در تصاویر دید گسترده مورد بررسی قرار گرفته است
  26. طبقه بندی داده های نامتعادل با استفاده از روش های نمونه برداری و یادگیری حساس به هزینه
    2014
    مسأله طبقه بندی داده های نامتعادل یکی از مسائلی است که اخیراً توجه زیادی از مهندسین و محققین را به خود جذب کرده است. داده های نامتعادل در واقع نوعی از داده هاست که در آن تعداد نمونه های یک کلاس نسبت به دیگر کلاس ها بسیار بیشتر (یا بسیار کمتر) است. در نتیجه الگوریتم های طبقه بندی کننده به کلاس اکثریت بایاس شده و در بیشتر موارد کلاس نمونه های ورودی جدید را از نوع اکثریت تشخیص می دهد که این امر منجر به کاهش کارایی آنها در مواجهه با این نوع داده می شود. یکی از پرکاربردترین تکنیک هایی که جهت برخورد با داده های نامتعادل به کار می رود، تغییر توزیع کلاس ها با روش های رایجی چون تکنیک های افزایش نمونه یا کاهش نمونه و همچنین سازگار کردن طبقه بندی کننده ها است. در این پایان نامه دو راهکار برای افزایش کارایی طبقه بندی کننده ها در مواجهه با داده های نامتعادل ارائه شده است. ایده اصلی در روش پیشنهادی اول استفاده از دو معیار تنوع و تفکیک پذیری در افزایش نمونه ی کلاس اقلیت است که معیار تنوع در جهت کاهش بیش یادگیری و معیار تفکیک پذیری با جلوگیری از تولید نمونه های ریسک پذیر، تأثیر مثبتی در متعادل سازی توزیع کلاس ها داشته است. روش پیشنهادی اول بر روی 11 مجموعه داده ای با سه نوع طبقه بندی کننده بر اساس شش معیار ارزیابی با چهار روش پیشین مورد مقایسه و ارزیابی قرار گرفته است. در روش پیشنهادی دوم طبقه بندی بیز ساده، به گونه ای تغییر داده شده است که در طبقه بندی کلاسهای اکثریت و اقلیت هزینه های متفاوتی را اعمال نماید. در این روش از ماتریس جریمه مناسب، به منظور کاهش بایاس طبقه-بندی کننده به سمت کلاس اکثریت استفاده شده است. نتایج کار بر روی نه مجموعه داده ای و با بهره گیری از شش معیار ارزیابی داده های نامتعادل و با استفاده از منحنی هزینه نهایی، دقت و عملکرد طبقه بندی کننده بیزین ساده با طبقه بندی کننده استاندارد مورد ارزیابی قرار گرفته است. طبق نتایج به دست آمده دقت روش پیشنهادی در بیشتر موارد افزایش یافته و یا قابل مقایسه با طبقه بندی کننده استاندارد می باشد و از طرفی با اعمال ماتریس جریمه، هزینه نهایی طبقه بندی کننده حساس به هزینه در بیشتر موارد، پایین تر از طبقه بندی کننده بیزین ساده استاندارد می باشد
  27. ارائه یک راهکار مبتنی بر روابط اعتماد به منظور افزایش کارایی سیستم های توصیه گر
    2014
    با توسعه ی سریع محیط جهانی وب، افراد می توانند دانش و اطلاعات خود را از طریق مجموعه ای از ابزارهای انتشار برخط نظیر سیستم های اشتراک گذاری برخط و یا سایت های تجارت الکترونیک، به اشتراک بگذارند. تاکنون ابزارهای زیادی جهت کنترل و سازماندهی این اطلاعات ارائه شده اند. سیستم های توصیه گر، نمونه ای از موفق ترین ابزارهای شخصی سازی وب هستند. مهم ترین وظیفه ی یک سیستم توصیه گر، شناسایی و معرفی آیتم های مورد علاقه ی کاربر در یک فضای بسیار بزرگ از آیتم های قابل انتخاب ( مثل موسیقی، فیلم، کتاب، صفحه وب و ...) است. یکی از معروف ترین و پرکاربردترین سیستم های توصیه گر، روش پالایش گروهی می باشد که از شباهت بین کاربران برای تولید پیشنهاد استفاده می کند. با وجود اینکه این روش ها دقت بالایی در تولید پیشنهاد دارند، اما اغلب دارای ضعف هایی نیز می باشند. این روش ها برای محاسبه ی شباهت بین کاربران نیاز دارند که هر کاربر به تعداد زیادی از آیتم ها رتبه داده باشد که در دنیای واقعی به ندرت این اتفاق می افتد. یک راهکار برای برطرف کردن این مشکل استفاده از مفهوم اعتماد در کنار رتبه های ارائه شده توسط کاربر است که منجر به معرفی سیستم های توصیه گر مبتنی بر اعتماد شده است. سیستم های توصیه گر مبتنی بر اعتماد، یک شبکه ی اعتماد از کاربر هدف به منظور تولید پیشنهاد ایجاد می کنند. یکی از مهم ترین کاربرد های شبکه ی اعتماد، برطرف کردن مشکل انتخاب همسایگی برای کاربر هدف می باشد، زیرا همبستگی زیادی بین روابط اعتماد و مقادیر شباهت کاربران وجود دارد. بنابراین، روابط اعتماد می توانند به عنوان یک منبع اطلاعاتی موثر برای پیش بینی رتبه ها در سیستم های توصیه گر، مورد استفاده قرار گیرند. در این پایان نامه دو روش جدید مبتنی بر حافظه و مبتنی بر مدل به منظور افزایش دقت پیش بینی رتبه ها و رفع مشکل انتخاب همسایگی در سیستم های توصیه گر ارائه شده اند. در روش مبتنی بر حافظه از یک معیار قابلیت اطمینان به منظور افزایش دقت پیش بینی رتبه ها استفاده شده است. بعلاوه، یک روش بازسازی شبکه ی اعتماد بر اساس معیار قابلیت اطمینان ارائه شده، به منظور افزایش دقت و قابلیت اطمینان پیش بینی ها ارائه شده است. در روش مبتنی بر مدل یک روش خوشه بندی جدید به منظور خوشه بندی کاربران و یا آیتم های موجود در سیستم بر اساس تئوری گراف، معیار شباهت و رو
  28. بهبود روشهای شناسایی هویت بر مبنای ویژگیهای بیومتریک چشم
    2013
    در این رساله یک روش جدید برای تشخیص هویت افراد بکمک تصاویر چشم آنها و استخراج تصویر عنبیه ارائه میشود. برای انجام این کار در ابتدا توسط یک الگوریتم کاملا مطمئن و تبدیل هاف دایروی مرز دایروی مردمک استخراج میشود. پس از این دو روش مختلف مورد استفاده و با هم مقایسه میشوند. در روش اول ابتدا مرز منحنی جداکننده پلکهای بالا و پایین با تقریب منحنی درجه دو و تبدیل هاف استخراج میشوند. سپس نویزهای ناشی از وجود پلکها تشخیص داده شده و حذف میگردند. در ادامه توسط یک تبدیل هاف و لبه یاب کنی مرز بیرونی عنبیه استخراج میگردد. اما در روش دوم پس از استخراج مرز مردمک یک فرض تقریبی روی هم مرکز بودن مرز دایره مردمک و دایره مرزی عنبیه در نظر گرفته میشود. و با یک الگوریتم رشد ناحیه با شروع از مرکز مردمک و با شعاعی بیش از شعاع دایره مردمک، مرز خارجی عنبیه استخراج میشود. در روش دوم دیگر نیازی به یافتن مرز پلکها و نقاط نویزی موژه ها نمیباشد. در ادامه ی هر دو روش پس از استخراج ناحیه حلقوی عنبیه یک الگوریتم دایره های مجازی برای نمونه برداری و نگاشت تصویر عنبیه روی یک ناحیه مستطیلی و با استفاده از نمونه برداری غیر یکنواخت با تمرکز روی نواحی نزدیکتر به مردمک عملیات نرمالسازی تصویر عنبیه روی ناحیه مستطیلی را انجام میدهد. سپس مجموعه ای از فیلترهای گابور حقیقی در حوزه فوریه با تغییر زوایای فیلتر روی تصویر عنبیه در حوزه فوریه اعمال میشوند و آنگاه تبدیل معکوس نتیجه کانوالو فیلتر روی تصویر میباشد. در ادامه این تصویر پنجره گزاری و فریمینگ با همپوشانی مناسب میشود و هر فریم جداگانه راهی مرحله بعدی میگردد. هر تصویر فریم راهی یک مرحله لبه یابی با استفاده از عملگرهای سوبل میشود. همانطور که میدانیم عملگر سوبل یک عملگر مشتقگیر است و نتیجه اعمال آن در دو جهت مستقل x و y مقدار گرادیان نقاط تصویر میباشد که در نواحی لبه ای از شدت بالاتری برخوردار است. اما در این قسمت هدف یافتن زاویه گرادیان نقاط تصویر است تا اینکه زوایای لبه های شدیدتر تصویر عنبیه استخراج گردد. سپس این مقادیر زوایا چندی سازی میگردند و از این مقادیر زوایای خروجی چهار زاویه با تکرار بیشتر به عنوان ویژگی این فریم انتخاب میشوند و در بردار ویژگی تصویر عنبیه قرار میگیرند. در نهایت عملیات تشخیص و مقایسه تصاویر با استفاده از همین بردار ویژگی و محاسبه فاصله ا
  29. ارائه چند روش انتخاب ویژگی مبتنی بر راهکار فیلتر با بکارگیری الگوریتم بهینه سازی کلونی مورچه ها
    2013
    امروزه کاربردهای واقعی طبقه بندی که مجموعه های داده ای با حجم زیاد تولید می کنند به سرعت در حال افزایش هستند. مجموعه های داده ای در بسیاری از این کاربردها دارای تعداد زیادی ویژگی به نسبت تعداد کم الگوها هستند که بسیاری از این ویژگی ها نامناسب و دارای افزونگی می باشند و می توانند تاثیر منفی بر روی عملکرد الگوریتم های یادگیری داشته باشند. یک راهکار رایج و مهم برای غلبه بر این مشکل، استفاده از تکنیک های انتخاب ویژگی است که هدف آن انتخاب مناسب ترین ویژگی ها از بین مجموعه ویژگی های اولیه، برای افزایش عملکرد الگوریتم های یادگیری است. معمولاً جستجوی جامع برای پیدا کردن مناسب ترین ویژگی ها به لحاظ هزینه محاسباتی غیر ممکن است. بنابراین انتخاب ویژگی تبدیل به یک چالش عمده در شناسایی الگو و یادگیری ماشین شده است. در این پایان نامه، ابتدا یک روش انتخاب ویژگی جدید مبتنی بر راهکار فیلتر ارائه می شود. در این روش، مسئله انتخاب ویژگی به صورت گراف بازنمایی شده و سپس با استفاده از الگوریتم بهینه سازی کلونی مورچه ها مناسب بودن هر ویژگی تعیین خواهد شد. مزیت عمده روش پیشنهادی، استفاده از الگوریتم مبتنی بر هوش جمعی در راهکار فیلتر است که از هیچ طبقه بندی کننده ای در فرآیند انتخاب ویژگی استفاده نمی کند. همچنین شباهت مابین ویژگی ها در تعیین مناسب بودن آنها درنظر گرفته می شود که منجر به کاهش افزونگی خواهد شد. سپس در ادامه پایان نامه، برای بهبود کارایی و بالا بردن سرعت همگرایی روش پیشنهادی اول، چند روش انتخاب ویژگی دیگر مبتنی بر راهکار فیلتر ارائه خواهد شد. در روش بهبود یافته اول، مناسب بودن هر ویژگی به تنهایی محاسبه شده و در فرآیند انتخاب ویژگی در نظر گرفته می شود. در روش بهبود یافته دوم، انتخاب ویژگی افزایشی معرفی می شود که در آن به جای شباهت مابین دو ویژگی، شباهت مابین یک زیرمجموعه از ویژگی ها محاسبه می شود. در روش بهبود یافته سوم، مفهوم سرد شدن تدریجی در الگوریتم بهینه سازی کلونی مورچه ها جهت کنترل تصادفی بودن الگوریتم بکار برده می شود. در نهایت عملکرد روش های پیشنهادی با 11 روش انتخاب ویژگی شناخته شده تک متغیره و چند متغیره مبتنی بر راهکار فیلتر، با استفاده از طبقه بندی کننده های مختلف مقایسه شده است. نتایج آزمایشات نشان می دهد که روش های پیشنهادی، به لحاظ دقت طبقه بندی، عملکرد بهتری نسبت
  30. ارائه الگوریتم های ریشه یاب و غلط گیر برای متون زبان کردی
    2013
    زبان کردی که در دسته زبانهای هندواروپایی میباشد، توسط ساکنان مناطقی وسیعی در کشورهای ایران، عراق، ترکیه و سوریه مورد تکلم قرار میگیرد. علیرغم جمعیت بالای متکلمان زبان کردی، این زبان در دستهزبانهای کم منبع قرار دارد و چندان مورد توجه پژوهشگران حوزه پردازش زبان به ویژه بازیابی اطلاعات و پردازش زبان طبیعی قرار نگرفته است. بر همین اساس، با هدف ارائه راهحل و رفع مشکل تنک بودن منابع، اخیرا پروژه پردازش زبان کردی ) KLPP ) در دانشگاه کردستان شروع به کار کرده است. هدف اصلی پروژه، ارائه منابع و ابزارهای ضروری برای پردازش متونزبان کردی میباشد. این گزارش، خروجیهای یک پایان نامه ارشد را که در چارچوب KLPP به انجام رسیده است،گزارش میکند. اولین خروجی این پروژه، مجموعه پێوان است، که شامل تعداد زیادی از اسناد نوشته شده به سورانی و کرمانجی–دوگویش اصلی زبان کردی- می باشد. این مجموعه یک منبع زبانشناسی غنی محسوب میشود و بصورت گسترده در تمامی بخشهای این پایاننامه برای تسهیل توسعه سایر ابزاها مورد استفاده قرار گرفته است. به دنبال ساخت این مجموعه اسناد، ما مجموعه آزمون پێوان را به عنوان یک سنگ محک برای سیستمهای بازیابی اطلاعات کردی، ایجاد می کنیم. پس از تولید این پیشنیاز ضروری، ما بر روی اهداف اصلی این پایاننامه، که شامل ساخت یک ریشه یاب، یک هسته یاب و یک غلط گیر، برای زبان کردی به طور عام و برای گویش سورانی به طور خاص میباشد، تمرکز میکنیم. برای این هدف، ابتدا ژێدهر، یک ریشه یاب مبتنی برقاعده )پشتیبانی کننده از هر دو گویش سورانی و کرمانجی( ایجاد و تاثیر آن را بر بهبود کارایی موتورهای جستجوی کردی نشان میدهیم. سپس، پهیڤ، یک هسته یاب مستقل از فرهنگ لغت را ارائه می کنیم، که توانایی استخراج هسته کلمات مشتق )افعال یا اسامی( را دارد. پهیڤ، مبتنی بر مجموعهای از قواعد ریختشناسی میباشد، که آنها را از گویش سورانی گردآوری کردهایم. در نهایت، ڕێنووس را که یک ابزار غلطگیر متون سورانی میباشد، ارائه میکنیم. غلطگیر از روشهای آماری، مبتنی برقاعده و فرهنگ لغت بهره میبرد. ڕێنووس تنها برای تشخیص کلمات اشتباه ارائه نشده است، بلکه میتواند یک لیست از جایگزینهای بالقوه را به کاربر پیشنهاد کند. بسیار علاقه مندیم به این نکته اشاره شود که تمامی راهحلهای ارائه شده در این پایاننامه، پیادهسازی و کارایی آنها به صورت تجربی
  31. بهبود کارایی سیستم های پالایش گروهی با استفاده از تکنیک های خوشه بندی
    2013
    سیستم های توصیه گر، سیستم هایی هستند که برای پیشنهاد کردن آیتم هایی بکار برده می شوند که انتظار می رود این آیتم ها مورد علاقه کاربر قرار گیرند. در سیستم های توصیه گر یک تکنیک پر کاربرد به نام سیستم های پالایش گروهی وجود دارد. این سیستم ها بر این فرضیه استوارند که می-توان اولویت های تعریف شده برای آیتم ها از سوی تعدادی از کاربران را برای سایر کاربران هم به اشتراک گذاشت. بنابراین، در این سیستم ها، هدف اصلی، یافتن یک گروه از شبیه ترین کاربران به کاربر فعال است. معیارهای شباهت، یکی از رایج ترین روش ها برای یافتن کاربران مشابه به کاربر فعال است. با استفاده از این روش، میزان شباهت کاربران نسبت به هم اندازه گیری شده و نهایتاً بر اساس این معیار ها، شبیه ترین کاربران به کاربر فعال به عنوان کاربران همسایه انتخاب می شوند. در این روش ها، برای انتخاب کاربران همسایه، محاسبات بر اساس ماتریس امتیازات کاربران به آیتم ها انجام می شود. اما این روش با چالش هایی مانند خلوت بودن ماتریس امتیازات، مقیاس پذیری و همچنین مشخص نبودن تعداد بهینه کاربران همسایه روبرو است. بعلاوه، در توصیه کردن آیتم ها روش هایی وجود دارند که خیلی از اطلاعات آماری امتیازات استفاده نمی کنند. یک راهکار دیگر برای یافتن کاربران مشابه به کاربر فعال، استفاده از روش های خوشه بندی است. از روش های خوشه بندی برای دسته بندی کردن کاربران در قالب خوشه هایی استفاده می شود که کاربران یک خوشه دارای بیشترین شباهت به هم هستند. در این پایان نامه دو راهکار مبتنی بر خوشه بندی، برای یافتن کاربران شبیه به هم در سیستم های پالایش گروهی پیشنهاد شده است. در راهکار اول، سعی شده است که با استفاده از روش های پیش پردازش مانند انتخاب ویژگی، تعدادی از آیتم های غیر موثر از مجموعه آیتم ها قبل از اعمال روش های خوشه بندی جهت یافتن کاربران همسایه، حذف شوند. نتایج آزمایشات نشان دهنده بهبود کارایی این روش است. در راهکار پیشنهادی دوم، یک روش جدید برای یافتن کاربران ارائه شده است که در این روش نیاز به مشخص نمودن تعداد خوشه ها برای خوشه بندی نیست. در این روش با استفاده از زیر مجموعه ای از آیتم های مورد علاقه کاربران که توسط چند کاربر امتیاز بالایی دریافت کرده اند، کاربران شبیه بدون در نظر گرفتن اینکه دارای امتیازات داده شده به آیتم های مشترکی باشند، در یک
  32. بهبود طبقه بندی متن با استفاده از روش های ترکیب
    2013
    با توجه به گسترش اینترنت و افزایش چشمگیر حجم مطالب متنی، ابزارها و روش های خودکار برای مدیریت اسناد و مطالب متنی، مورد توجه بسیار زیادی قرار گرفته اند. از جمله ی این ابزارها می توان به طبقه بند متن اشاره کرد که می تواند در این زمینه بسیار مؤثر باشد. این ابزار کاربردهای فراوانی در سیستم های بررسی متون مانند موتورهای جستجو، سیستم های فیلترینگ، تشخیص هرزنامه ها، کتابخانه های دیجیتال و سایر سیستم های مشابه دارد. از آن جایی که صحت طبقه بندی متن یکی از مهمترین شاخص های موفقیت این سیستم ها به شمار می آید، از اهداف اساسی این پایان نامه افزایش میزان صحت طبقه بندی متون می باشد. با توجه به میزان کارهای انجام شده قبلی، افزایش کارایی طبقه بندهای منفرد مشکل می باشد، لذا رهیافت ما برای رسیدن به این هدف استفاده و بهبود روش های ترکیب طبقه بندها است. در این پایان نامه برای بهبود صحت طبقه بندی متن، و بر مبنای روش ترکیب رأی گیری وزن دار، دو رهیافت جدید برای وزن دهی طبقه ها و طبقه بندها پیشنهاد شده است. رهیافت اول مبتنی بر در نظر گرفتن وزن مستقل برای هر طبقه و هر طبقه بند است. رهیافت دوم تعمیم رهیافت اول است. بدین شکل که برای جواب مثبت یا منفی هر طبقه بند در مورد هر طبقه وزن مستقلی در نظر گرفته می شود. برای محاسبه ی اوزان در هر دو رهیافت، علاوه بر الگوریتم ژنتیک، معادله تجربی خاصی هم پیشنهاد گردیده است که در زمان بسیار کمتری نسبت به الگوریتم ژنتیک اجرا می گردد. نتایج طبقه بندی بر مبنای محاسبه اوزان با استفاده از معادله ی پیشنهادی، کاملاَ با نتایج استفاده از الگوریتم ژنتیک قابل مقایسه و حتی گاهی بهتر هم می باشد. آزمایش ها با استفاده از طبقه بندهای رُکیو، نزدیک ترین همسایه و بیز، و سه روش انتخاب ویژگی شامل اطلاعات متقابل، خی2 و MCFS انجام شده است. نتایج تجربی حاصل از اعمال الگوریتم های ترکیب پیشنهادی بر روی مجموعه داده های آموزشی رایج و مقایسه با نتایج حاصل از سایر روش های ترکیب طبقه بندها، مانند رأی گیری وزن دار، عملگر میانگین وزن دار رتبه یافته و روش قالب تصمیم، نشان می دهد که رهیافت های پیشنهادی دقت طبقه بندی را بنحو چشمگیری افزایش داده اند. این نتایج از آزمایش بر روی چهار مجموعه داده های آموزشی متفاوت و رایج بدست آمده است.
  33. تشخیص کیفیت برنج با استفاده از تکنیک های بینایی ماشین
    2013
    برنج از مهمترین غلات و اقلام غذایی جهان می باشد. نیمی از مردم جهان به برنج به عنوان یک غذای اصلی وابسته هستند. برنج غذای اصلی مردم آسیا و منبع اصلی پروتئین است. تنها در آسیای جنوبی، غذای اصلی 80% مردم ،برنج می باشد. پردازش تصویر، تکنولوژی تهیه و آنالیز تصاویر یک صحنه واقعی به وسیله کامپیوتر در راستای کسب اطلاعات یا کنترل یک پروسه است. نمونه بارز کاربرد پردازش تصویر، صنایع غذایی است. می توان با کمک بینایی ماشین، خصوصیات تصویر را استخراج نمود و از آن برای تشخیص و شناسایی کیفیت انواع محصولات استفاده کرد. روش های سنتی ارزیابی حسی در تعیین کیفیت مواد غذایی کاربرد زیادی دارند ولی این روش ها زمانبر و پرهزینه هستند. همچنین شرایط فیزیکی انسان مثل خستگی یا حتی شرایط روحی می تواند بر نتیجه کار تاثیرگذار باشد این عوامل سبب ایجاد انگیزه برای توسعه روش های جانشین است که در زمان کمتر و با دقت بیشتر خصوصیات کلیدی محصول را ارزیابی کنند. در سال های اخیر پژوهش های محدودی به منظور کیفیت سنجی و درجه بندی برنج با استفاده از فناوری بینایی ماشین انجام شده است. هدف از این پایان نامه، ارائه یک سیستم تشخیص ارقام و اصالت برنج با دقت بالا و کارامد می باشد. این پایان نامه به سه بخش اصلی تقسیم شده است. در بخش اول و دوم، تشخیص ارقام برنج به صورت دانه ای و توده ای مورد بررسی قرار گرفته اند. بخش سوم پایان نامه نیز، به بحث اصالت سنجی برنج می پردازد. منظور از اصالت سنجی برنج، تشخیص برنج اصل از ترکیبی می باشد. گام های تشخیص دانه ای ارقام برنج شامل تصویربرداری، قطعه بندی، استخراج ویژگی، انتخاب ویژگی و طبقه بندی می باشد. بعد از قطعه بندی، از هر دانه ی برنج سه نوع ویژگی شکلی، رنگی و بافتی استخراج شده است. با استفاده از چهار الگوریتم انتخاب ویژگی، ویژگی های برتر پیدا شدند. این ویژگی ها، ورودی شش طبقه بندی کننده بودند. بهترین ترکیب بین روش های انتخاب ویژگی و طبقه بندی کننده ها، مربوط به ویژگی های انتخاب شده توسط الگوریتم رقابت استعماری و ماشین بردار پشتیبان بود که به دقت بیش از 95 درصد رسید. سپس با استفاده از ویژگی های انتخاب شده توسط الگوریتم رقابت استعماری و چهار طبقه بندی کننده، یک طبقه کننده ی ترکیبی مورد استفاده قرار گرفت. تکیه اصلی در تشخیص توده ای ارقام برنج، بر اساس استخراج ویژگی های بافتی استوار اس
  34. راهکار جدید برای افزایش کارایی در سیستم های پالایش گروهی با استفاده از فاکتورسازی ماتریس
    2013
    اینترنت به عنوان ابزاری در دسترس همگان، حجم فراوانی از داده ها را به عنوان فرصتی مناسب پیش روی کاربران خود قرار داده است. به طوری که امروزه با توجه به حجم روزافزون داده و اطلاعات، نیاز به سیستم هایی که توانایی هدایت کاربران به سمت کالا و سرویس مورد نظر را داشته باشند بیش از پیش احساس می شود. سیستم های توصیه گر از طریق تحلیل این داده ها به کاربران، کالا یا خدماتی را توصیه (پیش بینی) می کنند. این داده ها می تواند شامل رفتار مشتریان در خرید های قبلی، علایق و سلایق و حتی موقعیت جغرافیایی، اولویتها و تعداد مراجعات او در هر بار ورود به فروشگاه مجازی، سن، شغل و مواردی از این قبیل می باشد. نمونه ای از سیستم های توصیه گر در دنیای واقعی، سایت آمازون می باشد، که به هر کاربری با توجه به سابقه ای که دارد به او کالا یا خدماتی را پیشنهاد می دهد. سیستم های توصیه گر به دو دسته کلی سیستم های توصیه گر مبتنی بر محتوا و سیستم های توصیه گر پالایش گروهی تقسیم می گردند. سیستم های پالایش گروهی به دلیل اینکه فقط به رتبه کاربران به آیتم هایی که قبلا خریده اند، نیاز دارند و به هیچ گونه اطلاعات اضافه ی دیگری مثل مشخصات کاربران یا اطلاعات کالا احتیاجی ندارند، بسیار مورد توجه سرمایه گذاران تجاری می باشد. سیستم های توصیه گر پالایش گروهی دارای روش های متعددی است، که یکی از معروفترین و پر کاربردترین آن روش های فاکتورسازی ماتریس است. به صورت کلی خروجی نهایی فاکتورسازی ماتریس در سیستم های توصیه گر، ماتریس تقریبی کامل شده ای می باشد که سطرهای آن کاربران و ستون های آن آیتم ها می باشند. درایه های این ماتریس بیانگر رتبه ای است که کاربری به آیتمی خاص داده است. واضح است که این ماتریس در ابتدا بسیار خالی می باشد. در این پایان نامه سیستم های توصیه گر مبتنی بر پالایش گروهی مورد توجه قرار گرفته اند. اولین کار جدیدی که انجام شده است وارد کردن مباحث تکاملی در فاکتورسازی ماتریس می باشد. که در اینجا فقط الگوریتم ژنتیک مورد بررسی و تحلیل قرار گرفته است. ماتریس رتبه بسیار خالی می باشد، راه کاری برای این کار استفاده از روش های پیش پردازش می باشد، که اخیرا معرفی شده است. در فاکتورسازی ماتریس، کامل سازی ماتریس و فرایند یادگیری زمانبر می باشد و نمی تواند به صورت آنلاین انجام شود. حال اگر کاربری رتبه جدیدی به آیتمی دهد، ه
  35. نشانه گذاری کارای تصاویر دیجیتال بر مبنای روش های تکراریِ فشرده سازی نشانه
    2013
    در دهه های اخیر با پیشرفت سریع تکنولوژی اطلاعات و گسترش شبکه اینترنت، امکان استفاده یا تغییر غیرمجاز داده ها مانند کپی و یا جعل با سرعت قابل توجهی افزایش یافته است. در همین راستا، این امکان باعث شده است که مساله امنیت و حفاظت اطلاعات به صورت جدی تری مطرح گردد. راه حل های مختلفی برای حل این مساله ارائه گردیده است. یکی از این روش ها، نشانه گذاری می باشد. نشانه گذاری به فرایند درج یا تعبیه یک نشانه ( متن، صدا، تصویر و غیره) در داخل داده میزبان گفته می شود و برای کاربردهایی چون اثبات مالکیت، شناسایی صاحب اثر، کنترل کپی، تعیین اعتبار محتوی و بایگانی به کار برده می شود. در این پایان نامه، سه الگوریتم برای نشانه گذاری تصاویر رقمی در حوزه ی تبدیل های موجک و تجزیه مقادیر منفرد ارائه شده است. بر خلاف الگوریتم های رایج که از یک تصویر نشانه ی خاکستری استفاده می کنند، در الگوریتم های اول و دوم پیشنهادی که جزء روش های نشانه گذاری نیمه کور می باشند، از روشهای تکرار برای تولید تصاویر نشانه استفاده شده ست. در این دو روش بجای ذخیره سازی مستقیم تصویر نشانه، روش تولید تصویر نشانه در تصویر میزبان ذخیره می گردد. در الگوریتم پیشنهادی اول، ابتدا تصویر نشانه استفاده شده توسط متد CPPN-NEAT تولید می شود و سپس بجای استفاده مستقیم از این تصویر تولید شده، ماتریس وزن ساختار شبکه CPPN انتخابی در عملیات نشانه گذاری مورد استفاده قرار می گیرد. در مرحله جاسازی از این الگوریتم، ابتدا تصویر میزبان توسط چند مرحله اعمال تبدیل موجک گسسته به زیرباندهای فرکانسی تجزیه می شود. از زیرباندهای بدست، به یک زیرباند خاصی در سطح های مختلف(از اعمال تبدیل موجک) تجزیه مقادیر منفرد گرفته می شود. با توجه به اهمیت ضرایب موجود در ماتریس وزن ساختار CPPN انتخابی، عملیات درج در ماتریس های مقادیر ویژه انجام می گردد. الگوریتم استخراج نشانه روالی عکس با مرحله جاسازی دارد. بعد از استخراج ماتریس وزن، این ماتریس را در ژنومی که با عنوان کلید استخراج داشتیم، قرار داده و متد CPPN-NEAT را دوباره اجرا می کنیم تا تصویر نشانه اصلی بازسازی گردد. نتایج پیاده سازی، شفافیت بالا و مقاومت مناسب روش پیشنهادی را نشان می دهد. در الگوریتم پیشنهادی دوم، تصویر نشانه اصلی در ابتدا از مجموعه تصاویر فراکتالی انتخاب شده، سپس با استفاده از خصوصیات این نوع
  36. اکتساب مهارت در یادگیری تقویتی با استفاده از مدل های آماری خوشه بندی گراف
    2012
    یادگیری تقویتی با مسئله یادگیری عامل هوشمند برای انتخاب اعمال به منظور بیشینه کردن کارایی عامل سروکار دارد. استفاده از مهارت ها در یادگیری تقویتی، سبب سرعت بخشیدن به کارکرد عامل می شود. یافتن اهداف میانی و ایجاد مهارت برای دست یابی به آنها، مسئله ای کلیدی در کشف خودکار مهارت می باشد. با کشف اهداف میانی و تعیین تابع سیاست دست یابی به آنها، عامل قادر به اکتشاف مؤثرتر ویادگیری سریع تر در کارهای دیگر در محیط های یکسان یا مشابه است. در این پژوهش، از رویکرد مبتنی بر گراف برای کشف اهداف میانی استفاده شده است. دو مدل آماری برای خوشه بندی گراف ارائه گشته است. مهارت ها به صورت زیر سیاست هایی تعریف می شوند که انتقال مؤثر از یک خوشه به خوشه دیگر را برای عامل فراهم می سازند. مجموعه داده های شناخته شده در خوشه بندی گراف و مثال اتاق ها در یادگیری تقویتی مورد استفاده قرار گرفته اند و نتایج بدست آمده نشان دهنده کارایی روش ارائه شده می باشد.
  37. خوشه بندی گراف با استفاده از مدل های آماری
    2012
    در سالهای اخیر توجه زیادی به سمت کشف خوشه ها در خصوصیات شبکه های مختلف معطوف شده است. شبکه هایی نظیر اینترنت، وب گسترده جهانی، شبکه حمل و نقل، شبکه های ایمیل، شبکه-های اجتماعی و زیستی و... مثال هایی از این نوع شبکه ها هستند. به فرآیند گروه بندی کردن راس های گراف به داخل خوشه ها بطوری که در داخل هر خوشه تراکم یال ها زیاد و بین خوشه ها تراکم نسبتا کم باشد خوشه بندی کردن گراف گفته می شود. در سال های اخیر الگوریتم های زیادی برای شناسایی این ساختارها توسعه داده شده اند. از آنجایی که در کاربردهای واقعی اندازه داده ها با سرعت زیادی افزایش می یابد، کارایی الگـوریتم های کلاسیک برای گراف های بزرگ کاهش پیدا می کند. درچنین وضعیتی الگوریتم های خوشه بندی مبتنی بر مدل، یک جایگزین مناسب برای نوع های کلاسیک هستند. کارایی الگوریتم های خوشه بندی گراف مبتنی بر مدل به مقداردهی اولیه صحیح پارامترهای آن وابسته است. به همین منظور، در این پایان نامه یک الگوریتم تکاملی به منظور پیدا کردن مقادیر مناسب برای الگوریتم های خوشه بندی گراف مبتنی بر مدل ارائه شده است. روش ارائه شده هم بر روی داده های شبیه سازی شده و هم بر روی داده های واقعی مورد آزمایش قرار گرفته است و نتایج بدست آمده نشان دهنده افزایش کارایی روش پیشنهادی در مقایسه با مقداردهی تصادفی پارامترها است.
  38. Combined wide vision system for navigation of robots
    2012
    Nature has provided a variety of wide vision systems. The capabilities of this type of vision increase the processing power of computers and reduce the cost of video equipment. Machine vision (MV) is the technology and methods used to provide imaging-based automatic inspection and analysis for such applications as automatic inspection, process control, and robot guidance, usually in industry. Machine vision refers to many technologies, software and hardware products, integrated systems, actions, methods and expertise. Machine vision as a systems engineering discipline can be considered distinct from computer vision, a form of computer science. It attempts to integrate existing technologies in new ways and apply them to solve real world problems. The term is the prevalent one for these functions in industrial automation environments but is also used for these functions in other environments such as security and vehicle guidance.
  39. نشانه گذاری مقاوم تصاویر رنگی با استفاده از تکنیک تجزیه مقادیر تکین در حوزه تبدیل فرکانس
    2012
    دسترسی آسان به اینترنت به همراه ذخیره سازی و ضبط دیجیتال نسبتا ارزان، دورانی را ایجاد کرده است که در آن امکان تغییر غیر مجاز داده ها از جمله کپی ، توزیع، استفاده وجعل با سرعت چشمگیری افزایش یافته است لذا حفاظت از داده، یک نیاز حیاتی است و روش های مختلفی برای آن ارائه گردیده است. یکی از این روش ها نشانه گذاری می باشد. نشانه گذاری به فرآیند تعبیه کردن نشانهدر داخل تصویر میزبان برای کاربردهایی چون اثبات مالکیت ،شناسایی صاحب اثر، اطمینان از تغییر نیافتن محتوی، کنترل کپی،بایگانی اطلاعات و غیره اطلاق می شود. در این پایان نامه، سه الگوریتم برای نشانه گذاری مقاوم تصاویر رنگی رقمی در حوزه ی تبدیل موجک گسسته با استفاده از تبدیل مقادیر تکین و آنالیز مؤلفه های مستقل ارائه شده است. در الگوریتم اول که یک روش نیمه کور می باشد، ابتدا تصویر اصلی را از فضای رنگی RGB به فضای رنگی YUV انتقال می دهیم. سپس از هریک از مؤلفه های رنگی چند مرحله تبدیل موجک گسسته گرفته شده و زیرباند فرکانس پایین هر مؤلفه به عنوان تصویر مرجع انتخاب می شود. از تصاویر مرجع یک مرحله ی دیگر تبدیل موجک گسسته گرفته می شود و مقادیر تکین تمام زیرباندهای فرکانسی محاسبه می گردد. همچنین از تصویر نشانه نیز یک مرحله تبدیل موجک گسسته گرفته شده و مقادیر تکین زیرباندهای فرکانسی تصویر نشانه نیز به دست آورده می شود. سپس، مقادیر تکین زیرباندهای فرکانسی تصویر نشانه در مقادیر تکین زیرباندهای فرکانسی متناظر تصاویر مرجع به صورت افزونه تعبیه می شود. الگوریتم دوم، برای جاسازی نشانه دقیقاً همانند الگوریتم اول عمل می کند با این تفاوت که در مرحله ی استخراج نشانه از متد آنالیز مؤلفه های مستقل استفاده می شود.استفاده از آنالیز مؤلفه های مستقل در مرحله استخراج نشانه نتایج بهتری را از لحاظ کیفیت نشانه ی استخراجی به دست می دهد. نتایج استخراج روش پیشنهادی به میزان زیادی نتایج روش های مشابه در مرحله ی جاسازی را بهبود بخشیده است. در الگوریتم سوم، ضعف اصلی الگوریتم های اول و دوم (نیاز به تصویر مرجع برای بازیابی مقادیر تکین جاسازی شده) برطرف شده است. لذا این روش یک روش کور می باشد. در این روش، زیرباندهای فرکانسی مرحله ی آخر تبدیل موجک مؤلفه های رنگی تصویر میزبان به بلوک های 2×2 تقسیم شده و بیت های مقادیر تکین به ترتیب در داخل بلوک های زیرباندهای فر
  40. نشانه گذاری تصاویر رقمی با استفاده از آنالیز مولفه های مستقل
    2012
    در دهه های اخیر پیشرفت تکنولوژی فناوری اطلاعات و گسترش شبکه ی اینترنت، فضای بسیار مناسبی را برای تولید و تبادل اطلاعات فراهم کرده است. در همین راستا، امکان تغییر غیرمجاز داده ها باعث شده است که مساله ی امنیت اطلاعات به صورت جدی تر مطرح شود. یکی از روش های حفظ امنیت داده ها، نشانه گذاری می باشد؛ نشانه گذاری به فرایند درج یک داده ی شناسایی در داده ی میزبان گفته می شود و برای مواردی چون اثبات مالکیت، شناسایی صاحب اثر، تعیین اعتبار محتوی، کنترل کپی و بایگانی اطلاعات به کار برده می شود. اخیرا روش های نشانه گذاری با محور مشترک جاسازی مقادیر تکین نشانه در حوزه تبدیل در سطح وسیعی مطرح گردیده اند. لذا در این پایان نامه سعی شده است تا با بررسی این روشها، برای بهبود و رفع ضعف های موجود راهکارهایی ارائه شود. این راهکارها در سه محور بهبود نتایج الگوریتم استخراج نشانه، جاسازی مقاوم در یک فضا از زیرباندهای مستقل و رفع نقص برخی روش های نشانه گذاری با مطرح کردن یک روش نشانه گذاری کور، ارائه شده اند. در این پایان نامه، سه الگوریتم برای بهبود روش های نشانه گذاری تصاویر رقمی ارائه می شود که ابزار اساسی روش های پیشنهادی، متد تحلیل مولفه های مستقل است. قابلیت الگوریتم های تحلیل مولفه های مستقل در جداسازی منابع مستقل، بستر مناسبی برای استفاده از ان هم در بحث استخراج و هم جایگذاری نشانه فراهم می کند. تمرکز الگوریتم اول برروی استخراج نشانه خاکستری توسط متد تحلیل مولفه های مستقل است. در فرایند جاسازی نشانه، ابتدا از تصویر میزبان چند مرحله تبدیل موجک گسسته گرفته می شود. سپس از زیرباندهای فرکانسی مرحله ی آخر، زیرباند فرکانسی تخمینی به عنوان تصویر مرجع انتخاب می شود و با اعمال تجزیه مقادیر تکین به زیرباندهای فرکانسی تصویر مرجع و تصویر نشانه، مقادیر تکین زیرباندهای فرکانسی نشانه در مقایر تکین زیرباندهای فرکانسی متناظر تصویر مرجع جاسازی می شوند. استخراج نشانه توسط متد تحلیل مولفه های مستقل و با استفاده از تصویر مرجع مرحله ی جاسازی، انجام می شود. در الگوریتم پیشنهادی دوم، از متد تحلیل مولفه های مستقل به عنوان یک حوزه ی تبدیل چند سطحی برای تبدیل تصویر میزبان و تصویر نشانه به یکسری زیرباند فرکانسی مستقل استفاده می شود. برای جاسازی نشانه ی خاکستری بعد از اعمال چند مرحله تبدیل تحلیل مولفه های مستقل به
  41. طراحی و آموزش شبکه های عصبی مصنوعی بااستفاده از الگوریتم های تکاملی با نمایش جدید
    2012
    شبکه های عصبی مصنوعی یکی از ابزارهای یادگیری ماشین است که کاربردهای فراوان آن در دنیای امروز مشهود است. عملکرد شبکه های عصبی مصنوعی به نحوه ی آموزش شبکه و طرح معماری آن وابسته است. طراحی معماری شبکه ی عصبی شامل انتخاب ویژگی های ورودی، تعیین تعداد نرون های میانی و نحوه ی برقراری ارتباط بین ویژگی های ورودی، نرون های میانی و نرون های خروجی است که معمولا توسط فرد خبره انجام می شود. در این پژوهش سه الگوریتم برای طراحی معماری و آموزش وزن های شبکه توسعه داده شده است. الگوریتم اول قادر به تولید و آموزش شبکه های عصبی پیش رو با یک لایه ی مخفی است. این الگوریتم در طراحی معماری، تعداد نرون های میانی را تعیین می کند و بین لایه های مجاور شبکه ارتباط کامل برقرار می کند. الگوریتم دوم ارائه شده، علاوه بر تعیین تعداد نرون های لایه ی میانی، ویژگی های ورودی مرتبط را انتخاب می کند. همچنین نحوه‎ ی ارتباط بین ورودی ها و نرون های میانی را تعیین کرده و اوزان شبکه را تنظیم می کند. این الگوریتم ها کاملا از دانش فرد خبره بی نیاز نیستند. اما الگوریتم سوم با هدف عدم وابستگی طراحی و آموزش شبکه های عصبی به فرد خبره توسعه داده شده است. معماری شبکه های تولید شده توسط این الگوریتم لزوما لایه ای نیست و نرون های میانی می توانند دارای هر نوع ارتباطی (حتی بازگشتی) باشند. برای ارزیابی الگوریتم های ارائه شده از مسائل دسته بندی استاندارد و مقایسه ی نتایج این الگوریتم ها با دیگر سیستم های تکامل شبکه عصبی استفاده شده است. نتایج آزمایشات، برتری الگوریتم های ارائه شده بر الگوریتم مورد مقایسه را در بسیاری از موارد نشان می دهد. سهم اجزای الگوریتم ها در کارایی آن ها مورد تحلیل و بررسی قرار گرفته و نتایج مشاهدات در این گزارش آمده است.
  42. تحلیل صحنه بر اساس اطلاعات تصویر و فاصله
    2012
    درک معنایی صحنه های دنیای واقعی، در حالی که برای انسان کاملا روشن و واضح است، چالشی است که هنوز در بینایی ماشین بطور کامل حل نشده است. شناسایی اشیای موجود در محیط و درک موقعیت آنها، بخشی از روش های تحلیل صحنه توسط ماشین می باشد. روش های قدیمی تر شناسایی و تشخیص اشیاء معمولا بر اساس تصاویر دوبعدی، که نگاشت دنیای سه بعد در دوبعد هستند، می باشد. اطلاعات مربوط به فاصله اشیای صحنه در اینگونه تصاویر مهیا نبوده و همچنین تاثرپذیری زیاد تصاویر دوبعدی از تغیرات نوری و سایه ها کار را مشکل تر کرده است. از آنجا که روش های دریافت اطلاعات سه بعدی سطوح توسط سخت-افزارهایی مانند اسکنرهای سه بعدی و لیزرها محبوبیت پیدا کرده اند، روش های جدید به سمت استفاده از داده هندسی سه بعدی در تشخیص شئ برای غلبه بر مشکلات روش های تحلیل تصاویر دوبعدی حرکت کرده-اند. علیرغم اینکه هم اطلاعات نوری و رنگ و هم اطلاعات هندسه سطوح در درک صحنه انسان را کمک می-کنند، غالب روش ها تنها از یک نوع داده دو یا سه بعدی استفاده می کنند که وجود مشکلاتی در هر یک از آنها بدیهی بنظر می رسد. لذا در این پایان نامه سعی شده است از هر دو نوع اطلاعات مربوط به رنگ و هندسه سه بعدی سطوح اشیای موجود بمنظور درک صحنه استفاده گردد. در این پایان نامه دو روش جدید بر اساس ترکیب اطلاعات دوبعدی و سه بعدی بمنظور در نظر گرفتن همه اطلاعات مهم دوبعدی و سه بعدی ارائه شده است. در روش پیشنهادی اول با در نظر گرفتن اهمیت اطلاعات روشنایی و رنگ اشیای صحنه و اهمیت زمان پردازش در سیستم های بلادرنگ، اساس کار برپایه تصاویر دوبعدی انجام شده است. در این روش بمنظور تحلیل صحنه و درک معنایی آن ناگزیر به استخراج ویژگی ها و یافتن تطبیق با ویژگی های مستخرج از مدل شی می باشیم. ویژگی های اولیه بر اساس شباهت نوری با هم تطبیق داده شده و بدلیل امکان وجود اشتباهات تطبیقی میان ویژگی هایی بر اساس نور و رنگ، سطح هندسی آنها نیز بررسی شده و درصورت تشابه هندسی نیز تایید صحت تطبیق ها انجام می شود. نتایج ایجاد شده ا ز این روش، نسبت به نتایج حاصل از الگوریتم های دوبعدی از دقت بیشتری برخوردار می باشد. در روش دوم با درنظر گرفتن قدرت بیشتر هندسه فضایی سطوح در تحلیل و درک صحنه در برابر اطلاعات رنگ و روشنایی، از اطلاعات سه بعدی بعنوان اساس کار استفاده شده است. در این روش بر اساس ار
  43. نهان نگاری امن پرظرفیت تصاویر دیجیتال
    2012
    گسترش چشم گیر داده های چند رسانه ای در دنیای الکترونیک ما، الزام به وجود رهیافت جدیدی برای برقراری ارتباط، به نام نهان نگاری دیجیتال دارد. از طرف دیگر تصاویر به دلیل داشتن افزونگی بالا و درک دیداری محدود انسان به تغییرات ایجاد شده در آن ها، و نیز گسترش استفاده در اینترنت، سیگنال های پوشش مناسبی به شمار می روند. در نقطه مقابل نهان نگاری، روش های تحلیل نهان نگاری وجود دارند که سعی در پی بردن به وجود ارتباط سری دارند. یک سیستم نهان نگاری بایستی داده پیام را به صورت غیرقابل مشاهده و غیر قابل شناسایی در سیگنال پوشش جایگذاری نماید. در این پایان نامه درصدد ارائه روش های نهان نگاری ای هستیم که این دو مهم را برآورده سازند. در پایان نامه حاضر، سه روش نهان نگاری ارائه شده است. روش اول، داده پیام را در ضرایب کانتورلت تصویر جایگذاری می نماید. روش ارائه شده از دو جهت مورد توجه است: اول آن که تبدیل کانتورلت تحلیل دقیق تری از تصویر به دست می دهد و تغییر در یک ضریب، تاثیر کم تری در ضرایب دیگر دارد. دوم آن که روش های تحلیل نهان نگاری موجود، محدود به دامنه DCT و موجک هستند و در شناسایی تصاویر نهان نگاری شده در حوزه کانتورلت با مشکل مواجه می شوند. روش پیشنهادی دوم، پیام را در دامنه موجک تصویر به نحوی جایگذاری می کند که کم-ترین تغییرات متوجه تصویر پوشش شود و نیز روش های تحلیل نهان نگاری مختلف نیز قادر به تشخیص وجود پیام سری نشوند. ایده روش سوم از متد تجزیه به وسیله ترکیب در ووکودر CELP گرفته شده است و آن را "نهان نگاری به وسیله نهان کاوی" نامیده ایم. در این روش ابتدا پیام مخفی توسط روشی نوین مبتنی بر تبدیل موجک صحیح، در تصویر پوشش جایگذاری می شود و به واحد تحلیل نهان نگاری داده می شود تا امنیت آن توسط نهان کاوهای مختلف مورد ارزیابی قرار گیرد. خروجی واحد تحلیل فیدبکی برای واحد نهان نگاری محسوب می شود. کنترل این حلقه را الگوریتم ژنتیک به عهده می گیرد. نتایج به دست آمده از این روش، حاکی از تولید تصاویر نهان نگاری شده ای با PSNR بالاتر از 70 dB و مقاوم در برابر روش های تحلیل آماری است، و نیز روش های تحلیل نهان نگاری فراگیری مانند نهان کاو 274 بعدی و WBS نتوانسته اند با دقتی بیشتر از 60 درصد، وجود پیام را تشخیص دهند.
  44. زیست سنجی چند مؤلفه ای تحت وب
    2011
    با گسترش استفاده از اینترنت به عنوان ابزار اصلی در تعاملات اقتصادی و همچنین زندگی شخصی افراد، اهمیت استفاده از روش های امن تر و مطمئن تر برای کاربردهای تحت وب بیش از پیش احساس می شود. این کاربردها عموماً شامل دسترسی به داده های مهم و شخصی یا انجام تراکنش های مالی می باشند. امروزه اکثر روش های احراز هویت در وب مبتنی بر شناسه و رمز عبور است که ناکارآمدی آن نگرانی های زیادی را در این زمینه ایجاد کرده است. از طرفی فناوری ریست سنجی به معنی بازشناسی افراد با استفاده از خصوصیات فیزیولوژیکی و یا رفتاری آنها، امروزه نقشی کلیدی در سیستمهای امنیتی مختلف داشته و استفاده از آن بسیاری از مشکلات روش های سنتی تایید هویت را برطرف کرده است. با وجود این استفاده از این فناوری برای کاربردهای تحت وب خود چالش های جدیدی ایجاد می کند. به خطر افتادن حریم شخصی کاربران، نبود سخت افزارهای ورودی مناسب در اکثر سرویس گیرنده های وب و همچنین بدون ناظر بودن فرآیند احراز هویت از مهمترین چالش های یادشده می باشند. برای غلبه بر این چالش ها، در این پایان نامه رهیافتی چند مؤلفه ای مبتنی بر زیست سنجی ارائه شده است که از مشخصه های زیستی صورت، نیمرخ و فرم گوش برای تشخیص هویت افراد استفاده می کند. تمامی مؤلفه های مورد استفاده مبتنی بر تصویر بوده و از تصاویر بدست آمده از وب کم معمولی نیز می توان برای انجام فرآیند شناسایی هویت استفاده کرد. اولین مؤلفه مورد استفاده، "صورت" می باشد که دو چارچوب متفاوت برای انجام تمامی پردازش های مرتبط با آن ارائه شده است. این پردازش ها شامل فرآیند تشخیص صورت، تعقیب صورت در تصاویر، تشخیص حالات صورت، تشخیص جهت صورت، تایید زنده بودن صورت و شناسایی صورت می باشند. رهیافت اول ساختاری پایین به بالا دارد که با استفاده از 24 نقطه کلیدی اطراف مؤلفه های صورت، مدل اولیه آن را استخراج می کند. موقعیت این نقاط کلیدی با استفاده از رهیافتی مبتنی بر AdaBoost و Back Projection دو بعدی برای بخش بندی ناحیه صورت در فضای رنگی YCbCr تعیین می شوند. رهیافت دوم از یک مدل بالا به پایین برای استخراج ساختار اولیه صورت استفاده می کند. نسخه ای تغییر یافته از الگوریتم تعقیب اشیاء CAMSHIFT همراه با راهکار ASM برای استخراج و تعقیب مدلی 68 نقطه ای بصورت بلادرنگ استفاده شده است.
  45. احراز اصالت و اعتبار در تصاویر دیجیتال با استفاده از الگو های ذاتی تصویر
    2011
    امروزه پیشرفت تکنولوژی دیجیتال باعث شده است که افراد مختلف با کمترین هزینه و مهارت قادر به دستکار تصاویر باشند. از این رو تغییر محتوای تصویر با مقاصد سودجویانه و تخریب جایگاه اجتماعی افراد به عنوان یک تهدید جدی در عصر دیجیتال مطرح شده است که اعتماد به تصاویر را دشوار کرده است. محققان برای مبارزه با این تهدید یک تصویر را یا از لحاظ اعتبار منبع تولیدکننده آن یا از لحاظ صحت محتوی مورد بررسی قرار می دهند. در این روش ها برای احراز اصالت و اعتبار تصویر معمولاَ از الگوهای ذاتی تصویر استفاده می شود. این الگوها یا بواسطه وسیله تصویربرداری یا الگوریتم های پس پردازشی در تصویر ایجاد می شوند. در این پایان نامه به ارائه سه روش جدید برای بهبود الگوریتم های احراز اصالت و اعتبار تصاویر میپردازیم. روش پیشنهادی اول با استفاده از الگوی نویز سنسور و اطلاعات محلی تصویر به تشخیص منبع که یکی از زیرشاخه های اصلی در احراز اصالت و اعتبار تصویر است می پردازد. در این روش بر اساس مشخصه های محلی تصویر و توجه به این نکته که توان نویز در همه نواحی تصویر یکسان نیست، بهترین نواحی برای استخراج الگوی نویز انتخاب می شود. سپس بر اساس میزان همبستگی الگوی نویز مناطق انتخاب شده ی تصویر با الگوی نویز دوربین های موجود، منبع مولد تصویر تعیین می شود. روش دوم با هدف مرتفع نمودن ضعف اصلی الگوریتم اول، که ضعیف بودن الگوی نویز و وابسته بودن آن به نواحی تصویر است، ارائه شده است. در این روش با توجه به اینکه همه پیکسل های سنسور در شرایط یکسان دارای واکنش یکسانی به نور نیستند یک مدل جدید برای دوربین معرفی می شود که رفتار پیکسل های سنسور در برابر نور های مختلف را مدل می کند. در این روش ابتدا مدل مقادیر که بیانگر رفتار متعارف سنسورها است استخراج شده و سپس مدل دوربین بر اساس مدل مقادیر و موقعیت پیکسل ها بدست می آید. دوربین منبع با توجه به میزان هبستگی مدل تصویر با مدل دوربین های موجود تعیین می شود. روش سوم به ارایه یک راهکار جدید برای تشخیص جعل کپی نواحی می پردازد. در جعل کپی نواحی واقعیتی در تصویر توسط نواحی از همان تصویر پوشانده می شود بنابراین در تشخیص این نوع جعل باید بدنبال نواحی مشابه در تصویر بود. برای این کار در روش پیشنهادی ابتدا اطلاعات بافت نواحی با استفاده از فیلتر گابور استخراج، سپس برای کاهش پیچیدگی زمانی و
  46. پیاده سازی راه رفتن روبات انسان نما با استفاده از تولید کننده الگوی مرکزی
    2011
    اساسی ترین مشکل در کنترل روباتهای انساننما، وجود تعداد درجات آزادی زیاد در مکانیزم آنها است. اکثر کارهای انجام شده در این زمینه بر مبنای مدلسازی دقیق روبات و محیط اطراف آن صورت گرفته است. چنین روشهایی به علت تطبیقی نبودنشان توانایی خود را با تغییر محیط از دست میدهند. این در حالی است که ویژگی اصلی حرکت انسان و مهرهداران دیگر، تطبیقی بودن حرکات آنها است. مطالعات بیولوژیکی نشان میدهد که قسمت اعظم کنترل حرکات ریتمیک در مهرهداران در سطح پایینتر از مغز و توسط شبکههای عصبیای به نام مولدهای مرکزی الگو ایجاد میشود. در این پایان نامه، از الگوها و الگوریتمهای تطبیقی حرکت مهرهداران برای کنترل حرکت راه رفتن روبات انساننمای نائو استفاده شده است. برای مدلسازی ریاضی مولدهای مرکزی الگو نیز از مدل اسیلاتور عصبی ماتسواکا که شامل دو نرون مخالف هم با نامهای نرون انبساطی و انقباضی است استفاده شده است. مدل ماتسواکا یک مدل خطی درجه چهار بوده و قابلیت قفل شدن فرکانسی را در فرکانس ورودی دارد. پارامترهای شبکه مولد مرکزی الگو با استفاده از گونه خاصی از الگوریتمهای تکاملی ذرات تنظیم شده است. با تنظیم پارامترهای شبکه مولد مرکزی الگو دو عمل راه رفتن و چرخش به روبات یاد داده شده و روبات در وضعیتهای خاصی میتواند بین دو عمل سوئیچ کند. تولید کننده الگوی مرکزی در هر لحظه دارای یک وضعیت منحصر بفرد میباشد و سوئیچ بین اعمال تنها در وضعیت خاصی که وضعیت امن نامیده میشود میتواند صورت گیرد. از ترکیب این دو عمل برای رفتن روبات به هر مکان در محیط استفاده شده است.
  47. بازیابی محتوایی تصاویر بر مبنای یادگیری ماشین از طریق تعامل با کاربر
    2011
    با رشد سریع دستگاه های تصویربرداری و اینترنت، حجم تصاویر دیجیتال و پایگاه داده های تصویری به سرعت رو به افزایش است، و از طرفی دسترسی کاربران به این تصاویر به سهولت صورت می-گیرد. در نتیجه نیاز به سیستم های بازیابی تصویر که بتواند به صورت مؤثر کار بازیابی تصویر را انجام دهد بیشتر شده است. در این پایان نامه، سعی بر آن است تا ساختاری برای پیاده سازی یک سیستم بازیابی تصاویر ارائه شود که بتواند بر اساس محتویات بصری تصاویر و با استفاده از یادگیری نظرات کاربران عمل بازیابی را انجام دهد. برای توصیف شباهت تصاویر در این پایان نامه از دو ویژگی رنگ و بافت تصاویر استفاده گردیده است. برای توصیف ویژگی رنگ از دو روش هیستوگرام سراسری رنگ و اتوکرلوگرام رنگ تصویر ناحیه-بندی شده استفاده شده است. محاسبه اتوکرلوگرام رنگ در روش پیشنهادی باعث مؤثرتر شدن و مقاوم شدن این توصیفگر نسبت به دوران و انتقال تصاویر می شود. اتوکرلوگرام ذاتاً یک روش توصیف محلی است؛ محاسبه اتوکرلوگرام رنگ در تصویر ناحیه بندی شده محلی بودن این اطلاعات را افزایش می دهد. برای اضافه نمودن اطلاعات سراسری رنگ، از هیستوگرام رنگ که یک توصیفگر کاملاً سراسری است در ترکیب با اتوکرلوگرام استفاده گردیده است. نتیجه این ترکیب، یک توصیفگر رنگ مؤثر است که می تواند بخوبی برای بازیابی تصاویر مورد استفاده قرار گیرد. مشکل عمده همه سیستم های مبتنی بر رنگ، ضعف در بازیابی تصاویر با محتوای مشابه و رنگ های متفاوت است. به منظور رفع این مسأله و بهبود روش مبتنی بر رنگ بیان شده از موجک گابور به عنوان ویژگی بافت در ترکیب با ویژگی های رنگ استفاده شد. برای ترکیب این سه ویژگی و محاسبه فاصله نهایی هر دو تصویر موجود، از یک سیستم مبتنی بر قواعد فازی استفاده شده است، که می تواند ترکیب بسیار مؤثر تری را ارئه نماید، و به تبع آن دقت نتایج نهایی بازیابی شده را نیز بهبود بخشد. تمامی مراحل ذکر شده به صورت برون خطی و تنها یکبار صورت می گیرند. در مرحله بازیابی تصاویر، سیستم با استفاده از بازخورد کاربران در پاسخ به تصاویر بازیابی شده برای پرس وجوی انجام شده، عمل یادگیری و بهبود نتایج را با استفاده از اتوماتای یادگیر توزیع شده، انجام می دهد. پایگاه داده مورد استفاده، مشتق شده از پایگاه داده COREL می باشد، که تصاویر آن بر اساس شباهت مفهومی در 10 رده طبقه بندی شده اند
  48. بررسی ارتباط بازارهای مالی و پدیده های نجومی با استفاده از الگوریتم های هوش مصنوعی
    2011
    معاملات در بازارهای مالی و به خصوص بازار فارکس نقشی بسیار مهم و حیاتی را در فعالیت بانکها و شرکتهای تجاری بزرگ بازی می کند، از این رو توانایی انجام معاملات سودآور در این بازارها به مسئله ای پر اهمیت تبدیل شده است. یکی از روشهای مورد استفاده برای معامله در تمامی بازارها، معامله با استفاده از موقعیت اجرام آسمانی نسبت به هم یا به عبارت دیگر استرولوژی مالی می باشد که از سالیان بسیار دور مورد استفاده بوده و اخیرا و به طور خاص در یک قرن اخیر با توجه به پیشرفتهای علوم محاسباتی بسیار مورد توجه قرار گرفته است. در حال حاضر اکثریت قریب به اتفاق تحلیل های مالی بر بعد قیمت صورت می گیرد در حالی که در تحلیلهای استرولوژی مالی تحلیل بر روی هر دو بعد زمان و قیمت انجام شده و در تحلیل بیان می شود که در کدام قیمت و چه زمانی چه نوع معامله ای باید انجام شود و این دید بسیار کاملتری را به معامله گران بازارهای مالی می دهد. اما مشکلی که در این رابطه وجود دارد این است که تعداد این اتفاقات در روز بسیار زیاد می باشد و اینکه کدامیک از این حوادث بر یک بازار خاص تاثیر می گذارند مساله ای است که هنوز مبهم می باشد. لذا به نظر می رسد استفاده از علوم داده کاوی، یادگیری ماشین و ابزارهای هوش مصنوعی می تواند در استخراج این قوانین کارایی بالایی داشته باشد. در این تحقیق سعی می شود تا با استفاده از علم هوش مصنوعی این تاثیرات، بر قیمت پوند دلار در بازار فارکس بررسی و قوانین مربوطه استخراج شوند.
  49. نشانه گذاری چندگانه تصاویر پزشکی در حوزه تبدیل موجک
    2010
    نشانه گذاری چندگانه تصاویر پزشکی به فرایند درج چند نشانه مختلف، به منظور برآوردن همزمان نیازهای اعتبارسنجی، حفظ جامعیت و درج اطلاعات پزشکی بیمار درون تصویر پزشکی اطلاق می-گردد. در این پایان نامه سه الگوریتم نشانه گذاری چندگانه در حوزه تبدیل موجک ارائه شده است که در هر سه الگوریتم پیشنهادی، سه نشانه امضای دیجیتالی پزشک، عنوان و مرجع با هدف برآوردن نیازهای مذکور در ضرایب تبدیل موجک تصویر درج می گردند، همچنین در هر سه الگوریتم ، تصویر به چند بخش تقسیم شده و میزان داده ای که در هر بخش درج می گردد، به ویژگی میزان هموار بودن با ناهموار بودن آن بخش بستگی دارد، توجه به ناحیه مورد توجه تصویر در فرایند درج نشانه و استفاده از دنباله های شبه تصادفی اعداد، به منظور انتخاب مکان های درج، از نکات مشترک دیگر الگوریتم های پیشنهادی محسوب می گردند. در الگوریتم اول به منظور پایدارتر کردن امضای دیجیتالی پزشک از تبدیل SVD ضرایب زیرباندهای فرکانسی تبدیل موجک تصویر استفاده می گردد. در الگوریتم دوم این نیاز با درج امضای دیجیتالی پزشک در زیرباندهای فرکانسی پایدارتر برآورده می شود. همچنین الگوریتم دوم با تقسیم ناحیه مورد توجه تصویر به نواحی مختلف و استفاده از معادل تبدیل یافته این بخش ها توسط تابع درهم-ساز، به عنوان نشانه مرجع، مکان تغییرات اتفاق افتاده را به صورت ناحیه ای (و نه به صورت دقیق) تشخیص می دهد. الگوریتم سوم با استفاده از معادل چندی سازی شده یکی از زیرباندهای ناحیه مورد توجه تصویر، به عنوان نشانه مرجع، مکان یابی تغییرات ناحیه مورد توجه تصویر را به صورت دقیق تری انجام می دهد. کیفیت بصری تصاویر نشانه گذاری شده توسط هر سه الگوریتم در حد بسیار بالایی بوده و نیاز شفافیت تصاویر پزشکی را به خوبی برآورده می سازد. الگوریتم های سه گانه پیشنهادی در تکامل یکدیگر بوده و به ترتیب نیاز پایداری امضای دیجیتالی پزشک را بهبود می بخشند، این بهبود متوالی الگوریتم های پیشنهادی در مورد میزان شکنندگی نشانه مرجع هم صدق می کند. به منظور هرچه بیشتر کاربردی کردن الگوریتم های پیشنهادی، واسط گرافیکی کاربر مناسبی برای الگوریتم های مذکور طراحی و پیاده سازی شده است، بنابراین الگوریتم ها به صورت یک بسته نرم افزاری تکمیل شده و می تواند با اعمال تغییراتی در بیمارستان ها مورد استفاده پزشکان و بیماران محترم قرار گیرد.
  50. نشانه گذاری مقاوم و ناآگاه تصاویر با استفاده از تجزیه مقادیر تکین در حوزه تبدیل موجک
    2010
    با پیشرفت سریع تکنولوژی در شاخه ی کامپیوتر و اینترنت امکان تغییر غیر مجاز داده ها از جمله کپی، توزیع، استفاده و جعل با سرعت چشمگیری افزایش یافته است. لذا حفاظت از داده، یک نیاز حیاتی است که روش های مختلفی برای آن ارائه گردیده است. یکی از این روش ها نشانه گذاری می باشد. نشانه گذاری به فرآیند تعبیه ی نشانه( در تحقیق مزبور نشانه ی خاکستری) در داخل تصویر میزبان برای کاربردهایی چون اثبات مالکیت، شناسایی صاحب اثر، اطمینان از تغییر نیافتن محتوی، کنترل کپی و بایگانی اطلاعات اطلاق می شود. در این پایان نامه، چهار الگوریتم برای نشانه گذاری پایدار تصاویر رقمی در حوزه تبدیل موجک گسسته با استفاده از تبدیل مقدار تکین ارائه شده است. در الگوریتم اول که یک روش نیمه کور می باشد، ابتدا از تصویر نشانه چندین مرحله تبدیل موجک گسسته گرفته می شود. سپس، یکی از زیرباندهای فرکانسی مرحله ی آخر تجزیه به عنوان تصویر مرجع انتخاب شده و دوباره روی آن و تصویر نشانه ی خاکستری یک مرحله تبدیل موجک گسسته اعمال می گردد. در ادامه، از تمامی زیرباندهای فرکانسی تصویر نشانه و تصویر مرجع تبدیل تجزیه مقادیر تکین گرفته شده و مقادیرتکین زیرباندهای فرکانسی تصویر نشانه در مقادیر تکین زیرباندهای فرکانسی متناظر تصویر مرجع جایگذاری می گردد. در الگوریتم دوم، ضعف اصلی الگوریتم اول) نیاز به تصویر مرجع برای بازیابی مقادیر تکین تعبیه شده( مرتفع شده است. لذا این روش یک روش کور می باشد. در این روش، زیرباندهای فرکانسی تصویر میزبان به بلوک های 2×2 تقسیم شده و بیت های مقادیر تکین به ترتیب در داخل بلوک های زیرباند فرکانس پایین که بر حسب ضرایب پر معنی مرتب شده اند، و در بلوک های سایر زیرباندهای فرکانسی جایگذاری می گردد. در این الگوریتم برای طراحی استخراج کننده ی کور از آرایه های شبه باینری مخصوصی استفاده کرده ایم که در الگوریتم های سوم و چهارم پیشنهادی نیز با کمی تغییر به کار گرفته شده اند. الگوریتم سوم، نسخه ی توسعه یافته ای از الگوریتم دوم می باشد و از این واقعیت که پایداری سیستم نشانه گذاری با تعبیه مقادیر تکین تصویر نشانه در داخل مقادیر تکین زیرباندهای فرکانسی به میزان قابل توجهی افزایش می یابد، استفاده می کند. البته جایگذاری مقادیر تکین به صورت افزونه و در تمامی زیرباندهای فرکانسی، شفافیت سیستم نشانه گذاری را به شدت پایین می
  51. نهان نگاری تطبیق پذیر مقاوم براساس تصحیح هیستوگرام
    2010
    نیاز به برقراری ارتباط ایمن، بشر را به سمت رمز نگاری محتوی ارتباط سوق داد، اما این نیاز با پیشرفت روز افزون تکنولوژی، وجود ارتباط مخفی را طلب می نمود. روشهای نهان نگاری برای برآورده شدن این هدف جای رمز نگاری را گرفتند. با ادامه پیشرفت ها و گسترش روشهای نهان نگاری، روشهای تحلیل این الگوریتم ها مورد توجه قرار گرفتند. امروزه مقاوم نمودن روشهای نهان نگاری در برابر این روشهای تحلیل الگوریتم که هدف آنها در ابتدا کشف وجود پیام مخفی در ارتباط پنهانی است، اهمیت ویژه ای یافته است. در راستای تحقق این هدف، در این پایان نامه دو روش مقاوم در مقابل تحلیل های مهم نهان نگاری تصاویر دیجیتال ارائه شده است که علاوه بر ویژگی مقاومت، از شفافیت بالایی نیز نسبت به روشهای مشابه برخوردار است. در روش پیشنهادی اول بهترین تفاضل در هر بلوک دو در دو پیکسلی در تصویر پیدا شده و بیشترین جاسازی در این قسمت انجام می شود، در حین جاسازی هیستوگرام تصویر حامل پیام، اصلاح شده تا به هیستوگرام تصویر اولیه نزدیک شود. این ویژگی یکی از عوامل بالا بودن مقاومت تصویر است. در روش پیشنهادی دوم که نهان نگاری را در حوزه تبدیل انجام می دهد، بیت های پیام در ضرایب بزرگ باند های فرکانس بالای تبدیل موجک صحیح جاسازی می شوند. پس از جاسازی و بازگشتن به حوزه مکان، از یکی از ویژگی های تبدیل موجک استفاده شده و تصحیح هیستوگرام در بلوک های دو در دو تصویر انجام می شود. این روش علاوه بر داشتن شفافیت بالا، مقاومت خوبی را نیز داراست. نتایج به دست آمده با دیگر روشهای مشابه مقایسه گردیده است و نشان می دهد روشهای ارائه شده در مقابل حملات مربع کای و RS مقاوم هستند و شفافیت دید مناسبی دارند. گرچه ممکن است ظرفیت جاسازی بسیار بالایی نداشته باشند. به دلیل مقاومت بالای روشهای ارائه شده، می توان کاربرد های امنیتی مثل مخابرات مخفی و یا سیستم های نظامی و جاسوسی را برای این روشها متصور بود.
  52. شخصی سازی موتورهای جستجو با استفاده از روشهای هوشمند
    2010
    امروزه رشد و تغییر نمایی در حجم اطلاعات وب موجب عدم دسترسی سریع و آسان کاربران به اطلاعات مورد نیازشان شده است. اگرچه بکارگیری ابزارهایی مثل موتورهای جستجو می تواند به کاربران در یافتن اطلاعات مورد نیازشان کمک نماید و باعث تسریع و تسهیل دسترسی به اطلاعات وب شود، اما حجم اطلاعاتی که موتورهای جستجو به کاربر تحویل می دهند، معمولا بسیار بیشتر از آن است که قابل پردازش سریع توسط کاربر باشد. علاوه بر این اغلب موتورهای جستجو از محتوای صفحات و ساختار پیوند بین آنها برای تعیین میزان ارتباط صفحات با پرس وجوی کاربر استفاده می کنند. در واقع موتورهای جستجو علایق و دانش پیش زمینه کاربر را در جستجو مورد توجه قرار نمی دهند و نتایج مشابهی را برای کاربران با علایق متفاوت و پرس وجوی یکسان بازیابی می نمایند. بنابراین با توجه به اهمیت دسترسی سریع به اطلاعات مناسب برای کاربران در تعامل با وب، شخصی سازی کردن وب به یک پدیده محبوب به منظور سفارشی کردن محیط های وب تبدیل شده است. در این میان شخصی سازی نتایج حاصل از موتورهای جستجوی وب از اهمیت خاصی برخوردار می باشد. فرآیند شخصی سازی می تواند بعنوان یک کاربرد داده کاوی در نظر گرفته شود که شامل همه فازهای یک چرخه داده کاوی رایج از قبیل جمع آوری داده، پیش پردازش، کشف الگو و توسعه دانش بعنوان واسطه بین کاربر و وب می باشد. هدف اصلی در یک سیستم شخصی سازی، فراهم نمودن اطلاعات مورد نیاز کاربران برطبق علایق آنها و بدون دخالت صریح کاربران می باشد. این در حالی است که بررسی های انجام شده نشان می هد که در رویکردهای استفاده شده تاکنون، سیستمی که بتواند فرآیند شخصی سازی را بصورت اتوماتیک و مستقل از کاربر و یا شخص خبره انجام دهد، به چشم نمی خورد. علاوه بر این در سیستم های شخصی سازی که بصورت جمعی عمل می مایند، قابلیت بروز رسانی و سازگاری با تغییر در کاربران و علایق آنها وجود ندارد. وجود چنین خلاهایی ما را بر آن داشت تا به دنبال ارائه روش های شخصی سازی باشیم که علاوه بر اتوماتیک بودن و قابلیت سازگاری با تغییر در کاربران و علایق آنها، از روش های هوشمند مبتنی بر یادگیری ماشین مانند تکنیک های فازی، الگوریتم های داده کاوی و غیره در راستای بهبود نتایج بدست آمده و افزایش کارایی سیستم استفاده نماید. در راستای این اهداف سه روش برای شخصی سازی نتایج موتورهای جستجو ارائه م