Metasezgisel algoritmalar ile aşırı öğrenme makinesi parametrelerinin optimizasyonu

dc.contributor.advisorÖzkan, İlker Ali
dc.contributor.authorDoğan, Musa
dc.date.accessioned2021-11-04T08:11:18Z
dc.date.available2021-11-04T08:11:18Z
dc.date.issued2020en_US
dc.date.submitted2020
dc.departmentEnstitüler, Fen Bilimleri Enstitüsü, Bilgisayar Mühendisliği Ana Bilim Dalıen_US
dc.description.abstractİleri beslemeli sinir ağları çok popüler ve tahmin içeren çoğu uygulamada sıklıkla kullanılan bir ağ mimarisidir. Bu mimarilerde nöronlar arası bilgi akışı girdi katmanından çıktı katmanına doğrudur. Aşırı Öğrenme Makinesi (AÖM), tek gizli katmana sahip ileri beslemeli bir yapay sinir ağı algoritmasıdır. AÖM'de geleneksel ileri beslemeli sinir ağlarından farklı olarak giriş ağırlıkları (w) ve gizli biaslar (b) rastgele belirlenmekte ve çıkış katmanındaki nöronların ağırlıkları analitik olarak Moore-Penrose adı verilen genelleştirilmiş matris tersimsisi yöntemiyle hesaplanmaktadır. Gradyan temelli algoritmalar ile sinir ağı parametrelerinin yinelemeli olarak ayarlanması yerine AÖM'de analitik olarak hesaplamayla öğrenme hızının ve genelleştirme performansının arttığı görülmüştür. AÖM'de giriş ağırlığı ve gizli eşik değeri parametrelerinin rastgele seçilmesi çok hızlı bir şekilde öğrenme işleminin gerçekleşmesini sağlamakla beraber bazı durumlarda genelleştirme performansı iyi bir sonuç vermemektedir. Ayrıca AÖM, gradyan temelli algoritmalara göre gizli katmanda daha fazla nörona ihtiyaç duyabilmektedir. Bu nedenlerle giriş ağırlıkları ve gizli eşik değerlerinin optimum değerlerinin belirlenmesine yönelik çalışmalar mevcuttur. Bu çalışmada AÖM parametrelerinin optimum değerlerinin belirlenmesinde meta sezgisel optimizasyon algoritmaları kullanılmıştır. Belirlenen optimum giriş ağırlıkları ve gizli eşik değerleri kullanılarak AÖM'nin çıkış ağırlıkları analitik olarak hesaplanmaktadır. AÖM'nin optimizasyonunda daha önce uygulanan Parçacık Sürü Optimizasyonu (PSO), Rekabetçi Sürü İyileştirici (RSİ) gibi sürü zeka algoritmalarına ek olarak Harris Şahinleri Optimizasyonu (HŞO) ile yeni bir AÖM optimizasyon modeli geliştirilmiştir. AÖM'nin optimizasyonu için geliştirilen bu hibrid modeller açık erişimli veri setleri üzerinde denenmiş ve elde edilen sonuçlar birbirleriyle karşılaştırılmıştır.en_US
dc.description.abstractFeedforward neural networks are a very popular and frequently used network architecture in many predictive applications. In these architectures, the information flow between neurons is from the input layer to the output layer. Extreme Learning Machine (ELM) is a feed forward neural network algorithm with a single hidden layer. Unlike conventional feedforward neural networks, the input weights (w) and weight bias (b) are randomly determined in ELM, and the weights of the neurons in the output layer are calculated analytically using the generalized matrix inversion method called Moore-Penrose. Instead of iteratively adjusting neural network parameters with gradient-based algorithms, it was observed that the learning speed and generalization performance increased with analytical computation in ELM. Although random selection of input weight and hidden bias parameters in ELM enables the learning process to happen very quickly, generalization performance does not give a good result in some cases. In addition, ELM may require more neurons in the hidden layer compared to gradient-based algorithms. For these reasons, there are studies to determine the optimum values of input weights and hidden bias values. In this study, meta-heuristic optimization algorithms were used to determine the optimum values of the ELM parameters. The output weights of ELM are calculated analytically by using the determined optimum input weights and hidden bias values. In addition to swarm intelligence algorithms such as Particle Swarm Optimization (PSO), Competitive Swarm Optimizer (CSO), which were previously applied in the optimization of ELM, a new ELM optimization model was developed with Harris' Hawks Optimization (HHO). These hybrid models developed for the optimization of ELM were tested on open access data sets and the results obtained were compared with each other.en_US
dc.identifier.citationDoğan, M. (2020). Metasezgisel Algoritmalar ile Aşırı Öğrenme Makinesi Parametrelerinin Optimizasyonu. (Yüksek Lisans Tezi). Selçuk Üniversitesi, Fen Bilimleri Enstitüsü, Konya.en_US
dc.identifier.urihttps://hdl.handle.net/20.500.12395/42312
dc.language.isotren_US
dc.publisherSelçuk Üniversitesi Fen Bilimleri Enstitüsüen_US
dc.relation.publicationcategoryTezen_US
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.selcuk20240510_oaigen_US
dc.subjectAÖM parametreleri optimizasyonuen_US
dc.subjectaşırı öğrenme makinesien_US
dc.subjectclassificationen_US
dc.subjectELM parameter optimizationen_US
dc.titleMetasezgisel algoritmalar ile aşırı öğrenme makinesi parametrelerinin optimizasyonuen_US
dc.title.alternativeOptimization of extreme learning machine parameters with metaheuristic algorithmsen_US
dc.typeMaster Thesisen_US

Dosyalar

Orijinal paket
Listeleniyor 1 - 1 / 1
Yükleniyor...
Küçük Resim
İsim:
MUSA DOĞAN.pdf
Boyut:
1.78 MB
Biçim:
Adobe Portable Document Format
Açıklama:
Lisans paketi
Listeleniyor 1 - 1 / 1
Küçük Resim Yok
İsim:
license.txt
Boyut:
1.44 KB
Biçim:
Item-specific license agreed upon to submission
Açıklama: