An Operant Condıtıonıng Approach For Large Scale Socıal Optımızatıon Algorıthms
Yükleniyor...
Tarih
2020
Yazarlar
Dergi Başlığı
Dergi ISSN
Cilt Başlığı
Yayıncı
Selçuk Üniversitesi Mühendislik Fakültesi
Erişim Hakkı
info:eu-repo/semantics/openAccess
Özet
The changes that positive or negative results cause in an individual's behavior are called Operant Conditioning. This paper introduces an operant conditioning approach (OCA) for large scale swarm optimization models. The proposed approach has been applied to social learning particle swarm optimization (SL-PSO), a variant of the PSO algorithm. In SL-PSO, the swarm particles are sorted according to the objective function and all particles are updated with learning from the others. In this study, each particle's learning rate is determined by the mathematical functions that are inspired by the operant conditioning. The proposed approach adjusts the learning rate for each particle. By using the learning rate, a particle close to the optimum solution is aimed to learn less. Thanks to the learning rate, a particle is prevented from being affected by particles close to the optimum point and particles far from the optimum point at the same rate. The proposed OCA-SL-PSO is compared with SL- PSO and pure PSO on CEC 13 functions. Also, the proposed OCA-SL-PSO is tested for large-scale optimization (100-D, 500-D, and 1000-D) benchmark functions. This paper has a novel contribution which is the usage of OCA on Social Optimization Algorithms. The results clearly indicate that the OCA is increasing the results of large-scale SL-PSO.
Olumlu veya olumsuz sonuçların bir bireyin davranışında neden olduğu değişikliklere Edimsel Koşullandırma denir. Bu makale, büyük ölçekli sürü optimizasyon modelleri için bir edimsel koşullandırma yaklaşımı (OCA) sunar. Önerilen yaklaşım, PSO algoritmasının bir varyantı olan sosyal öğrenme parçacık sürüsü optimizasyonuna (SL-PSO) uygulanmıştır. SL-PSO'da sürü parçacıkları amaç işlevine göre sıralanır ve tüm parçacıklar diğerlerinden öğrenilerek güncellenir. Bu çalışmada, her parçacığın öğrenme hızı, edimsel koşullanmadan esinlenen matematiksel fonksiyonlar tarafından belirlenir. Önerilen yaklaşım, her parçacık için öğrenme oranını ayarlar. Öğrenme oranını kullanarak, optimum çözüme yakın bir parçacığın daha az öğrenmesi amaçlanmaktır. Öğrenme oranı sayesinde bir parçacığın çözüme yakın partikül ile çözüme uzak partiküllerden aynı oranda etkilenmesinin önüne geçilmektedir. Önerilen OCA-SL-PSO, CEC 13 işlevlerinde SL-PSO ve saf PSO ile karşılaştırılır. Ayrıca, önerilen OCA-SL-PSO, büyük ölçekli optimizasyon (100-D, 500-D ve 1000-D) karşılaştırma işlevleri için test edilmiştir. Bu yazının, Sosyal Optimizasyon Algoritmalarında OCA'nın kullanımı olan yeni bir katkısı vardır. Sonuçlar açıkça OCA'nın büyük ölçekli SL-PSO sonuçlarını artırdığını göstermektedir.
Olumlu veya olumsuz sonuçların bir bireyin davranışında neden olduğu değişikliklere Edimsel Koşullandırma denir. Bu makale, büyük ölçekli sürü optimizasyon modelleri için bir edimsel koşullandırma yaklaşımı (OCA) sunar. Önerilen yaklaşım, PSO algoritmasının bir varyantı olan sosyal öğrenme parçacık sürüsü optimizasyonuna (SL-PSO) uygulanmıştır. SL-PSO'da sürü parçacıkları amaç işlevine göre sıralanır ve tüm parçacıklar diğerlerinden öğrenilerek güncellenir. Bu çalışmada, her parçacığın öğrenme hızı, edimsel koşullanmadan esinlenen matematiksel fonksiyonlar tarafından belirlenir. Önerilen yaklaşım, her parçacık için öğrenme oranını ayarlar. Öğrenme oranını kullanarak, optimum çözüme yakın bir parçacığın daha az öğrenmesi amaçlanmaktır. Öğrenme oranı sayesinde bir parçacığın çözüme yakın partikül ile çözüme uzak partiküllerden aynı oranda etkilenmesinin önüne geçilmektedir. Önerilen OCA-SL-PSO, CEC 13 işlevlerinde SL-PSO ve saf PSO ile karşılaştırılır. Ayrıca, önerilen OCA-SL-PSO, büyük ölçekli optimizasyon (100-D, 500-D ve 1000-D) karşılaştırma işlevleri için test edilmiştir. Bu yazının, Sosyal Optimizasyon Algoritmalarında OCA'nın kullanımı olan yeni bir katkısı vardır. Sonuçlar açıkça OCA'nın büyük ölçekli SL-PSO sonuçlarını artırdığını göstermektedir.
Açıklama
Anahtar Kelimeler
Operant Conditioning, Large Scale Optimization, Operant Conditioning Approach, Swarm Optimization Algorithm, Social Learning Based Optimization, Edimsel Koşullandırma, Büyük Ölçekli Optimizasyon, Edimsel Koşullandırma Yaklaşımı, Sürü Optimizasyon Algoritması, Sosyal Öğrenme
Kaynak
Selçuk Üniversitesi Mühendislik, Bilim ve Teknoloji Dergisi
WoS Q Değeri
Scopus Q Değeri
Cilt
8
Sayı
özel
Künye
Çeltek, S., Durdu, A. (2020), An Operant Condıtıonıng Approach For Large Scale Socıal Optımızatıon Algorıthms. Konya Mühendislik Bilimleri Dergisi. 8, 38-45.