Yangın ve Güvenlik Dergisi 200. Sayı (Temmuz-Ağustos 2018)

30 Yangın ve Güvenlik / Temmuz-Ağustos 2018 yanginguvenlik.com.tr KAPAK KONUSU / MAKALE kullandık. RGB (Üç kanaldan red, green and blue_ Kırmızı, Yeşil ve Beyaz meydana gelen) retina görüntüleri gri tonla- ması görüntülerine dönüştürülür. Gri tonlamalı bir görüntü içinde sadece grinin tonları olan bir görüntüdür. Böyle bir görüntüyü diğer renkli görüntüden farklılaştırma nedeni her piksel için daha az bilgiye ihtiyaç duymasıdır. Gerçekte gri bir renk içinde kırmızı, yeşil ve mavi elemanların tümünün RGB alanda aynı yoğunluktadır ve tüm renkli görüntülerdeki her piksel için üç yoğunluk belirlemeye olan ihtiyacın aksine her piksel için tek bir yoğunluk değeri belirlemeye ihtiyaç vardır. Genellikle, gri tonlamalı yoğunluk grinin 256 olası farklı to- nunu veren 8-baytlı bir tamsayıda depolanır. Şekil 3. (b) re- tinanın gri tonlamalı görüntüsüne dönüştürülmüş renklendi- rilmiş RGB retina görüntüsünü (a) göstermektedir. Makalede retina görüntülerinin kimliğini saptama için bu görüntülerin segmentlere ayırma sonuçlarını kullanıyoruz. Segmentle- re ayırmanın sonucunda retinaya ait görüntülerin damarlı temsilcisi elde edilmiş olur. (c) resmi retinaya ait görüntü- de segmentlere ayırmanın sonuçları göstermektedir. Elde edilen görüntü ölçeklendirilir, Şekil 4, ve tanıma maksatlı olarak kullanılır. Ölçeklendirme görüntü boyutunun sabit bir oranla artırılması veya azaltılmasıdır. Görüntüyü önce alansal çözünürlükle sarmalayarak düzletiriz. Ancak, ilgili yönlerde özel bir etmenle ölçeğin azaltılması sonucunda, küçültülmüş görüntünün eninin yüksekliğine oranı orijinal görüntüdeki oranın aynı olarak kalır. Ölçekleme giriş verisinin ölçüsünü azaltmak için uygulanır. Girdi özellikleri vektörü seğmenlere ayrılmış retinaya at görüntülerin nümerik değerlere dönüştürülmesiyle elde edilir. Ancak, böyle bir girdi vektörünün ölçüsü çok büyük olacaktır. Bu nedenle, ölçeklendirilmiş görüntü segmentlere ayrılır ve ortalaması alınır. Bu işlem bir formun segmentleri içindeki ortalaması alınmış piksel değerlerine dayanır, böyle- ce her segment için ortalama bir piksel değeri getirilmiş olur. Her k’ıncı segmentin ortalaması aşağıdaki gibi hesaplanır (5): Her segmentin çıkışı özellik vektörünü şekillendirmekte- dir ve sinirsel ağların giriş verilerine girmektedir. Ortalamasını alma operasyonu girdi özellikleri vektörünün büyüklüğünün önemli ölçüde azalmasını sağlar. 4.2. SINIRSEL AĞ ESASLI SINIFLANDIRMA Sinirsel ağ esaslı retina tanıması sistemi MATLAB ile mo- dellenmiştir. Şekil 5 tanıma sisteminin ağ yapısını anlatmak- tadır. Sinirsel ağlara dayalı retina tanıma sistemi üç tabaka kullanmaktadır; Giriş, Gizli ve Çıkış tabakaları. Sinirsel ağlar retina görüntülerinden çekilen veri kümesi kullanılarak ha- zırlanmaktadır Yukarıda belirtildiği gibi retina görüntülerinin damar olarak ifadesi dijitalleştirilmekte ve sayısal değerlere dönüştürülmektedir. Her segmentin ortalama değeri Şekil 5’de görüldüğü gibi giriş tabakasının nöronları için girdidir. Giriş nöronlarının çıkışları gizli tabakanın girdisidir, olası her cevap tek bir çıkış nöronuyla temsil edilir. Birçok ağda oldu- ğu gibi, veriler nöronlar arasındaki linklerde kodlanır. Şekil 3. RGB görüntü (a) gri tonlamalı, (b) ve segmentlere ayrılmış, (c) DRIVE veri tabanının retina görüntüsü Şekil 4. Retina görüntüsü ölçeğinin küçültülmesi Şekil 5. Sinirsel ağ yapısı (a) (b) (c) Fig. 3. RGB (a) greyscale ;(b) and segmented ;(c) retina image of DRIVE database Fig. 4. Scale down of retina image. The input f ature vectors are obtained by converting the gm nted etinal image into numeric va size of such i put vector will be large. Therefore the sc led image is s gmented and averaged. This based on averaging pixel values within segments of a pattern, thus yielding one average pixel value The average of each k-th segment is calculated as (5): 1 1 ( , ) ( ) N M i j k x i j av N M ¦ ¦ (5) The output of each segment is forming feature vector and entering to the neural networks input. T operation allows to decreasing size of input feature vector substantially. 4.2. Neural network based classification The neural network based retina recognition system is modelled in Matlab. Fig. 5. describes str cture of recognition syst m. Retina recognition system based on neural networks uses a three-l Hidden, and Output layers. Neural networks are trained using data set extracted from the retina mentioned above ves el rep esentation of retina images is digitised and transformed into numeric average values of each segment are input for the neurons of input layer as shown in Fig. 5. The output neurons are input of the hidden layer, each possible answer is represented by a single output neuron networks, the data is encoded in the links between neurons. Fahreddin Sadikoglu and Selin Uzelaltinbulat / Procedia Computer Science 102 (2016) 26 – 33 reduced results remains equal to that of the original image width to height ratio. Scaling is applied for ing of input data size. (a) (b) (c) Fig. 3. RGB (a) greyscale ;(b) and segmented ;(c) retina image of DRIVE database Fig. 4. Scale down of retina image. e input feature vectors are obtained by converting the segmented retinal image into numeric values. But the such input vector will be large. Therefore the scaled image is segmented and averaged. This operation is n averaging pixel values within segments of a pattern, thus yielding one average pixel value per segment. rage of each k-th segment is calculated as (5): 1 1 ( , ) ( ) N M i j k x i j av N M ¦ ¦ (5) e output of each segment is forming feature vector and entering to the neural networks input. The averaging n allows to decreasing size of input feature vector substantially. Fahreddin Sadikoglu and Selin Uzelaltinbulat / Procedia Computer Science 102 (2016) 26 – 33 sults remains equal to that of the original image width to height ratio. Scaling is applied for t data size. (a) (b) (c) Fig. 3. RGB (a) greyscale ;(b) and segmented ;(c) retina image of DRIVE database Fig. 4. Scale down of retina image. ature vectors are obtained by converting the segmented retinal image into numeric values. But the t vector will be large. Therefore the scaled image is segmented and averaged. This operation is g pixel values within segments of a pattern, thus yielding one average pixel value per segment. ch k-th segment is calculated as (5): (5) 31 Fahreddin Sadikoglu and Selin Uzelaltinbulat / Procedia Computer Science 102 (2016) 26 – 33 - - - - - - - - - Fig.5.Neuralnetwork structure The training of network is implemented using Matlab package. For experimental study DRIVE database is taken. The network is initially trained for a maximum of 10000 epochs. The parameters of the networks are selected as follows: Fig.6. Initialization theparametersofneuralnetworks In biometrics based system, the accuracy of implemented algorithms is very important and they must be tested I 1,1 I 2,1 I 40,1 I 1,2 I 1,3 I 1,10 I 2,2 I 2,3 I 2,10 I 40,2 I 40,3 I 40,10 I 1,1 I 1,2 I 1,3 I 40,9 I 40,10 H 1 H 2 H 3 H 16 O 1 O 2 H 40 - - - - - - - - - - - - - - - - - - - - - - - - - -

RkJQdWJsaXNoZXIy MTcyMTY=