Dr. Mehmet Solak Siirt Üniversitesi · Ziraat Fakültesi · Biyosistem Mühendisliği · Tarım ve Tarımsal Eğitim İçin Makine Öğrenmesi İçeriği

Ders 7: Yapay Sinir Ağları Temelleri

derssinir-ağlarınöronaktivasyongeri-yayılımtarımverim-tahmini

7.1 Giriş: Neden Yapay Sinir Ağları?

Tarımsal üretimde verim tahmini, hastalık tespiti ve kaynak yönetimi gibi problemler, geleneksel istatistiksel yöntemlerle çözülemeyecek kadar karmaşık ve çok değişkenli yapılar içerir. Bir tarladaki verim; toprak nemi, sıcaklık, yağış miktarı, gübre kullanımı, tohum çeşidi, ekim zamanı ve daha onlarca faktörün eş zamanlı etkileşiminin bir sonuçudur. Doğrusal regresyon gibi basit modeller bu karmaşık ilişki ağını yakalayamaz. İşte bu noktada yapay sinir ağları (YSA) devreye girer.

Yapay sinir ağları, insan beynindeki nöronların çalışma prensibinden esinlenerek geliştirilmiş hesaplama modelleridir. Tarla sensörlerinden gelen sıcaklık, nem, pH, potasyum ve fosfor gibi veriler; sinir ağının girişleri olarak beslenir, ağ bu verilerdeki gizli örüntüleri öğrenip verim tahmini, hastalık sınıflandırması veya sulama önerileri üretir. El-Kenawy ve arkadaşları (2025), patates verimi tahmininde KNN, Gradient Boosting, XGBoost gibi klasik ML yöntemlerinin yanında GNN (Graph Neural Network) ve LSTM gibi derin öğrenme modellerini karşılaştırmış; GNN'nin MSE=0.02363 ve R2=0.51719 ile en iyi performansı gösterdiğini raporlamıştır. Bu sonuç, sinir ağı tabanlı modellerin tarımda klasik yöntemleri sistematik olarak geçtiğini kanıtlamaktadır.

7.2 Yapay Nöron: Temel Hesaplama Birimi

7.2.1 Biyolojik Nörondan Yapay Nörona

Biyolojik bir nöron, dendritler aracılığıyla sinyalleri alır, hücre gövdesinde işler ve akson boyunca ileri iletir. Yapay nöron da benzer şekilde çalışır:

  1. Girişler (x1, x2, ..., xn): Tarla sensörlerinden gelen ölçüler. Örneğin x1 = toprak pH'i, x2 = yıllık yağış (mm), x3 = azot miktarı (kg/ha), x4 = ortalama sıcaklık (C).
  2. Ağırlıklar (w1, w2, ..., wn): Her girişin önem derecesi. Eğer yağış, verim için sıcaklıktan daha belirleyiciyse w2 > w4 olacaktır.
  3. Bias (b): Eşik değer. Toprak ne kadar ideal olursa olsun, minimum bir sıcaklık gereklidir; bias bu tür temel koşulları modeller.
  4. Toplama fonksiyonu: z = w1x1 + w2x2 + ... + wn*xn + b
  5. Aktivasyon fonksiyonu: f(z) -- çıktının son şekli.

7.2.2 Tarımsal Örnek: Toprak Verilerinden Verim Tahmini

Aşağıdaki somut örneği düşünelim. Elimizde dört tarla parametresi var:

Parametre Değer Ağırlık Katkı
Toprak pH (x1) 6.5 w1 = 0.3 1.95
Yıllık Yağış mm (x2) 450 w2 = 0.002 0.90
Azot kg/ha (x3) 120 w3 = 0.005 0.60
Ort. Sıcaklık C (x4) 22 w4 = 0.1 2.20

Ağırlıklı toplam: z = 1.95 + 0.90 + 0.60 + 2.20 + b = 5.65 + (-3.0) = 2.65

Bu değer aktivasyon fonksiyonundan geçirilir ve tahmin üretilir. Ağırlıkların yüksekliği, o değişkenin verim üzerindeki etkisinin büyüklüğünü yansıtır. Örneğin sıcaklığın ağırlığı (0.1) pH'in ağırlığına (0.3) kıyasla düşük gibi görünse de, sıcaklık değerleri genellikle daha büyük olduğu için toplam katkısı (2.20) en yüksektir.

7.2.3 Bias'ın Tarımsal Anlamı

Bias, sinir ağındaki "varsayılan başlangıç noktası" olarak düşünülebilir. Bir toprağın tamamen kurak, güresiz ve soğuk olduğu durumda bile sıfır olmayan bir verim olamayacağını ya da tam tersi minimum bir verim eşiğinin bulunduğunu modellemek için bias kullanılır. Örneğin bias = -3.0 demek, tüm girişler sıfır olsa bile nöronun çıktısı negatif olacaktır; yani belirli bir eşik aşılmadan verim tahmini pozitif olmaz.

7.3 Aktivasyon Fonksiyonları

Aktivasyon fonksiyonları, nöronun çıktısını belirli bir aralığa dönüştürür ve ağa doğrusal olmayan özellikler kazandırır. Aktivasyon fonksiyonu olmazsa, çok katmanlı bir ağ bile aslında tek katmanlı doğrusal bir model gibi davranır.

7.3.1 Sigmoid Fonksiyonu

$$\sigma(z) = \frac{1}{1 + e^{-z}}$$

Sigmoid, çıktıyı 0 ile 1 arasına sıkıştırır. Tarımda ikilik sınıflandırma problemleri için idealdir:

  • "Bu yaprak hasta mı?" sorusuna 0-1 arası olasılık cevabı verir.
  • sigma(z) = 0.87 ise "Bu yaprağın %87 olasılıkla hasta olduğu" anlamına gelir.
  • Karar eşiği genellikle 0.5'tir: sigma(z) > 0.5 ise "hasta", değilse "sağlıklı".

Dezavantajı: Gradyan kaybolması (vanishing gradient) problemi. Çok derin ağlarda sigmoid'in türevleri 0'a yaklaştığı için ağırlıklar güncellenemez hale gelir.

7.3.2 ReLU (Rectified Linear Unit)

$$ReLU(z) = max(0, z)$$

ReLU, sıfırın altındaki değerleri sıfıra eşitler, pozitif değerleri olduğu gibi geçirir. Tarımsal örnekle:

  • Eğer bir nöron "verime olumlu katkı" hesaplıyorsa ve z = -1.5 çıktıysa, bu nöronun katkısı 0 olur (olumsuz etki bastırılır).
  • z = 2.65 ise çıktı 2.65 olarak kalır.
  • Bu, tarımda "belirli bir eşik altında etki yok" durumunu doğal olarak modeller. Örneğin minimum sıcaklık eşiğinin altında bitki büyümesi durur.

ReLU'nun sigmoidye göre en büyük avantajı: hesaplama basitliği ve gradyan kaybolması probleminin önemli ölçüde azalması. Bu nedenle modern derin öğrenme modellerinin büyük çoğunluğu ReLU veya türevi aktivasyonları kullanır.

7.3.3 Softmax Fonksiyonu

$$softmax(z_i) = \frac{e^{z_i}}{\sum_{j} e^{z_j}}$$

Softmax, çok sınıflı problemlerde kullanılır. Örneğin bir yaprak görüntüsünde üç hastalık (pas, yanıklık, küresel leke) ve bir sağlıklı sınıf varsa:

Sınıf Ham Skor (z) Softmax Çıktısı
Sağlıklı 2.0 0.59
Pas 1.0 0.22
Yanıklık 0.5 0.13
Küresel Leke 0.1 0.06

Softmax, tüm çıktıların toplamının 1 olmasını garanti eder; bu da her sınıf için olasılık yorumu yapmayı sağlar.

7.3.4 Karşılaştırma Tablosu

Özellik Sigmoid ReLU Softmax
Çıktı Aralığı (0, 1) [0, +inf) (0, 1), toplam=1
Kullanım Alanı İkilik sınıflandırma Gizli katmanlar Çok sınıflı çıkış
Tarımsal Örnek Yaprak hasta mı? Ara katman hesaplamaları Hastalık türü nedir?
Gradyan Problemi Kaybolma var Az (ölmüş nöron riski) Kaybolma az
Hesaplama Maliyeti Orta Çok düşük Orta

7.4 Çok Katmanlı Ağ Yapısı (MLP -- Multilayer Perceptron)

Tek bir nöron basit doğrusal sınırlar çizebilir. Ancak tarımsal problemlerin çoğu çok daha karmaşıktır. Çok katmanlı perseptron (MLP), nöronları katmanlar halinde organize eder:

  1. Giriş Katmanı: Tarla sensör verileri (sıcaklık, nem, pH, N, P, K değerleri vb.)
  2. Gizli Katmanlar: Verideki karmaşık örüntüleri öğrenir. Her katman, bir önceki katmanın çıktılarını daha soyut temsillere dönüştürür.
  3. Çıkış Katmanı: Nihai tahmin (verim miktarı, hastalık sınıfı vb.)

El-Kenawy ve arkadaşları (2025), patates verim tahmininde kullandıkları MLP modelinin MSE=0.04176 ve R2=0.55497 değerlerine ulaştığını raporlamıştır. Model, giriş olarak iklim verileri (sıcaklık, yağış), toprak özellikleri (pH, organik madde) ve tarihsel verim kayıtlarını kullanmıştır.

7.4.1 Katmanların Tarımsal Yorumu

Bir hastalık tespit ağını düşünelim:

  • Giriş katmanı (24 nöron): Yaprak görüntüsünün piksel değerleri.
  • 1. Gizli katman (64 nöron): Kenar ve renk bilgilerini öğrenir -- yaprağın yeşil-sarı-kahverengi tonlarını ayırt eder.
  • 2. Gizli katman (32 nöron): Daha karmaşık örüntüleri yakalar -- lezyon şekilleri, doku değişimleri.
  • Çıkış katmanı (4 nöron, Softmax): Sağlıklı / Pas / Yanıklık / Küresel Leke olasılıkları.

Her katmandaki nöron sayısı, problemin karmaşıklığına göre ayarlanır. Çok fazla nöron aşırı uyuma (overfitting) yol açarken, çok az nöron modelin öğrenmesini kısıtlar.

7.5 Geri Yayılım Algoritması (Backpropagation)

7.5.1 Temel Mantık: "Hata Yaptıysan Ağırlıklarını Düzelt"

Geri yayılım, sinir ağlarının öğrenme mekanizmasının temelidir. Mantık şu şekilde işler:

  1. İleri Geçiş (Forward Pass): Giriş verileri ağdan geçirilerek tahmin üretilir. Örneğin ağ, 25 ton/ha verim tahmini yapar.
  2. Kayıp Hesabı: Gerçek değer 30 ton/ha ise kayıp = (30 - 25)^2 = 25.
  3. Geri Geçiş (Backward Pass): Kayıp, çıkış katmanından giriş katmanına doğru geriye yayılır. Zincir kuralı (chain rule) kullanılarak her ağırlığın kayba ne kadar katkı yaptığının hesaplanır.
  4. Ağırlık Güncelleme: Her ağırlık, hatayı azaltacak yönde güncellenir.

7.5.2 Matematiksel Formül

Ağırlık güncelleme formülü:

$$w_{yeni} = w_{eski} - \eta \cdot \frac{\partial L}{\partial w}$$

Burada: - eta (öğrenme oranı): Ağırlıkların ne kadar büyük adımlarla değişeceğini belirler. Tarımda benzetme: Gübre miktarını ayarlarken çok büyük değişiklikler zararlı olabilir (bitki yanar), çok küçük değişiklikler de etkisiz kalır. - dL/dw (gradyan): Kayıp fonksiyonunun o ağırlığa göre türevi. "Bu ağırlığı artırırsam hata artar mı azalır mı?" sorusuna cevap verir.

7.5.3 Tarımsal Senaryo ile Geri Yayılım

Somut bir senaryoyla açıklayalım. Verim tahmini ağımızda:

  1. Ağ, 120 kg/ha azot için 28 ton/ha patates verimi tahmin etti. Gerçek: 32 ton/ha.
  2. Hata = (32 - 28)^2 = 16.
  3. Geri yayılımda sistem keşfeder ki:
  4. Azot ağırlığının katkısı yetersiz: azot ağırlığı arttırılmalı.
  5. Sıcaklık ağırlığının katkısı fazla: sıcaklık ağırlığı azaltılmalı.
  6. Güncelleme sonrası yeni tahmin: 30.5 ton/ha (hata azaldı).
  7. Bu işlem binlerce kez tekrarlanır (epoch) ve ağ giderek daha doğru tahminler yapar.

7.5.4 Öğrenme Oranı Seçimi

Öğrenme Oranı Etki Tarımsal Benzetme
Çok büyük (0.1) Kayıp fonksiyonu etrafında zıplama, yakınlaşma yok Gübre dozunu her seferinde 50 kg değiştirmek
Uygun (0.001) Düzenli azalma, iyi yakınlaşma Gübre dozunu 2-3 kg'lık adımlarla ayarlamak
Çok küçük (0.000001) Çok yavaş öğrenme, pratik değil Gübre dozunu 0.01 kg değiştirmek -- anlamsız

7.6 Kayıp Fonksiyonları

Kayıp fonksiyonu, modelin ne kadar "yanıldığını" ölçer. Farklı problemler için farklı kayıp fonksiyonları kullanılır:

7.6.1 Ortalama Karesel Hata (MSE) -- Regresyon Problemleri

$$MSE = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2$$

Tarımsal kullanım: Verim tahmini. Gerçek verim (y) ile tahmin edilen verim (y-hat) arasındaki fark.

El-Kenawy ve arkadaşları (2025), patates verim tahmininde farklı modellerin MSE değerlerini raporlamıştır:

Model MSE R2
Gradient Boosting 0.03438 0.49168
XGBoost 0.03583 0.35106
MLP 0.04176 0.55497
GRU 0.01858 0.60958
LSTM 0.03190 0.47843
GNN 0.02363 0.51719

Bu tablo, derin öğrenme modellerinin (GRU, GNN) klasik ML modellerine kıyasla daha düşük hata oranlarına ulaşabildiğini göstermektedir.

7.6.2 Çapraz Entropi (Cross-Entropy) -- Sınıflandırma Problemleri

$$CE = -\sum_{i} y_i \cdot log(\hat{y}_i)$$

Tarımsal kullanım: Yaprak hastalığı sınıflandırması. Model "sağlıklı" için 0.9 olasılık verip gerçek sınıf "sağlıklı" ise kayıp düşüktür. Ama "sağlıklı" için 0.3 verip gerçek sınıf "sağlıklı" ise kayıp çok yüksektir.

7.7 Optimizasyon Algoritmaları

7.7.1 Stokastik Gradyan İnişi (SGD)

Her iterasyonda küçük bir veri alt kümesi (mini-batch) kullanarak ağırlıkları günceller. Tarımsal benzetme: Tüm tarlaların verisini beklemek yerine, her gün gelen küçük bir tarla grubunun sonuçlarına göre strateji güncellemek.

7.7.2 Adam Optimizer

Öğrenme oranını otomatik olarak ayarlar. Her parametre için ayrı öğrenme oranı kullanır. Momentum ve RMSProp'un birleşimi olan Adam, tarımsal derin öğrenme projelerinde en yaygın kullanılan optimizasyon algoritmasıdır.

Shahhosseini ve arkadaşları (2020), ABD Mısır Kuşağında (Illinois, Indiana, Iowa) mısır verim tahmininde ensemble ML modelleri kullanmıştır. Bayesian hiperparametre optimizasyonu ile walk-forward cross-validation yöntemi kullanmışlar ve optimum ağırlıklı ensemble modellerinin RRMSE %9.5 ile en iyi performansı gösterdiğini raporlamışlardır. Özellikle hava durumu verilerinin 18-24. haftalar (Mayıs-Haziran) arasındaki en önemli giriş özellikleri olduğu tespit edilmiştir.

7.8 Aşırı Uyum (Overfitting) ve Önleme Yöntemleri

7.8.1 Tarımda Aşırı Uyum Problemi

Bir model, eğitim verisindeki gürültüyü bile ezberleyip yeni verilerde başarısız olabilir. Tarımsal örnekle: Model, 2020 yılındaki anormal kuraklık döneminin verim düşüşünü "azot eksikliği" olarak ezberlemiş olabilir. 2021'de normal yağış koşullarında yanlış tahmin yapar.

7.8.2 Çözüm Yöntemleri

Yöntem Nasıl Çalışır Tarımsal Benzetme
Dropout Eğitimde rastgele nöronları devre dışı bırakır Her yıl farklı tarla kombinasyonlarından veri al
Erken Durdurma Doğrulama hatası artmaya başladığında eğitimi durdur Gübre artışının verim artışı sağlamamaya başladığı noktada dur
L2 Regularizasyon Büyük ağırlıklara ceza uygular Tek bir faktörün aşırı etki etmesini engeller
Veri Arttırma Eğitim verisini çeşitlendirerek çoklestir Farklı hava koşullarında tarla fotoğrafları çek

Elavarasan ve Vincent (2020), verim tahmininde Deep Recurrent Q-Network modeli kullanarak beş katlı ileri zincirleme çapraz doğrulama (5-fold forward chaining cross-validation) uygulamıştır. Bu yaklaşım, zaman serisi verilerinde kronolojik sıralamayı bozmadan modeli değerlendirmeye olanak tanır -- yani model her zaman geçmiş veriyle eğitilip gelecek veriyi tahmin eder. Bu, tarımsal verilerin mevsimsel ve zamansal yapısıyla doğal olarak uyumludur.

7.9 Uygulama Örneği: Patates Verim Tahmini

El-Kenawy ve arkadaşları (2025) tarafından gerçekleştirilen çalışma, yapay sinir ağlarının tarımda nasıl uygulandığının kapsamlı bir örneğidir:

Veri Seti: - İklim verileri: sıcaklık, yağış, nem - Toprak özellikleri: pH, organik madde, makro besinler - Tarihsel verim kayıtları: 1990-2010 arası

Karşılaştırılan Modeller ve Sonuçlar:

Kategori Model MSE RMSE MAE R2
Makine Öğrenimi KNN 0.04613 0.21478 0.16619 0.33268
Makine Öğrenimi Gradient Boosting 0.03438 0.18542 0.14164 0.49168
Makine Öğrenimi XGBoost 0.03583 0.18929 0.15038 0.35106
Derin Öğrenme MLP 0.04176 0.20436 0.15815 0.55497
Derin Öğrenme GRU 0.01858 0.13631 0.10441 0.60958
Derin Öğrenme GNN 0.02363 0.15373 0.11726 0.51719
Derin Öğrenme LSTM 0.03190 0.17862 0.13718 0.47843

Temel Bulgular: - GRU modeli en düşük MSE (0.01858) ve en yüksek R2 (0.60958) ile en başarılı model olmuştur. - Derin öğrenme modelleri (GRU, GNN) zamansal ve mekansal örüntüleri yakalamada klasik ML yöntemlerine üstünlük sağlamıştır. - MLP, basit yapısı ile R2=0.55 gibi rekabetçi bir sonuç vermiştir; bu da yeterli veri ve doğru hiperparametre ayarıyla basit sinir ağlarının bile etkili olabileceğini göstermektedir.

7.10 Özet ve Anahtar Kavramlar

Kavram Tanımı Tarımsal Karşılığı
Nöron Temel hesaplama birimi Tek bir karar noktası: "bu toprak verimli mi?"
Ağırlık Girişin önemi Yağış vs sıcaklık hangi daha etkili?
Bias Eşik değer Minimum büyüme koşulu
Aktivasyon Doğrusal olmayan dönüşüm Karar eşiği: "hasta mı değil mi?"
Geri yayılım Hata düzeltme mekanizması Her hatadan ders çıkararak strateji güncelle
Kayıp fonksiyonu Başarı ölçütü Tahmin ile gerçek arasındaki fark
Öğrenme oranı Güncelleme büyüklüğü Gübre dozunu ne kadar değiştiriyorsun?

Sonraki Ders: 08-cnn-ve-transfer-öğrenme -- Evrişimli sinir ağları ile görüntü tabanlı hastalık tespiti ve transfer öğrenme stratejileri.