Ders 14: Açıklanabilir Yapay Zeka (XAI)
1. Giriş: Neden "Kara Kutu" Yetmez?
Düşünün ki, bir makine öğrenimi modeli çiftçiye "Bu tarlada buğday ekin" diyor. Çiftçi soruyor: "Neden?" Model cevap veremiyor çünkü o bir kara kutudur (black box). Derin öğrenme modelleri milyonlarca parametreyle çalışır ve karar mekanizmaları insanlara şeffaf değildir. Bu durum üç kritik soruna yol açar:
1. Çiftçi Güveni: Nesiller boyu deneyimle tarım yapan bir çiftçi, "yapay zeka söyledi" diye kökleşmiş alışkanlıklarını değiştirmeyecektir. Modelin neden o kararı verdiğini görmesi gerekir. Örneğin "Toprak nemi %23 oranında veriminizi etkiliyor ve şu anda düşük" gibi somut bir açıklama, çiftçinin kararı benimsemesini sağlar.
2. Regülasyon ve Hesap Verebilirlik: Avrupa Birliği'nin Yapay Zeka Yasası (AI Act, 2024), yüksek riskli AI sistemleri için şeffaflık, dokümantasyon ve insan gözetimi yükümlülükleri getirir. Resmi metin, özellikle deployer'ın sistem çıktısını yorumlayıp uygun biçimde kullanabilmesini vurgular; ayrıca belirli yüksek riskli karar senaryolarında etkilenen kişiler için açıklama talebi doğabilir. Bu nedenle tarımsal kredi, sigorta ve sertifikasyon gibi alanlarda model çıktılarının yorumlanabilir olması pratik ve hukuki açıdan daha önemli hale gelmektedir.
3. Hata Tespiti ve Model İyileştirme: Bir model %98 doğrulukla domates hastalığı tespit edebilir, ancak Grad-CAM analizi gösterebilir ki model aslında yapraktaki lekeye değil, arka plandaki toprağa bakıyordur. Açıklanabilirlik olmadan bu tür hataları fark etmek mümkün değildir.
2. XAI Yöntemlerinin Sınıflandırılması
XAI yöntemleri iki ana eksende sınıflandırılır:
2.1 Kapsamına Göre
| Tür | Açıklama | Tarımsal Örnek |
|---|---|---|
| Global Açıklama | Modelin genel davranışını açıklar | "Toprak pH'ı tüm mahsul önerilerinde en etkili faktör" |
| Lokal Açıklama | Tek bir tahmin için açıklama verir | "Bu tarla için pirinç önerildiği çünkü nem %80 ve yağış 200mm" |
2.2 Model Bağımlılığına Göre
| Tür | Açıklama | Örnekler |
|---|---|---|
| Model-Agnostik | Herhangi bir modele uygulanabilir | SHAP, LIME |
| Model-Spesifik | Belirli model türlerine özgüdür | Grad-CAM (CNN), TreeSHAP (ağaç modelleri) |
3. SHAP: Shapley Additive Explanations
3.1 Teorik Temel: Oyun Teorisi
SHAP, Nobel ödüllü ekonomist Lloyd Shapley'in 1953'te geliştirdiği Shapley değerleri kavramına dayanır. Fikirsel olarak şu soruyu yanıtlar: "Bir takım oyununda her oyuncunun katkıları ne kadardır?"
Tarımsal bağlamda düşünelim: Bir mahsul öneri modelinde giriş özellikleri (azot, fosfor, potasyum, sıcaklık, nem, pH, yağış) birer "oyuncu"dur. SHAP, her bir özelliğin tahmine olan marjinal katkısını hesaplar.
3.2 Matematiksel Formül
Her bir özellik $i$ için Shapley değeri:
$$\phi_i = \sum_{S \subseteq F \setminus {i}} \frac{|S|! \cdot (|F| - |S| - 1)!}{|F|!} \left[ f_{S \cup {i}}(x_{S \cup {i}}) - f_S(x_S) \right]$$
Burada: - $F$: Tüm özellikler kümesi (örneğin: {azot, fosfor, potasyum, sıcaklık, nem, pH, yağış}) - $S$: F'nin bir alt kümesi - $f_{S \cup {i}}$: Özellik $i$ dahil edildiğinde modelin tahmini - $f_S$: Özellik $i$ çıkarıldığındaki tahmin
Bu formül, özellik $i$'nin tüm olası özellik kombinasyonlarında ortalama marjinal katkısını hesaplar.
Önemli Özellikler: 1. Verimlilik: Tüm SHAP değerlerinin toplamı, tahmin ile temel değer (null model) arasındaki farkı verir 2. Simetri: Eşdeğer katkı yapan özellikler eşit SHAP değeri alır 3. Tutarlılık: Bir özelliğin katkısı arttığında, SHAP değeri de azalmaz
3.3 SHAP Türleri
| Tür | Kullanım | Hesaplama Hızı |
|---|---|---|
| KernelSHAP | Model-agnostik, tüm modeller | Yavaş |
| TreeSHAP | Ağaç tabanlı modeller (XGBoost, RF) | Hızlı |
| DeepSHAP | Sinir ağları (DeepLIFT tabanlı) | Orta |
3.4 Araştırma Örneği: Mahsul Öneri Sisteminde SHAP ve LIME
Cartolano ve arkadaşları (2024), akıllı tarım bağlamında XAI yöntemlerini kapsamlı şekilde analiz etmişlerdir. Çalışmada, 2200 gözlem ve 7 sayısal özellik içeren Crop Recommendation veri seti üzerinde 5 farklı sınıflandırma modeli (Karar Ağacı, Random Forest, AdaBoost, XGBoost, LightGBM) eğitilmiş ve ardından SHAP ve LIME ile açıklama üretilmiştir. Veri setindeki 22 sınıf (elma, muz, pirinç, buğday, mısır vb.) için her özelliğin (N, P, K, sıcaklık, nem, pH, yağış) katkısı incelenmiştir.
Önemli Bulgular:
-
XGBoost modelinde nem ve fosfor (P), elma sınıfı tahmininde en etkili iki özellik olarak belirlenmiştir. SHAP summary_plot, yüksek nem ve yüksek P değerlerinin elma tahminini güçlü şekilde desteklediğini göstermiştir.
-
Pirinç ve jut sınıflarının karıştırıldığı tespit edilmiştir. SHAP force_plot ile yapılan analiz, bu iki mahsulün benzer nem ve sıcaklık profillerine sahip olmasından kaynaklanan karışıklığın nedenini görselleştirmiştir.
-
SHAP'ın summary_plot fonksiyonu, hem global olarak en etkili özellikleri hem de bunların her sınıf üzerindeki yönlü etkisini (pozitif/negatif) görselleştirerek, çiftçilerin ve agronomların karar mekanizmasını anlamasına olanak tanır.
-
LIME'ın explain_instance() metodu, tek bir tahmin için HTML tabanlı görsel açıklamalar üretmiştir. Örneğin, bir gözlem için jut yerine pirinç tahmin edildiği durumda, hangi özelliklerin bu yanlış tahmine katkı yaptığını kolay anlaşılır bir formatta sunmuştur.
4. LIME: Local Interpretable Model-Agnostic Explanations
4.1 Temel Fikir
LIME'ın çalışma prensibi şudur: Karmaşık modelin tahmini anlaşılmaz olabilir, ancak tahmin noktasının yakın çevresinde basit bir model (genellikle doğrusal regresyon) uydurabiliriz. Bu basit model, o noktadaki tahmini açıklar.
4.2 Matematiksel Formül
LIME, şu optimizasyon problemini çözer:
$$\xi(x) = \arg\min_{g \in G} L(f, g, \pi_x) + \Omega(g)$$
Burada: - $f$: Orijinal karmaşık model - $g$: Açıklama modeli (doğrusal, basit) - $\pi_x(z)$: Açıklanan nokta $x$ ile perturbasyonlu nokta $z$ arasındaki yakınlık ölçüsü - $\Omega(g)$: Açıklama modelinin karmaşıklığı (ne kadar basit o kadar iyi) - $L$: Orijinal model ile açıklama modeli arasındaki uyumsuzluk kaybı
4.3 LIME Nasıl Çalışır? (Adım Adım)
- Açıklanacak tahmin noktası $x$ seçilir (örneğin: "Bu tarlada pirinç ek")
- $x$'in çevresinde rastgele perturbasyonlar üretilir (özellik değerlerini hafifçe değiştirerek)
- Her perturbasyonlu örnek için orijinal model ile tahmin yapılır
- Yakınlık ağırlıklı ($\pi_x$) bir doğrusal model eğitilir
- Doğrusal modelin katsayıları, her bir özelliğin lokal katkısını gösterir
Tarımsal Örnek: Model bir tarla için "mısır" önerdi. LIME analizi: - Sıcaklık 25°C (+0.32 katkılı: mısır lehine) - Nem %65 (+0.28 katkılı: mısır lehine) - pH 6.2 (-0.15 katkılı: mısır aleyhine) - Yağış 120mm (+0.08 katkılı: hafif mısır lehine)
Bu açıklama, çiftçiye "Sıcaklık ve nem değerleri mısır için uygun, ancak toprak pH'ı biraz düşük" mesajını verir.
4.4 Submodular Pick (SP-LIME)
Tek tek açıklamalar yeterli olmayabilir; modelin genel davranışını anlamak için LIME, SP-LIME algoritmasını sunar. Bu algoritma, modelin farklı bölgelerini temsil eden az sayıda açıklamayı seçer. Seçim, kapsama fonksiyonu ile yapılır:
$$c(V, W, I) = \sum_{j=1}^{d'} \mathbf{1}[\exists i \in V : W_{ij} > 0] \cdot I_j$$
Bu fonksiyon, seçilen açıklamaların mümkün olduğu kadar farklı özellikleri kapsamasını sağlar.
5. Grad-CAM: CNN Neye Bakıyor?
5.1 Temel Fikir
Gradient-weighted Class Activation Mapping (Grad-CAM), CNN'lerin hangi görüntü bölgelerine odaklandığını ısı haritası (heatmap) olarak görselleştiren bir XAI yöntemidir. Sınıflandırma kararının hangi piksellere dayandığını görsel olarak açıklar.
5.2 Matematiksel Formül
Belirli bir sınıf $c$ için Grad-CAM ısı haritası:
$$L_{\text{Grad-CAM}}^c = \text{ReLU}\left(\sum_k \alpha_k^c A^k\right)$$
Burada: - $A^k$: Son evrişimsel katmandan elde edilen $k$'ıncı özellik haritası - $\alpha_k^c$: Sınıf $c$ için $k$'ıncı özellik haritasının önem ağırlığı
Önem ağırlıkları, gradyan tabanlı olarak hesaplanır:
$$\alpha_k^c = \frac{1}{N} \sum_i \sum_j \frac{\partial y^c}{\partial A_{ij}^k}$$
Burada $y^c$ sınıf skorudur ve $N$ özellik haritasındaki piksel sayısıdır. Bu formül, sınıf skorunun her bir özellik haritasına olan duyarlılığını ölçer.
5.3 Grad-CAM'in Tarımsal Yorumu
Grad-CAM, bir CNN'in bitki hastalığı sınıflandırırken gerçekten yapraktaki lekeye mi yoksa arka plana mı baktığını ortaya koyar. Bu, modelin güvenilirliği açısından kritik bilgi sağlar.
5.4 Araştırma Örneği: Patates Yaprak Hastalığı Tespitinde Grad-CAM
Alhammad ve arkadaşları (2024), patates yaprak hastalıklarının sınıflandırılması için transfer öğrenme tabanlı bir derin öğrenme modeli geliştirmiş ve Grad-CAM ile modelin karar mekanizmasını açıklamıştır.
Yöntem: - Ön-eğitimli VGG16 modeli, ImageNet ağırlıklarını kullanarak transfer öğrenme ile patates hastalığı sınıflandırmasına uyarlanmıştır - PlantVillage veri setinden 3 sınıf: erken yanıklılık (early blight), geç yanıklılık (late blight) ve sağlıklı - Adam optimizer, kategorik çapraz entropi kayıp fonksiyonu - Grad-CAM ile her sınıf için ısı haritası üretilmiştir
Sınıflandırma Sonuçları:
| Sınıf | Hassasiyet | Duyarlılık | F1-Skor |
|---|---|---|---|
| Erken Yanıklılık | 0.99 | 0.98 | 0.99 |
| Geç Yanıklılık | 0.96 | 0.98 | 0.97 |
| Sağlıklı | 0.99 | 0.97 | 0.98 |
| Genel Doğruluk | 0.98 |
Grad-CAM Analizi:
Grad-CAM ısı haritaları, modelin her hastalık sınıfı için yaprağın farklı bölgelerine odaklandığını ortaya koymuştur: - Erken yanıklılık: Model, yaprak üzerindeki konsantrik halkalı kahverengi lekelere odaklanmıştır. Bu, agronomların hastalık tanı kriterlerine uyumludur. - Geç yanıklılık: Model, yaprak kenarlarındaki koyu su-ıslanmış lezyon bölgelerine dikkat etmiştir. - Sağlıklı: Model, yaprağın genel yeşil rengine ve düzgün doku yapısına odaklanmıştır.
Araştırmacılar, Grad-CAM sonuçlarının modelin gerçekten doğru bölgelere baktığını doğruladığını, ancak çok derin ve karmaşık modellerde ısı haritalarının daha soyut hale gelebileceğini vurgulamışlardır. Ayrıca, modelin %98 test doğruluğu elde etmesinin yanı sıra, Grad-CAM sayesinde bu başarının "doğru nedenlerle" elde edildiğinin teyit edilmesi, tarımsal uygulamada modele duyulacak güveni artırmaktadır.
6. XAI Yöntemlerinin Karşılaştırılması
| Kriter | SHAP | LIME | Grad-CAM |
|---|---|---|---|
| Girdi Türü | Tablo verisi + görüntü | Tablo verisi + görüntü | Yalnızca görüntü (CNN) |
| Açıklama Türü | Özellik katkısı (sayısal) | Özellik katkısı (sayısal) | Isı haritası (görsel) |
| Kapsam | Global + Lokal | Yalnızca Lokal | Yalnızca Lokal |
| Model Bağımlılığı | Model-agnostik (+ spesifik versiyonları) | Model-agnostik | CNN-spesifik |
| Hesaplama Maliyeti | Yüksek (KernelSHAP), Düşük (TreeSHAP) | Orta | Düşük |
| Tarımsal Avantaj | "Toprak nemi %23 etkili" gibi sayısal açıklama | Tek tahmin için anlaşılır açıklama | "Model buraya bakıyor" görsel açıklama |
| Dezavantaj | Yüksek boyutlu veride yavaş | Perturbasyona duyarlı | Yalnızca son evrişimsel katmanla sınırlı |
7. XAI'nın Tarımda Pratik Uygulamaları
7.1 Hastalık Tanı Sistemleri
Bir çiftçi telefonundan yaprak fotoğrafı çeker. Model "Geç Yanıklılık" der. Grad-CAM ısı haritası, yaprağın hangi bölgelerindeki lekelerin bu tanıyı tetiklediğini gösterir. Çiftçi, kendi gözlemiyle kıyaslayarak kararın mantıklı olup olmadığını değerlendirir.
7.2 Verim Tahmin Modelleri
SHAP özet grafiği, verim tahmininde en etkili faktörleri sıralar: toprak nemi > sıcaklık > azot seviyesi > yağış. Bu bilgi, çiftçinin sınırlı kaynaklarını en etkili faktöre (örneğin sulama) yönlendirmesini sağlar.
7.3 Sigorta ve Kredi Değerlendirme
Tarım sigortası firması, hasar değerlendirmesinde AI kullanıyorsa, karar sürecinde hangi değişkenlerin etkili olduğunu açıklayabilmesi önemlidir. SHAP gibi yöntemler bu tür açıklamalara katkı sağlayabilir; ancak tek başına hukuki yeterlilik garantisi vermez.
7.4 Regülasyon Uyumu
AB AI Act bağlamında, yüksek riskli sistemlerde deployer'a yeterli bilgi sağlanması ve sistem çıktılarının uygun biçimde yorumlanabilmesi önemlidir. XAI yöntemleri bu ihtiyaca katkı sağlayabilir; ancak düzenleyici uyum yalnızca XAI ile değil, dokümantasyon, risk yönetimi ve insan gözetimi gibi diğer unsurlarla birlikte değerlendirilir.
8. Sınırlamalar ve Gelecek Yönelimleri
8.1 Mevcut Sınırlamalar
-
SHAP: Tüm özellik kombinasyonlarının hesaplanması kombinatorik olarak patlayıcıdır. 20 özellikli bir modelde 2^20 = ~1 milyon kombinasyon gerekir. KernelSHAP bu sorunu örneklemeyle hafifletse de büyük veri setlerinde hala yavaş olabilir.
-
LIME: Perturbasyonların kalitesine çok bağımlıdır. Tarımsal verilerde bazı özellik kombinasyonları fiziksel olarak mümkün olmayabilir (örneğin sıcaklık -5°C + nem %95 gibi mantıkdışı kombinasyonlar).
-
Grad-CAM: Yalnızca son evrişimsel katmandaki bilgiyi kullanır; daha derin katmanlardaki karar mekanizmasını gösteremez. Çok derin modellerde ısı haritaları belirsizleşebilir.
8.2 Gelecek Yönelimleri
- Kavram tabanlı açıklamalar: "Model yaprağın rengine bakmış" yerine "Model kloroz belirtisi tespit etmiş" gibi tarımsal kavramlarla açıklama
- Etkileşimli açıklamalar: Çiftçinin "Neden mısır değil de buğday?" diye sorduğu bir diyalog sistemi
- Zaman serisi XAI: Bitki büyüme döngüsü boyunca modelin dikkatinin nasıl değiştiğini gösteren dinamik açıklamalar
9. Özet ve Önemli Noktalar
-
Açıklanabilirlik, tarımsal AI sistemlerinin benimsenmesi, denetlenmesi ve iyileştirilmesi için önemli bir araçtır.
-
SHAP, her özelliğin marjinal katkısını oyun teorisi temelinde hesaplar. Mahsul öneri sistemlerinde "nem ve fosfor elma tahmininde en etkili" gibi içgörüler sağlar.
-
LIME, tahmin noktasının çevresinde basit bir model uydurarak lokal açıklama verir. Tek bir tarla için "neden bu mahsul" sorusunu yanıtlar.
-
Grad-CAM, CNN'lerin görüntünün hangi bölgesine odaklandığını ısı haritasıyla gösterir. Patates yaprak hastalığı tespitinde modelin doğru bölgelere baktığını doğrulamıştır.
-
Hiçbir XAI yöntemi tek başına yeterli değildir; birleştirici bir yaklaşımla (sayısal + görsel açıklama) en etkili sonuçlar elde edilir.
Kaynaklar
- Cartolano, A., Cuzzocrea, A., & Pilato, G. (2024). Analyzing and assessing explainable AI models for smart agriculture environments. Multimedia Tools and Applications, 83, 37225-37246.
- Alhammad, S.M., et al. (2024). Deep learning and explainable AI for classification of potato leaf diseases. Frontiers in Artificial Intelligence, 7, 1449329.
- Lundberg, S.M. & Lee, S.I. (2017). A unified approach to interpreting model predictions. NeurIPS 2017.
- Ribeiro, M.T., Singh, S., & Guestrin, C. (2016). "Why should I trust you?": Explaining the predictions of any classifier. KDD 2016.
- Selvaraju, R.R., et al. (2017). Grad-CAM: Visual explanations from deep networks via gradient-based localization. ICCV 2017.