# Kitap Rotası: Sinir Ağları ve Derin Öğrenme

<div class="mlv-demo-links">
  <a class="mlv-demo-link" href="hundred_page_ml.html">Genel Harita</a>
  <a class="mlv-demo-link" href="interactive_book_basic_practice.html">Temel Pratik</a>
  <a class="mlv-demo-link active" href="book_neural_networks.html">Sinir Ağları</a>
  <a class="mlv-demo-link" href="interactive_book_neural_activations.html">Aktivasyonlar</a>
  <a class="mlv-demo-link" href="interactive_book_neural_transformations.html">Dönüşümler</a>
  <a class="mlv-demo-link" href="interactive_book_neural_function_approximation.html">Yaklaştırma</a>
  <a class="mlv-demo-link" href="interactive_book_neural_backpropagation.html">Geri Yayılım</a>
  <a class="mlv-demo-link" href="interactive_book_neural_loss_landscape.html">Kayıp Yüzeyi</a>
  <a class="mlv-demo-link" href="interactive_book_model_selection.html">İleri Pratik</a>
</div>

<div class="mlv-demo-hero">
  <div class="mlv-demo-kicker">Kitap / Bölüm 6</div>
  <p class="mlv-demo-lead">Kitap, sinir ağlarını sihirli bir istisna gibi değil; doğrusal dönüşümlerin ve doğrusal olmayan aktivasyonların üst üste konduğu bir fonksiyon ailesi olarak anlatır. Bu nedenle burada da önce ileri yayılımı, sonra geri yayılımı ve en son temsil gücünü ayırıyoruz.</p>
</div>

## Kitabın Çekirdek Mesajı

- Bir katman, `W x + b` ile başlar; aktivasyon fonksiyonu bu doğrusal dönüşüme kıvrım kazandırır.
- Derinlik, temsil kapasitesini artırır ama eğitim sorunlarını da büyütür.
- Geri yayılım, zincir kuralının makine öğrenmesindeki üretim halidir.

## Bu Projedeki Görsel Karşılıklar

<div class="mlv-demo-grid">
  <div class="mlv-demo-panel">
    <strong>Aktivasyonlar</strong>
    <span>Doğrusal olmayanlığın neden zorunlu olduğunu <a href="interactive_book_neural_activations.html">aktivasyon demosunda</a> doğrudan gör.</span>
  </div>
  <div class="mlv-demo-panel">
    <strong>Fonksiyon Yaklaştırma</strong>
    <span>Küçük bir ağın doğrusal olmayan bir hedef eğriyi nasıl kurduğunu görmek için <a href="interactive_book_neural_function_approximation.html">bu demoya</a> git.</span>
  </div>
  <div class="mlv-demo-panel">
    <strong>Dönüşümler</strong>
    <span>Gizli katmanların veriyi yeni bir uzaya taşıma fikri, <a href="interactive_book_neural_transformations.html">dönüşümler demosunda</a> görünür hale geliyor.</span>
  </div>
  <div class="mlv-demo-panel">
    <strong>Geri Yayılım</strong>
    <span>Gradyanların parametreleri nasıl ittiğini <a href="interactive_book_neural_backpropagation.html">geri yayılım demosu</a> üzerinden doğrudan izleyebilirsin.</span>
  </div>
  <div class="mlv-demo-panel">
    <strong>Kayıp Yüzeyi</strong>
    <span>Optimizasyonun hangi manzara üzerinde yürüdüğünü <a href="interactive_book_neural_loss_landscape.html">kayıp yüzeyi demosu</a> ile oku.</span>
  </div>
</div>

## Neden Bu Bölüm Sonra Geliyor?

Kitabın mantığı burada çok nettir: sinir ağları, temel disiplinler oturmadan önce okunursa göz kamaştırır ama fazla şey öğretmez. Öğrenme anatomisi, metrikler ve model seçimi yerleştiğinde ise sinir ağları çok daha anlaşılır hale gelir.

## Buradan Sonra Nereye?

<div class="mlv-demo-links">
  <a class="mlv-demo-link active" href="book_neural_networks.html">Bu Sayfa</a>
  <a class="mlv-demo-link" href="interactive_book_neural_activations.html">Aktivasyonlar</a>
  <a class="mlv-demo-link" href="interactive_book_neural_transformations.html">Dönüşümler</a>
  <a class="mlv-demo-link" href="interactive_book_neural_function_approximation.html">Yaklaştırma</a>
  <a class="mlv-demo-link" href="interactive_book_neural_backpropagation.html">Geri Yayılım</a>
  <a class="mlv-demo-link" href="interactive_book_neural_loss_landscape.html">Kayıp Yüzeyi</a>
  <a class="mlv-demo-link secondary" href="interactive_book_model_selection.html">Sonraki: Model Seçimi</a>
</div>
