Epoch, Batch Size, Iteration

Kategori: Deep Learning , 30 Mart 2020 , JanFranco


Forward propagation ve back propagation işlemlerinin ne olduğunu ve ne işe yaradığını gördük. Training işleminin nasıl yapıldığını temel düzeyde anladık. Son olarak bazı kavramlardan bahsedeceğiz: Epoch, Batch Size, Iterations

Nöral ağ modelinin bir kez forward propagation ardından da bir kez back propagation işlemine sokulması 1 epoch'tur. Epoch denilen kavram bir ileri bir geri yayılım yapılmasıdır. Bir kez ileri yayılım, bir kez geri yayılım yaptığımızda 1 epoch olmuş olur. Modellerimizi train ederken epoch değerini yüksek değerler belirleyeceğiz.

Verisetlerimiz büyük olabilir ki genelde büyük verisetleri üzerinde çalışacağız. Tüm veri setini modele tek bir zamanda göndermek mantıklı bir işlem değildir. Bu sebeple veri setini bölerek paketler halinde göndeririz. Her bir pakete batch denir. Paketlerin büyüklüğüne ise batch size denir.

Iteration denilen kavram ise, bir epochun tamamlanması için gönderilmesi gereken paket, batch sayısıdır. Örneğin 1000 verisi bulunan bir verisetini, 100 boyutlu paketlere bölmek istiyoruz. 1 epoch'un tamamlanabilmesi için verisetinin tamamının gönderilmesi gerekli. Burada 10 paket oluşacaktır. Bu 10 paketin 9'unu göndermemiz işlemi tamamlamaz. Burada 1 epoch'un tamamlanabilmesi için 1000 / 100 = 10 iteration yapılması gerekir.


Sonraki Yazı: Convolutional Neural Networks - Introduction
Yorumlar

Henüz bir yorum bulunmuyor.
Yorum bırakın