AI geliştirmenin özel bir felsefesidir. Makinelerin önceden programlanmadan kendilerine verilen bilgilerle öğrenmelerinin nasıl sağlanacağını inceleyen bir bilim alanıdır.
Bias-variance ilişkisi, denetimli öğrenme modellerini oluştururken ve değerlendirirken dikkate alınması gereken bir olgudur. Bias, modelin hedefi tahmin etmede ne kadar kötü olduğunun bir ölçüsüdür. Varience, modelin yeni verilere genellemede ne kadar kötü olduğunun bir ölçüsüdür. Bias-varience ilişkisi, bias düşük olduğunda varience yüksek ve bias yüksek olduğunda varience düşüktür. Bias düşük ve varience yüksek olduğunda, model o kadar iyi bir iş çıkarır ki, setteki veriler bu verilere aşırı uygundur ve yeni veriler geldiğinde probleme iyi yanıt veremez. Spektrumun diğer tarafında, bias yüksek ve varience düşük olduğunda, model hedefi iyi tahmin etmez ve çok genellenebilirdir (yani yetersiz uyum gösterir).
Variance (varyans) makine öğrenmesi algoritmasında yer alan fazla karmaşıklığın sonucu olan bir hatadır. Bias (yanlılık) ise öğrenme algoritmasındaki kusurlu varsayımlardan oluşan hatadır.
Makine öğreniminin iki ana kategorisidir. İkisi arasındaki temel fark, denetimli öğrenmede bir hedef değişken veya tahmin edilecek bilinen bir çıktı vardır, oysa denetimsiz öğrenmede yoktur. Bu nedenle, denetimli öğrenim için verilere etiketli ve denetimsiz öğrenmeye ilişkin verilere etiketlenmemiş denir. Denetimli bir öğrenme görevi), ilk önce modeli etiketli gruplarınıza sınıflandırmak için modeli eğitmek için kullanacağınız verileri etiketlemeniz gerekir.
Supervised learning (gözetimli öğrenme), yazılımın öğrenip bir dahaki sefere daha doğru sonuçlar vermesi için çıktıların bilgisayara geri yüklenmesi işlemidir. Unsupervised learning (gözetimsiz öğrenme) ise bilgisayarın önceden eğitim almadan öğrenmesidir.
Duyarlılık, ikili sınıflandırma modelini değerlendirmek için kullanılabilen bir metriktir.
Modeldeki false-negative sayısını en aza indirmek için duyarlılık veya modelin true-positive oranını (bazen geri çağırma(callback) olarak da adlandırılır) optimize etmek isteriz. Duyarlılık, true-positive değerlerinin tüm pozitiflere oranıdır; alternatif olarak ifade edilen, duyarlılık true-positive ve false-negative toplamına bölünmesiyle elde edilen true-positive değerleridir.. Örneğin, 90 gerçek pozitif vaka ve 10 false-negative vaka olsaydı, 0.9 duyarlılığa sahip olurduk.
$Precision= \dfrac{True\ Positive}{All\ Positive} = \dfrac{TP}{TP+FN}$
Aşırı öğrenme modelin veriyi ezberlemesi durumudur. Oysa olması gereken modelin verinin içerisindeki yapıyı/örüntüyü öğrenmesidir. Aşırı öğrenme problemi train-test hataları arasındaki farktan anlaşılabilir. Train ve test hataları arasındaki farkta çatallaşma görülüyorsa aşırı öğrenme sorgulanabilir. Aşırı öğrenme probleminin çözülmesi için modelin karmaşıklığı / iterasyon azaltılabilir, verinin boyutu artırılabilir veya feature selection yapılabilir.
Gradient descent’in amacı bir hatayı optimize etmektir. Hata fonksiyonu ortaya çıktığında bu parametrelerin optimum değerlerini bize verir ve hatayı minimize eder. Ağırlıklar değiştikçe hata değişiyor ve Gradient Descent bu noktaya devreye giriyor. Gradient Descent ağırlıkların değişme işini problematik biçimde her adımda iyiye gidece şekilde yapar.
Bu yöntemin amacı bir herhangi türevlenebilir bir fonksiyonu minumum yapabilecek parametre değerlerini bulmaktır. Bunu nasıl yapar peki? İlgili fonksiyonun ilgili parametreye göre kısmi türevini(gradient ) alır ve eski parametre değerinden türev sonucunu çıkararak parametre değerini günceller.
Labelsiz bir veriyi labellayarak unsupervised learning sürecinden supervised learning sürecine geçiş yapabiliriz. Diyelim ki sosyal medyada covid olma durumu ile ilgili verimiz var ve sınıflandırma yapmamız gerekiyor. sosyal medya paylaşımlarında covid geçiyorsa 1, geçmiyorsa 0 deriz ve bunu sınıflandırıcıdan geçiririz. Ayrıca farklı bir yöntem olarak unsupervised learning tarafında clusterlar oluşturulup sınıflandırıcıya sokulabilir ve böylece yeni bir gözlem geldiğinde covid mi değil mi bilinir ve bu supervised hale gelmiş olur.