Yapay Zekâ ve Kararlar

195 Okunma
 Yapay zekâ günümüzün bir parçası haline geldi. Adını geçirmesek bile kullandığımız her teknolojinin altında neredeyse yapay zekâ yatıyor. Kullandığımız teknolojilerin nasıl çalıştığı ile pek ilgilenmiyoruz, oysaki kritik alanlarda kullanılan yapay zekâ teknolojileri etik tartışmalarının göbeğinde!
 Bir ürün aldınız, benzer ürünler sayfada beliriverdi. Alexa’ya, Spotify uygulamasında bir şarkı çalmasını söylediniz, ses komutunuz analiz edilerek şarkı çalmaya başladı. Parmak izinizle telefon ekran kilidini açtınız. Snap kullanarak komik filtrelerle yeni fotoğraflar oluşturdunuz. Kulağınıza taktığınız ufak bir aletle simültane çeviriyi dinlediniz. Bunların hepsinin altında yapay zekâ, daha spesifik olursak makine öğrenmesi yatıyor. Her bir ürün hayatımızı kolaylaştırıyor ama öte yandan bizimle ilgili verileri toplamaya devam ediyor.
 Peki çokça duyduğumuz etik problemleri bu işin neresinde? Temel olarak yapay zekâ modelleri büyük veri setleri kullanılarak eğitiliyor. Bu veri setlerinde çeşitlilik az olursa, bu modeller sadece belli yeni veriler için düzgün çalışıyor ve azınlıkta kalan örnekler için kötü sonuçlar verebiliyor. Öte yandan algoritmaları insanlar yazıyor ve her insanın farkında olmadığı önyargıları olabiliyor. Durum böyle olunca bu önyargılar, oluşturulan modellere de yansıyabiliyor. Şu anda karşı karşıya kaldığımız en büyük problemlerden biri, algoritmaların verdiği kararlara nasıl vardığını anlamak çünkü bu gizemli modeller çok karmaşık bir çalışma şekline sahip, sonuç üretebiliyor fakat açıklama üretme konusunda yetersiz kalıyor. Bir sürü araştırma Açıklanabilir Yapay Zekâ konusu üzerine yoğunlaşmış durumda. Nedenleri anlamazsak, önyargıları fark edemeyiz ve alınan kararların ne kadar adil olduğunu ölçemeyiz.
 Etik problemleri sayısız örnekte karşımıza çıkıyor. Mesela sürücüsüz otonom bir araç kaza yapacağı bir durumda, arabanın içerisinde bulunan yolcuları mı korumalı veya yoldan geçen birini öldürmeyi göze mi almalı? Örneğin, işe alımlarda yapay zekâ sistemleri çokça kullanılıyor. Kimlerin mülakata çağrılıp kimlerin çağrılmayacağı bir tuşa basılarak belirlenebiliyor veya bir bankaya kredi başvurusu yaptığınız zaman, sistem otomatik olarak kredi alıp alamayacağınızı söyleyebiliyor. Bu kararların hepsi ciddi kararlar ve bu kararların arkasındaki sebepler iyice anlaşılmayı hak ediyor. Biri öldüğü takdirde veya ciddi kararların alındığı durumlarda, yapay zekânın aldığı karardan kim sorumlu tutulmalı?
 Yüz tanıma teknolojileri de sıklıkla kullanılan bir uygulama. Özellikle halka açık alanlarda bir sürü insanın verisi toplanıyor. Mesela İngiltere’de bir kişi polisler tarafından iki kere durdurulup, bir suça karışıp karışmadığı irdeleniyor. Bunun sebebi o kişinin fotoğrafının veri setine bir şekilde dahil edilmiş olması. Kişi arananlar listesinde olmasa bile, polis izinsiz olarak bu kişinin görüntüsünü kullanarak sistemde bir eşleşme buluyor ve kişiyi sorguluyor. Olay mahkemeye taşınıyor ve iyi bir gerekçe olmadıkça polislerin bu şekilde teknolojiyi kullanmamaları gerektiği kararı çıkıyor. Maalesef genel geçer yapay zekâ yasaları yok. Yani bahsettiğim olay başka bir yerde yaşansa bambaşka bir karar çıkabilirdi.
 Öte yandan, mevcut yasalar yapay zekânın sonuçlarını sorgulamak için yeterli değil ama bu konuları konuşmaya başladık, bu güzel bir ilerleme. Ben de gelecek sene için bu konuda bir ders açacağım, okumalara devam ediyorum!.
Paros Dergisini anlaşmalı bayilerimizden ya da web sitemizden online olarak satın alabilirsiniz.
Online Dergimizi Satın Almak İçin - Online Dergi
Size En Yakın Bayi İçin  - Bayilerimiz