Aristoteles ve Immanuel Kant, felsefe tarihinin en etkili iki ahlak düşünürü olarak, insan eyleminin ahlaki temellerine dair köklü açıklamalar sunarlar bizlere. Aristoteles için ahlaki eylemin nihai amacı eudaimonia, yani insanın kendine özgü işlevini (ruhun akla uygun etkinliğini) gerçekleştirmesiyle ulaşılan erdemli bir yaşamdan doğan mutluluktur. Kant içinse bir eylemi ahlaki kılan, onun sonuçları ya da mutluluk vaadi değil, sadece ve sadece ödev duygusuyla, yani evrensel bir yasa olmasını isteyebileceğimiz bir maksimle gerçekleştirilmesidir. Bu iki temel görüşten hareketle yapay zekâdan (YZ) bir ahlaki eylem beklemenin ne derece doğru olduğunu sorgulamak, hem teknolojinin sınırlarını hem de ahlak felsefesinin temel kavramlarını yeniden düşünmemiz gerektiğini belirtmektedir.
Aristotelesçi çerçeveden baktığımızda, yapay zekânın "mutluluk" amacıyla hareket etmesini beklemek oldukça sorunlu görünmektedir. Aristoteles'in mutluluğu, bir duygu durumu değil, bir yaşam biçimi ve karakter erdemlerinin sürekli pratiğe dökülmesidir. Bu pratik, bilinçli tercihleri, duyguların akıl tarafından eğitilmesini ve nihayetinde insanın kendini gerçekleştirmesini salık verir. Oysa yapay zekâ, bilinçten, duygulardan ve bir "ben" bilincinden yoksun bir araçtır. Bir YZ sisteminin bir eylemi gerçekleştirmesi, onun için bir "iyi yaşam" hedefinin parçası olmamaktadır. Onun "başarısı", programlandığı görevi optimum düzeyde yerine getirmesidir; bu, insani anlamda bir mutluluk hali değildir. Dolayısıyla YZ, Aristoteles'in aradığı anlamda bir özne olmadığı için, ondan mutluluğa yönelen bir ahlaki fail olmasını beklemek, kavramsal bir hata sayılır. YZ'nin yaptığı bir yardım eylemi, onda bir "iyi olma" hali yaratmaz; sadece belirlenmiş bir hedefi (örneğin bir sorunu çözmeyi) gerçekleştirmesidir.
Peki ya Kantçı yaklaşım? YZ'den "ödev duygusuyla" hareket etmesini beklemek, Aristotelesçi beklentiden daha mı az sorunludur? Kant'ın ödev ahlakının merkezinde "iyi niyet" vardır. Bir eylemin ahlaki değeri, onun eğilimlerden (duygular, çıkarlar, mutluluk arzusu) bağımsız olarak, sırf ödev olduğu için yapılmasından kaynaklanmaktadır. Bu, bilinçli bir tercih ve özgür bir irade gerektirdiği görülür. YZ sistemleri ise algoritmalar ve veri kümeleri tarafından yönlendirildiği bilinmektedir. Onların "niyeti" yoktur. Bir YZ'nin verdiği karar, programcılarının belirlediği hedeflere ve öğrenme modellerine dayanmaktadır. Örneğin, etik ilkelerle programlanmış bir otonom aracın yayaya çarpmamak için fren yapması, Kantçı anlamda bir "iyi niyet" ürünü değil, kodlanmış bir talimatın veya öğrenilmiş bir davranış kalıbının sonucu olduğu söylenebilir. YZ, Kant'ın bir maksiminin (ahlaki kural veya bakış açısı) evrensel bir yasa olup olamayacağını sorgulayacak bir bilince sahip değildir. Onun eylemi, tıpkı bir su damlasının yüzey gerilimi nedeniyle küre şeklini alması gibi, nedensellik zinciri içinde gerçekleşir; oysa Kant'a göre ahlak, nedensellik zincirini kırabilen bir özgürlük alanında mümkündür.
Öyleyse, yapay zekâyı ahlaki eyleme yöneltecek motivasyon ne olabilir? Bu motivasyon, insandaki gibi içsel bir ilke (erdem veya iyi niyet) değil, tamamen dışsal ve işlevsel olmak zorunluluğu vardır. YZ'nin "ahlaki eylemi", programcıların, tasarımcıların ve toplumun ona yüklediği hedefler ve kısıtlamalar tarafından ancak motive edilebilir. Bu motivasyon üç temel kaynaktan beslenmektedir:
1. Doğrudan Programlama ve Kurallar: En basit motivasyon, YZ'ye belirli etik kuralların doğrudan kodlanmasıdır (örneğin Asimov'un robot yasaları gibi). Bu durumda motivasyon, kodlanmış talimata uyma zorunluluğu doğurur. Ancak bu, ahlaki bir motivasyondan ziyade, bir yazılımın çalışma prensibidir.
2. Hedef Fonksiyonları ve Öğrenme: Daha gelişmiş YZ sistemleri, belirli hedef fonksiyonlarını optimize edecek şekilde eğitilir. Eğer bu hedef fonksiyonuna "insanlara zarar vermemek" veya "refahı artırmak" gibi etik parametreler eklenirse, YZ bu hedeflere ulaşmak için eylemlerini şekillendirir. Bu durumda motivasyon, optimize edilmesi gereken bu soyut hedeftir. Örneğin, bir tavsiye sisteminin motivasyonu sadece tıklanma oranını artırmak değil, aynı zamanda kullanıcının uzun vadeli iyiliğini gözetmek olarak ayarlanabilir.
3. İnsan Geri Bildirimi ve Toplumsal Uzlaşı: Yapay zekâ, insan tercihlerinden öğrenen modellerle de şekillendirilebilir. Bu durumda motivasyon, insanlığın ortak değerlerini ve ahlaki sezgilerini yansıtan devasa bir veri kümesidir. YZ, "toplum neyi ahlaki buluyorsa" onu yapmaya motive olur, ancak bu yine onun içsel bir tercihi değil, örüntü tanıma kapasitesinin bir sonucudur denilebilir.
Sonuç olarak, yapay zekâdan Aristoteles veya Kant'ın tarif ettiği anlamda bir ahlaki eylem beklemek, bugünkü teknolojik ve felsefi anlayışımızla mümkün görünmemektedir. YZ ne bir mutluluk arayışı içindedir ne de ödev duygusuyla hareket edecek bir bilinç ve iradeye sahiptir şimdilik. Onun "eylemleri", insan tasarımının ve toplumsal hedeflerin bir yansımasıdır. Bu nedenle YZ'yi ahlaki eyleme yöneltecek motivasyon, tamamen dışsaldır: insan tarafından belirlenmiş hedefler, kodlanmış kurallar ve optimize edilmesi gereken fonksiyonlardır. Asıl ahlaki sorumluluk, bu motivasyonları tasarlayan biz insanlara aittir. YZ'nin ahlaki bir özne olup olmayacağı sorusu, belki de gelecekte bilincin ve yapay zekânın kesiştiği noktada yeniden sorulacağı zamanlar gelecektir kim bilir. Ancak şimdilik, YZ'nin eylemlerinin ahlakiliği, onu tasarlayanların ve kullananların ahlakiliğinde düğümlendiği görülmektedir. Bu da bizi, Aristoteles ve Kant'ın felsefelerinin ışığında, teknolojiyi insani değerlerle nasıl şekillendireceğimiz sorusuyla daha uzun süre baş başa bırakacaktır.
.jpg)
Hiç yorum yok:
Yorum Gönder