Neden Yapay Zekâ Etiği ve Yapay Zekânın Hukukî Statüsü Üzerine Tartışmalar

From HizmetWiki Türkçe (Açık)
Jump to navigation Jump to search

Yunus Elmas, Süreyya Sevde, LL.M.

Özet

Son on yıl teknolojik atılımların geçit töreniydi. Biyoloji, kripto para birimi, enerji, dijital baskı, sanal gerçeklik, veri bilimi, sinir bilimi ve dijitalleştirme dahil yapay zeka alanında da devrim niteliğinde gelişmelere tanık olduk. Hayatımızın her yönünü etkileyen yapay zeka, hastalıkların teşhisinde, tarımsal ve çevresel sorunların tespit ve teşhisini yapma, bankalarda kredi kararlarını verme, işe alım ve hatta her gün hangi haberleri göreceğimizi belirlemede kullanılıyor. Yapay zeka yaşam döngümüze bu devasa dönüşümü sağlarken, bu dönüşümün her aşaması olumlu değil veya buna hazırlıklı değiliz. Yapay zeka ve otomasyonun ileriye yönelik ve yaygın biçimde kullanımını hayata geçirmeden önce, yapay zekanın hangi ilkelere/etik değerlere dayanacağı konusunu kararlaştırmamız gerekiyor. Bu etik değerleri nasıl uygulayabiliriz? Yapay zekâ da yaşamımızın her alanı gibi kanunlara tabi olmalı mı? Eğer öyleyse, yapay zekâ nasıl düzenlenmeli? Bu sorulara cevap arama çabasıyla birinci bölümde yapay zeka, yapay zeka etiği ve zarar verici yapay zeka uygulamalarına ilişkin bazı örnekler tartışılacaktır. İkinci bölümde, dünya çapındaki hükümetler tarafından hazırlanmış ve hükümet dışı kurumların etik önerilerinden derlenmiş yapay zeka etik prensipleri sunulacaktır. Bu bölümde ayrıca etik yapay zekayla ilgili adımlar atılırken dikkat edilmesi gereken birkaç konu özet olarak belirtilecektir. Son olarak üçüncü bölümde argümanlarımız ve analizimiz özetlenecektir.

1. Neden Etik Yapay Zekaya İhtiyacımız Var?

Yapay zekanın üzerinde uzlaşılmış bir tanımı olmamakla birlikte, çeşitli tanım denemeleri vardır. OECD, ‘Bir yapay zeka sistemi, aldığı girdilerden, açık veya örtük hedefler için tahminler, içerik, öneriler veya fiziksel ya da sanal ortamları etkileyebilecek kararlar gibi çıktılar üreten makine tabanlı bir sistemdir; farklı yapay zeka sistemleri, devreye alındıktan sonra özerklik ve uyarlanabilirlik seviyelerinde farklılık gösterir.' şeklinde belirtmiştir. Bryson, yapay zekayı, genellikle kabul gören bileşenlerini tek bir cümlede birleştirerek, 'algıyı, eylem dahil olmak üzere, daha ilgili bilgiye dönüştüren herhangi bir eser' olarak tanımlar. Buradan, yapay zekanın, insan yapımı yazılım (ve muhtemelen donanım da) olduğu ve analiz yapıp bu analiz üzerinde bir miktar özerklikle harekete geçebildiği anlaşılmaktadır. Çeşitli yapay zeka teknikleri olmakla birlikte, Surden bunları üç başlık altında toplar: 1) Girdi verilerinde düzenler bulan ve girdi ve çıktı verileri arasındaki ilişkiyi tanımlayan bir fonksiyon oluşturan ve girdi verileri değiştikçe bu fonksiyonu düzelten 'makine öğrenimi'; 2) "genellikle otomasyon amacıyla bilgisayarların kullanabileceği bir biçimde gerçek dünya fenomenlerini veya süreçlerini modellemek için" kullanılan 'kurallar, mantık ve bilgi temsili'; ve 3) bu iki tekniği bir araya getiren en yaygın olarak kullanılan hibrit modeller.

Tarih, insanların hem görünüş hem de zeka bakımından kendisine benzer varlıklar yapma dürtüsüne her zaman sahip olduğunu göstermektedir. Yapay zeka belki de bu arzunun en yeni meyvesidir. Günümüzde yapay zeka, her alanda yaşamı kolaylaştırmaktadır. Sürdürülebilir enerji tüketimi için veri bilimi ile birlikte yapay zeka kullanan projeler, otomatik ulaşım sistemleri, görme engelli insanlar için hizmetler ve yardımcı cihazlar, enerji kullanımını optimize ederek karbon salınımını %30 oranında azaltabilen yapay zeka sistemleri bulunmaktadır. Yapay zeka, özel araçlarda da uygulanmakta olup, kazaların sayısını ve trafik sıkışıklığını azaltmak amacıyla optimal rotalama yapabildiği gibi, herkes için uygun fiyatlı ulaşım imkanları sağlamaktadır. Yapay zekanın önemli ilerlemelerinden bazıları tıp alanında gerçekleşmektedir. Bu alanda, farklı yapay zeka teknikleri aracılığıyla, meme kanseri, karaciğer kanseri, böbrek hastalığı gibi birçok hastalık %98 doğrulukla teşhis edilebilmektedir.

Başka bir başarı alanı da çocuklar veya yaşlılar için robot bakıcılardır. Nihayetinde biyolojik ihtiyaçları olmayan ve hastaları gerçek zamanlı olarak izleyebilen robotlar, insan bakıcılardan daha ekonomik ve güvenli bir seçenek olabilir. Yapay zeka eğitim amaçlı da kullanılmaktadır. Yapay zeka ile desteklenen eğitim, her öğrencinin kişisel ihtiyaçlarına ve ilerlemesine uyum sağlayarak, özellikle öğrenme güçlüğü çeken çocuklar için eğitimdeki eşitsizliklere çare sunabilir.

Yapay zeka, insan gelişimini teşvik edebilir ve insan yaşamını iyileştirebilir. Ancak, yapay zekanın insan yapımı bir eser olduğunu, rutin işlerden kurtulmamızı ve yeteneklerimizi artırmamızı sağlarken sosyal benliklerimize ve daha entelektüel uğraşlara odaklanmamızı mümkün kılan, insanlığa hizmet eden bir araç olarak kalması gerektiğini unutmamalıyız. Yapay zekanın görünüşte birçok faydası olmasına rağmen, yaşamlarımızı azımsanmayacak ölçüde ve nasıl değiştirebileceğinin ve buna ne kadar hazırlıklı olduğumuzu gözden geçirmeliyiz. Aşağıda daha ayrıntılı olarak ele alındığı gibi, yapay zeka insan dokunuşunun ve insani özelliklerin kaybı, önyargı, mahremiyetin yok olması ve insan iradesinin zayıflaması gibi ciddi sonuçlar doğurabilir.

2. Çeşitli Alanlarda Yapay Zekanın Olumsuz Sonuçları

Yapay zeka, sohbet robotları, akıllı asistanlar (Siri, Alexa vb.) ve robot süpürgelerden, otonom araçlar ve hatta otonom silahlar gibi uygulamalarıyla günlük yaşamımızda hali hazırda yer almaktadır. Ancak, bu mevcut yapay zeka sistemleri dar yapay zeka olarak tanımlanmaktadır, yani yalnızca tasarlandıkları görevleri yerine getirebilirler. Aşağıda, bazı dikkate değer dar yapay zeka kullanımları ve bunların sınırlamaları ele alınmaktadır.

2.1. Tıp

Tıpta, dar yapay zeka uygulamaları önemli faydalar sağlamakla birlikte ciddi sınırlamalara da sahiptir. Örneğin, yapay zeka, melanom hastalığını binlerce diğer kötü huylu tümör görüntüsü ile karşılaştırarak dermatologlardan daha iyi tespit edebilir, ancak hastanın genel cilt sağlığını analiz etmede yetersiz kalabilir. Bu nedenle, hastayı kapsamlıca muayene edebilecek bir doktora ihtiyaç vardır. Yapay zeka uygulamalarından doğru sonuçlar elde etmek için modelin temel aldığı girdi verileri büyük önem taşır. Yakın zamanda yapılan bir araştırma, böbrek hastalığı seviyelerini tahmin ederken bir ırk çarpanı (multiplier) kullanmanın, algoritmaların Afrikalı Amerikalılar için gerçekte olduğundan %33 daha sağlıklı sonuçlar vermesine neden olduğunu ortaya çıkardı. Bu durum, örneğin, onların böbrek nakli yapılacak hastalar listesine alınmamalarına sebep oluyordu. Bir diğer sınırlama ise, yapay zekanın gerekli işlevleri yerine getirebilse bile, insan doktorların yerini almasının diğer nedenlerle optimal olmayabileceğidir.

Dahası, bir doktor veya sağlık çalışanının, bakımının, sadece sorunu teşhis etmek ve harekete geçmekten ibaret olmadığı dikkate alınması gereken hususlar arasında yer alır. Bir hastaya sempati göstermek, ona ilgi duyduğunuzu belli etmek, ellerini tutmak ve göz teması kurmak da önemlidir. Bir kliniğe gittiğimizde, hemşirenin nezaketi ve gülümsemesi, tüm süreci katlanılabilir kılan tek faktör olabilir. Pasquale'nin belirttiği gibi, ihtiyaçlarımızı karşılıyor gibi görünen ve insan duygularını taklit eden robotlar yapsak bile, “bakım, ... ancak bakım verenin en azından ilke olarak bakım yapmayı bırakma özgürlüğüne sahip olduğu bir karşılıklı ilişki sonucunda ortaya çıkabilir.” Bryson da bu durumu, “Metal ve silikondan yaptığımız hiçbir şey, fenomenolojimizi bir fare ya da inek kadar paylaşmayacak ve pek az kişi inekleri veya fareleri neslimizi sürdürecek geçerli taşıyıcılar olarak görür.” cümlesiyle ifade eder.

Aşk, iyilik, bağlılık, empati gibi özellikleri yapay zekaya yerleştirmeyi asla başaramayacağız. Ancak, giderek daha fazla yapay zekaya bağımlı hale gelmek, bizi hem daha bireyci hale getiriyor hem de diğer insanlardan uzaklaştırıyor. Yapay zeka, görme engelli bir kişinin yaşamını kolaylaştırabilir, bir huzurevi sakinine moral verebilir, ancak insani dokunuşun kaybını riske atmadan insanın yerini alamaz.

2.2. Eğitim

Eğitimde yapay zeka kullanımının da birçok sınırlamaları ortaya çıkmaktadır. 2022 yılında, Iowa'da sınıflara kameralar yerleştirilerek ebeveynlerin çocuklarının canlı video görüntülerine erişimini sağlamak amacıyla bir yasa tasarısı sunulmuştur. Tasarıda ayrıca yayını engelleyenlere ceza verilmesini de önermektedir. Bu tasarı kanunlaşmasa da bu, çocukların okulda canlı izlenmesinin ilk örneği değildir. Ancak, neden birisinin çocuğunun canlı video yayınının diğer ebeveynler gibi yabancılara açık olmasını isteyeceğini sorgulamak gerekir. Veya bir öğretmen, başının üstünde bir kamera varken dersini ne kadar verimli anlatabilir? Ayrıca, bu uygulama bazı teknoloji firmalarının “problem öğrencileri” tespit ettiğini iddia eden yüz tanıma sistemleri tasarlamasına neden olmaktadır, ki bu, yanlış bir şekilde üzüntü veya korkuya atfedilmektedir. Ancak, öğrencilerin duygularını yüz ifadelerinden yakalamaya çalışmak hatalı bilim örneğidir. Uzmanlar, bu tür tekniklerin “insanların duyguları nasıl ifade ettikleri konusunda ırkçı ve kültürel olarak önyargılı varsayımları yeniden ürettiğini” belirtmektedir. Bu etiketleme, bir öğrencinin veri profilinde kalıcı olabilir ve gelecekte de olumsuz etkiler doğurabilir.

Son olarak, yapay zekanın öğretmenlerin yerini alması tartışmasında, insan olduğumuzu ve her hareketi bazı çarpanlarla ölçülebilir veri işlemciler olmadığımızı unutmamalıyız. Bir öğretmen, bilgilerin yanı sıra hayat tecrübelerini de aktarabilir, bu da öğrencilerin yaşamlarına ışık tutabilir. Bu nedenle, öğretmenler de öğrencileri gibi doğru ve yanlışlarıyla kusursuz olmayan insan olmalıdır.

Yapay zeka ve makine öğrenimi ile ilgili sorun kaynaklarından biri, büyük veri toplama noktalarında ortaya çıkan veri noktaları karmaşıklığıdır. Kearns ve Roth'a göre, makine öğrenimi artık bireysel veri setleri oluşturabiliyor. "Problem öğrenci" gibi damgalayıcı bir veri büyük veri ortamına girdiğinde, bu veri noktası, makine öğrenimi tarafından çizilen karmaşık bağlantılar nedeniyle tüm veri setini etkileyebilir. Bu karmaşık bağlantılar insan anlayışının ötesindedir. Böyle bir veri noktasını çıkardığımızda da, bu modelin doğruluğunu azaltabilir. Bugün bu veri setleri, banka kredi başvuruları, üniversite kabulleri, işe alımlar, sosyal yardımların tahsisi, kredi skorlaması ve hatta suçu tekrar etme eğilimi değerlendirilmesi gibi önemli karar mekanizmalarında kullanılmaktadır. Ancak yapay zekayı böyle dönüm noktalarında kullanmak ne kadar güvenilirdir? New York Üniversitesi AI NOW Enstitüsü, kişilik ve/veya duyguları belirlediğini iddia eden teknolojilerin yukarıda bahsedilen hayatî konularda karar almaktan men edilmesi gerektiği konusunda uyarıyor.

2.3. Yapay Zekânın Kamusal Uygulamaları

Hollanda'daki Çocuk Yardımı Vakası, yapay zekanın hukukun üstünlüğüne ilişkin herhangi bir güvenlik önlemi olmadan, hayati bir konu olan sosyal yardımların dağıtımı gibi karar verme süreçlerinde uygulanmasının ne gibi ciddi etkilere yol açabileceğine dair bir örnek teşkil etmektedir. 2013 yılında büyük çaplı bir dolandırıcılığın ardından, yasa değiştirilmiş ve Hollanda'da çocuk bakım yardımı sağlamak amacıyla dolandırıcılık yapılmasını önlemek için katı kontroller uygulanmaya başlanmıştır. Bu dönemde, şüphelenilen kişilerden beş yıl öncesine kadar yardımların tamamını geri ödemeleri istenmiştir. Vergi ve Gümrük İdaresi (TCA), şüpheli aileleri işaretlemek için yapay zekaya dayalı bir risk-taksonomi modeli kullanıyordu. Sorun, modelin geçmiş başvurulardan öğrenerek, vatandaşlık ve etnik kökeni, sahtecilik vakalarını tespit etmek için birer gösterge olarak kullanmasıydı. Bu nedenle, vatandaş olmayan veya Hollanda kökenli olmayan başvuru sahipleri, geçmişteki önyargılı kararlarla birlikte incelenecek vakalar olarak seçildi. Sonuçta, 2012-2019 yılları arasında, 25.000'den fazla kişi hatalı olarak suçlanmış ve bu yıllar boyunca aldıkları on binlerce euroyu geri ödemeleri istenmiştir.

Bu politika, ırk ve milliyet ayrımcılığını yasaklayan, Sözleşme'nin 1 No'lu Protokol'ünün 12. Maddesi'nin ihlalidir. Ayrıca, bu durum GDPR'nin 22. Maddesi kapsamına girer: "Profil oluşturma dahil, yalnızca otomatik işleme dayalı bir karara tabi tutulmama hakkı, ki bu karar kişiyi ilgilendiren yasal etkiler doğurur veya benzer şekilde önemli ölçüde etkiler." Hollanda veri koruma otoritesi de ayrımcı profilleme yasağı(Madde 6(1)) ile hukuka uygunluk ve şeffaflık ilkelerinin ihlalini (Madde 5(1)(a)) tespit etmiştir. Daha kötüsü, ebeveynler/veliler herhangi bir karara itiraz edememiş, sadece TCA'ya telefonla şikayette bulunabilmiş, ancak yardım alamamışlardır. İddiaya göre, bu zorlu süreç, intiharlar, boşanmalar ve çocukların ailelerinden alınması gibi trajik sonuçlara yol açmıştır.

Zamanla, yapay zekada daha fazla gelişme ve daha fazla olay göreceğiz, bu nedenle otomatik karar verme sistemleriyle nasıl başa çıkacağımızı öğreneceğiz. Ancak şu an için, bu vaka, (şeffaflık, yorumlanabilirlik, açıklanabilirlik gibi) güvenlik önlemleri ve insan denetimi olmadan bu modellere tamamen bağımlı olmanın telafisi mümkün olmayan zararlara yol açabileceğini açıkça göstermektedir. Bu vaka, yaşamları derinden etkileyebilecek bu tür yapay zeka kullanımlarının düzenleyici kısıtlamalara tabi tutulması gerektiğini kanıtlar niteliktedir.

2.4. Otonom Araçlar ve Akıllı Şehirler

Otonom araçlar, yapay zeka teknolojisinin hızla gelişen alanlarından biridir. Yalnızca ABD'de, Tesla'nın Autopilot işlevi 2 milyondan fazla araçta bulunmaktadır. Bugün yollarda gördüğümüz araçlar tam anlamıyla otonom değil; hâlâ araçta bir insan sürücünün bulunması gerekiyor. Otomobil üreticileri sürücüsüz araçlar geliştirmeye hevesli olsalar da, otonom araçlar güvenlik, sorumluluk ve ahlak konularında birçok sorunu beraberinde getiriyor. Bunlardan, güvenlik meselesi en başta geliyor. 2016 yılından bu yana, sadece ABD’de Tesla'nın “Autopilot” sistemi ile ilgili 40 özel kaza soruşturması yapılmış olup, bu kazaların yalnızca üçünde Autopilot sistemi suçsuz bulunmuştur. Şu ana kadar kazalar, 23 cana mal olmuş, sonuncusu da Temmuz 2023'te gerçekleşmiştir. Otonom bir araçla ölümcül bir kaza meydana geldiğinde kimin sorumlu olacağı da ayrı bir tartışma konusudur. Üretici mi, yazılım mühendisleri mi yoksa sürücü mü sorumlu olmalıdır? Örneğin, Birleşik Krallık Hukuk Komisyonu, araç otonom moddayken araçtaki yolcunun cezai sorumluluğu olmadığını belirtmiştir. Hukuk Komisyonu ayrıca, "dürüstlük yükümlülüğü" getirmekte, yani üreticinin veya denetleyici operatörün bilgi eksikliği veya yanlış bilgi vermesi durumunda "ağırlaştırılmış" suça dair yaptırımların uygulanacağını belirtmektedir. Gerçek bir kazada sayısız parametre bulunmaktadır; örneğin, kazadan önce aracın herhangi bir işlevi arızalandı mı, sistem sürücüyü kontrolü ele alması için uyardı mı, arızanın sürücü veya uzaktan operatörle bir ilgisi var mı, sürücü kontrolü aldıktan sonra kazayı önlemek için gereken önlemleri aldı mı vb. Buna mukabil, yakın zamanda ABD'de bir şoför, Tesla'nın otomatik pilot modunda kırmızı ışıkta geçip iki kişinin ölümüne neden olduğu için taksirle cinayet ile suçlandı. ABD Ulusal Karayolu Trafik Güvenliği İdaresi ise, otonom araçların yolcu koruma standartlarını karşılamak için insan kontrol ekipmanına sahip olmalarının gerekmeyeceğini bildirdi. Öte yandan, COMEST raporu, manuel sürüş yapma veya otomatik pilot modunda sürüş kararlarının her ikisinin de insan tarafından alındığını, dolayısıyla bedensel yaralanma/ölüm meydana geldiğinde ana sorumluluğun sürücüye yüklenmesi gerektiğini öne sürüyor. Ancak, bu durumun, müdahale edecek direksiyon veya pedal olmadığında uygulanamayacağı açıktır.

Otonom araçlar ile ilgili zihinleri meşgul eden ikinci sorun, ahlaki sorumluluk meselesidir. Ünlü tramvay ikilemi tarafından ilham alınan bu tartışma, ölümcül bir çarpışmanın kaçınılmaz olduğu durumlarda, Otonom aracın yolcu, yoldan geçen yayalar veya yol kenarındaki vatandaştan hangisini kurtaracağı çıkmazını ele alır. Bu senaryonun üç farklı kombinasyonunu tartışan Contissa ve arkadaşları, bir etik düğmesi öneriyor; bu düğme, kişinin ahlaki seçimlerini fedakâr (başkalarını kurtarmaya odaklı) ile bencil (yolcuları kurtarmaya odaklı) arasında bir ölçek üzerinde uyarlamasına olanak tanıyor. Bencil modda, otonom araç, örneğin yolcunun, ani bir yoldan sapma ile ölme olasılığı %2 kadar küçük, yayaların ölme olasılığı %98 kadar kesin olduğunda bile, yolcuyu kurtarmak için yoluna devam ediyor. Böyle bir sistemde, kendini koruma içgüdüsüne karşı denge sağlamak amacıyla, bencil mod seçiminin sigorta primleri üzerinde artırıcı bir etkisi olacağı hatırlatılıyor. Ancak, burada ilk sorun, yolda yürürken gördüğümüz bazı araçların kaza durumunda bizi öldürmek üzere programlandığı gerçeğidir. Aslında, Gogoll ve Müller, oyun teorisini kullanarak, bahsi geçen "kişisel etik ayarının" pekçok cana mal olacağını, çünkü ahlaki seçimin 'aşırıya kaçacağını' ve çoğunluğun 'bencil' ayarları uyarlayacağını belirterek, bunun yerine zararı en aza indirmeyi amaçlayan ve devlet müdahalesiyle belirlenen bir "zorunlu etik ayarının" daha az can kaybına yol açacağını belirtmektedir. Bu açıklamayla aynı doğrultuda bir anket, insanların %64'ünün kendilerini kurtarmak için bir yayayı feda etmeyi seçtiğini göstermektedir. İkinci sorun, sürücülerin hayatlarını başkalarınınkiyle kıyasladıklarında alenen kendi hayatlarını tercih etmeleridir. Bu tür seçeneklerle karşı karşıya kalmak ve belki de bir nebze bencil kararlar vermeye teşvik edilmek, toplumun ahlaki normlarını, yani dayanışma, işbirliği ve karşılıklı desteği önemli ölçüde zedeleyebilir. Bu nedenle, otonom araçlar sektörüne kanuni düzenleme getirmenin, toplumun genel refahı için önemli bir unsur olduğunu söylemek gerekir.

Yapay zekanın gerçek hayattaki sistemlere entegre edilmesi söz konusu olduğunda, dile getirilen bir yaygın endişe de gizliliktir. Otonom araçlar da bu durumun bir istisnası değildir. Size hizmet eden akıllı arabanız, varış noktanızı, çocuklarınızın okulunu, programınızı, alışkanlıklarınızı, nerede/ne zaman alışveriş yaptığınızı ve benzeri bilgileri bilir. Akıllı telefonlarımızın zaten tüm bu verilere sahip olduğunu iddia edebilirsiniz, ancak hedeflenen şey, örneğin, aracınızı istediğiniz yere bırakabileceğiniz ve onun bir otopark bulup, isteğiniz üzerine geri döneceği tam teşekküllü kentsel park sistemlerine sahip olmaktır. Bir otopark bulmak, boş alanlardan ve otoparklardaki sensörlerden gelen sinyalleri almayı gerektirir. Kısacası, böyle projeler, şehirdeki her hareketi takip eden kameralar ve sensörler gerektirir. Elbette, daha müreffeh, ekonomik ve ekolojik şehirler yaratma projeleri hayata geçirilmelidir, ancak bu projelerin insanların gizliliği üzerindeki etkileri konusunda dikkatli olmalı ve yaşamlarımız tam bir gözetim altına girmeden önce uygun önlemleri almalıyız.

Birleşmiş Milletler, 2050 yılına kadar dünya nüfusunun %68'inin kentsel alanlarda yaşayacağını tahmin etmektedir. Artan kentleşme, şehirlerde altyapı ve sosyal hizmetlere olan ihtiyacın artması anlamına gelir. Bu nedenle, birçok akıllı şehir projesi, enerji tüketimini azaltma, hava kalitesini artırma, talep yönetim sistemleri, açık Wi-Fi ağı, kamu hizmetlerine daha uygun erişim ve daha güvenli mahalleler gibi hedeflere katkıda bulunur. Öte yandan, akıllı teknolojilerin sürekli izleme, yaygın kameralar sayesinde sürekli cezalandırılma tehdidi ve hayatın, kredi puanlarını artırmak ve en çok ödüllendirilen vatandaş türüne uyum sağlamak için karamsar bir yarışa dönüşmesi gibi diğer etkileri de vardır. Çin'in Sosyal Kredi Puanı (SCS) sistemi, bu tür distopik bir topluma örnek teşkil eder. SCS, insanları, şirketleri ve devlet kurumlarını ne kadar 'güvenilir' olduklarına göre değerlendirir. Güvenilirlik, trafik kurallarını ihlal etmek, sigara içilmeyen alanları ihlal etmek, aşırı alışveriş alışkanlıkları, sosyal medyada sahte haberler yaymak gibi birçok faktöre bağlıdır. Seyahat yasakları, okul yasakları, sınırlı istihdam olanakları, kredi kartı başvurularının veya banka kredilerinin reddedilmesi, insanlara uygulanan bazı cezalar arasında yer alır. Ayrıca, düşük kredi puanına sahip insanlarla veya işletmelerle akraba olmak veya iş yapmak, bir kişinin kendi geleceği üzerinde de etkiler yaratabilir. Hayatınızda hiçbir şeyi özel tutamadığınız ve başınızın üzerinde sürekli olarak Demokles'in kılıcının sallandığı bir yerde yaşamak, insan onuruyla bağdaşmaz. Böyle yöntemlerle zincirlenmiş bir toplumda, insanın özgüveni zedelenebilir.

Akıllı şehirlerle ilgili bir diğer konu, akıllı şehir proje hedeflerinin altında yatan yapay zeka modellerinin algoritmalarını kimin sağladığıyla ilgilidir. Genellikle bu tür projeler, Fujisawa Sustainable Smart Town’da Panasonic, LinkNYC'de Sidewalk Labs veya Sidewalk Toronto örneklerinde görüldüğü gibi, yerel yönetimler ve özel şirketler ortaklıklarından oluşurlar. Şehir planlaması, güvenlik, suçluları tespit etme veya şartlı tahliye kararları gibi önemli kararları almak için kullanılan algoritmalar ya "kara kutu" probleminden dolayı açıklanamıyor ya da ticari sır olarak kabul edildiğinden açıklanmıyor. Dolayısıyla, öznesi olduğumuz yapay zekâ yargılarına nasıl ulaşıldığı, bu modelleri uygulamaya koyan ve seçmenlerine karşı sorumlu olan hükümet yetkilileri ve kamuoyu için belirsizdir.

Bu noktada üç sorun vardır. Birincisi, özel kuruluşlar ve yetkililer arasında yapılan sözleşmelerde kamu verileri kullanıldığı için, bu verilerin mahremiyetini sağlamak amacıyla, bağımsız üçüncü tarafların algoritmaları incelemesi engelleniyor. Örneğin, bir yapay zeka tarafından verilen şartlı tahliye kararı önerisinde, suç eylemi, suç kaydı, yaş, konum gibi faktörlerin nasıl hesaba katıldığı, sürecin şeffaf olması için önemlidir. Modelin sonucuna ulaşırken dikkate aldığı her bir unsurun oranı gibi önemli politik kararlar, seçilmiş hükümet tarafından belirlenmelidir. İkincisi, aynı örnekten hareketle, adalet ve demokrasinin yapı taşı olan hukukun üstünlüğü, tutukluluk nedenlerinin açıklanamaz olduğu durumlarda veya başka bir örnekle ifade edecek olursak seçmenin bilgi edinme hakkının kısıtlandığı durumlarda zayıflar. Üçüncüsü, güvenlikten hukuk uygulamalarına, yargıya ve günlük yaşamın birçok alanına kadar geleneksel olarak devletin vazifesi olan pek çok şey, insanlara hizmet etmekten ziyade kâr etmeyi hedefleyen özel kuruluşlara devredilmektedir.

Bu konuda şirketler, iki yüzlü bir gündem dahi izleyebilir. Facebook (Meta), kullanıcılara ilgili danışmanlık hizmetini kolayca bulmalarına yardımcı olmak için duygusal sağlık merkezi geliştirdi. Ancak, sızdırılan bir belgeye göre, sosyal medya devi, gençlerin paylaşımlarından kendilerini "güvensiz" veya "değersiz" hissedip hissetmediklerini tespit etti ve bu verileri bir banka ile paylaştı. Facebook'un adı, kullanıcılarından akademik kullanım onayı altında veri toplarken sadece onay verenlerin değil, aynı zamanda arkadaşlarının da verilerini Cambridge Analytica'ya ilettiği ve bunun da Donald Trump'ın başkanlık kampanyasına yardımcı olduğu ortaya çıkan skandal olaylarda geçti. Daha yakın zamanda, Facebook'un eski ürün müdürü Frances Haugen, taciz veya şiddet içerikli gönderiler paylaşma yasağından muaf tutulan elit bir kullanıcı grubu ile ilgili ifşa niteliğindeki belgeleri senatoda beyan etti. Ergenlik dönemindeki kızların zihinsel sağlığı üzerindeki toksik etkiler, sitenin insan kaçakçıları tarafından kullanılması, azınlıklara karşı nefreti körükleme platformun bazı vahim sorunları arasında yer alıyor. Haugen ve sızdırdığı belgelere göre, Facebook yöneticileri, sitenin tehditkâr etki ve faaliyetlerine rağmen kullanıcı etkileşimini her şeyin üstünde tuttular. Şirketin yanıtları arasında algoritmanın zararlı içerikleri artırabileceği, yani kullanılan teknolojinin zararlı materyallerin yayılmasını engelleyecek kadar gelişmiş olmadığı yer aldı. Görünen o ki, yapay zeka kullanılan tüm alanlarda, buna sosyal medyanın zararlı etkileri de dahil, kanuni düzenlemelere ve aktif insan gözetimine ihtiyacımız var.

3. Yapay Zeka Etiği Önerisi

Son zamanlarda, uluslararası kuruluşlar, hükümetler ve sivil toplum kuruluşları da dahil olmak üzere farklı kaynaklardan birçok farklı yapay zeka etiği önerisi sunuldu. Bu çalışma kapsamında aşağıdaki dokuz seçkin belge incelendi:

  • Asilomar AI İlkeleri (2017);
  • Avrupa Bilim ve Yeni Teknolojiler Etik Grubu (2018) Yapay Zeka, Robotik ve 'Otonom' Sistemler Üzerine Beyan;
  • AB Yüksek Düzey Uzman Grubu (HLEG) (2019) Güvenilir AI için Etik Kılavuzları;
  • IEEE (2019) Etik Olarak Hizalanmış Tasarım: Otonom ve Akıllı Sistemlerle İnsan Refahını Önceliklendirmek İçin Bir Vizyon v2;
  • Montreal Üniversitesi, Sorumlu AI için Montreal Deklarasyonu (2017);
  • OECD (2019) Yapay Zeka Konseyi Tavsiyesi;
  • AI Üzerine Ortaklık (2022) Temel İlkelerimiz ve Öğretilerimiz;
  • The Public Voice (2018) 'Yapay Zeka İçin Evrensel Kılavuzlar'; ve
  • UNESCO (2021) Yapay Zekanın Etiği Üzerine Tavsiye.

Bu belgelerden, donanım, yazılım veya hibrit modeller olmalarına bakılmaksızın herhangi bir yapay zekâ sistemine entegre edilmesi gerekli görülen dört genel ilke çıkarıldı. Bu ilkeler, önerilerle birlikte aşağıda açıklanmış olup, kapsamları bazı konularda örtüşmektedir.

3.1. Dört Genel İlke

3.1.1. Temel Hakların ve Değerlerin Teşviki

Birinci ilke, Montreal Deklarasyonu ve Evrensel Kılavuzlar dışında her belgede bulunmakta olup, yapay zeka sistemlerinin geliştirilmesi, dağıtımı ve kullanımı sırasında insanların zarar görmemesini ve insan haklarının ihlal edilmemesini veya suistimal edilmemesini garanti altına alır. Bu prensibe göre insan onuru ve özgürlüğü korunacak, eşitlik hakim olacak, yapay zekalı sistemlerin kullanılması ırk, din, cinsiyet veya sosyal sınıf temelli herhangi bir ayrımcılığa neden olmayacaktır. Ayrıca, insan merkezli yapay zeka sistemleri sadece insan becerilerinin korunmasını değil, aynı zamanda bunların geliştirilmesini de sağlamalıdır. Robotlar veya yapay zekalı sistemlerin birer yapay nesne olduğunu ve karar alma ve kontrolün insanların elinde olması gerektiğini unutmamak gerekir (IEEE İlke 1). Özellikle yüksek riskli yapay zeka uygulamalarında bu durum çok önemlidir. Universal Guidelines, insan kontrolünün sağlanamadığı yapay zeka sistemlerinin sona erdirilmesini öngörmektedir. İnsan özerkliği, 8 belgeden 6'sı tarafından vurgulanmaktadır.

Yeni yapay zeka modellerini lisanslamak ve onaylamak için mekanizmalar ve insan belirleyiciliğini korumaya yönelik güvenlik önlemleri ile uyumlu bir ulusal standartlar kurumu kurulması önerilmektedir. Aynı şekilde, herhangi bir yaşam ve ölüm kararının robotlar tarafından verilmesi kabul edilemez olarak görülmektedir. Geliştirilen yapay zeka yöntemleri, meşru amaçlarla orantılı olmalıdır. Son olarak, hiçbir yapay zeka modeli sosyal puanlama ve kitlesel gözetim amaçları için tasarlanmamalıdır.

3.1.2. Yapay Zekâ Sistemlerinin Güvenliği ve Güvenilirliği

Günlük hayatımızda, pek çok şeyi yapay zekalı sistemlere emanet etmeye başladık. Bu nedenle, kullandığımız sistemlerin insanlar, diğer canlılar ve çevre için güvenli ve emniyetli olması ve teknik olarak sağlam niteliklere sahip olması kritik önem taşımaktadır. Güvenlik, tüm belgelerde yapay zekanın üzerine inşa edilmesi gerektiği kabul edilen bir köşetaşı olarak karşımıza çıkar. Yapay zeka geliştiricileri, aynı koşullar altında aynı sonuçları üretebilen güvenilir modeller için çaba göstermelidir. Ayrıca yapay zeka modelleri, herhangi bir saldırıya karşı dayanıklı olmalıdır. Modelin çalışmasını engelleyecek herhangi bir veri, modele sızmamalıdır (Universal Guidelines’daki veri kalitesi yükümlülüğü). Yapay zekanın dağıtımının ardından, sistemlerin burada listelenen etik kurallara uyumunu ve güvenliğini kontrol etmek için düzenli aralıklarla testler yapılmalıdır.

Toplumsal refah, yapay zekalı sistemlerin güvenliği ve güvenilirliği ile yakından ilişkilidir. Bu sistemlerin kullanıma sunulmasının ardından, insan refahı, olumlu başarılar ve mesleki fırsatlar sadece elitler için değil, herkes için sağlanmalıdır. Yapay zekanın adalet, özgürlük, eşitlik ve demokrasi üzerinde olumsuz etkileri olmamalıdır. 9 belgeden 6'sında vurgulandığı gibi, akıllı sistemlerin çevresel etkileri değerlendirilmelidir ve uzun vadeli faydalar hedeflenmelidir. IEEE ayrıca, toplumsal refahın insanlar rakamlara indirgenmeden bütüncül bir şekilde ele alınması gerektiğini belirtmektedir.

3.1.3. Gizlilik ve Veri Koruması

Universal Guidelines dışında tüm belgeler gizlilik ve veri korumayı içermektedir. Özel hayata ve aile hayatına saygı hakkı, AİHS Madde 8 tarafından tanınan temel bir haktır. Yapay zekalı sistemlerde, çoğu akıllı modelin işleyişinin bir şekilde veri işlemeye dayanması, kişi mahremiyetini tehlikeye atmaktadır. Yapay zekalı modellere kişisel veriler sağlandığında, veri koruması yalnızca yetkili kişilerin erişimine izin veren mekanizmalarla sağlanmalıdır. Ayrıca, GDPR Madde 25, veri koruma için uygun teknik ve organizasyonel önlemlerin alınmasını ve yalnızca gerekli kişisel verilerin işlenmesini öngörür. Benzer şekilde, HLEG, veri protokollerinin varlığının önemini vurgulamaktadır. Makine Öğrenimi insan zihninin anlayışının ötesinde sebeplerle yeni ancak kötü niyetli yargılar çıkarabileceğinden dolayı, yapay zekalı sistemlerin ayrımcılık içeren, yanlış veya düşük kaliteli verilerden arındırılması da kritik öneme sahiptir.

İlk ilkede belirtilen sosyal puanlama ve kitlesel gözetim uyarısıyla uyumlu olarak, GDPR Madde 22, yani 'yalnızca otomatik işlemeye dayalı' karar verme kısıtlamasının her üye devlette uygulanması gerekmektedir. İzin verilen istisnai durumlarda, algoritmik karar vermeyi geçersiz kılabilecek güvenlik önlemleri bulunmalıdır.

3.1.4. Şeffaflık ve Hesap Verebilirlik

Yapay zekalı teknolojilerin işleyişinin bilincinde olma ve anlama olan şeffaflık, yapay zekalı hizmet ve ürünler her geçen gün daha yaygın hale geldiği için önemli bir gereklilik arz eder.(Şeffaflık Hakkı – Universal Guidelines). Şeffaflık ayrıca, yapay zeka ile etkileşimde bulunulduğunda bilgilendirilme, özellikle temel hakların ihlal edilebileceği durumlarda yapay zekalı sistemlerden çıkan sonuçların gerekçelerinin sunulması ve bir insana danışma seçeneğinin sunulmasını içerir (UNESCO Tavsiyeleri, HLEG).

Şeffaflık, hesap verilebilirlik için de esastır. Yapay zekalı sistemlerin neden olduğu zararlar için kişileri veya kuruluşları gözlemleyebilmek ve sorumluları belirleyebilmek amacıyla, bir sistemin iç işleyişi açıklanabilir olmalıdır. Tıbbi uygulamalar, yargı uygulamaları, ulaşım sistemleri, akıllı şehir altyapıları gibi kritik kararlar veren tüm programlarda yorumlanabilirlik ve açıklanabilirlik bulunmalıdır.

3.2. Ele Alınması Gereken Konular

Yapay zeka üreticileri bu dört ilkeyi içselleştirip, etik kurullar tarafından denetlenmek üzere kurumsal iç işleyiş mekanizmalarına eklemelidir. Dışta ise, ürün/hizmet kalitesini belirleyen hükümet ve sivil toplum kuruluşları, yapay zeka öğesi içeren tüm ürün ve hizmetler için bu ilkeleri uygulamalıdır. Özetle, insan refahına uygun olarak akıllı sistemlerin düzgün çalışması için bu yapay zeka etik ilkeleri, tüm yapay zekalı sistemler için bir anayasa gibi olmalıdır. Son olarak, yapay zekâyı düzenleyen yasalar, bu ilkelerin uygulanmasını kolaylaştırmalıdır.

Belirtilen genel ilkelerin bir yansıması olarak aşağıdaki satırlarda aciliyetle ele alınması gereken birkaç konu özetlenecektir.

3.2.1. Üretken Yapay Zeka

Üretken yapay zeka yeni bir tabir olmamakla birlikte, Open AI’ın ChatGPT sohbet robotunu Kasım 2022’de kullanıma sunmasından sonra sıklıkla kullanılmaya başlanmıştır. Sohbet robotlarının kısa sürede popüler hale gelmesiyle birlikte yapay zekanın insan benzeri metinler ve görseller üretme kapasitesi geniş çevrelerce anlaşılmıştır. Tam da bu noktada etik ve hukuk açısından problemli konular gündeme gelmektedir. Telif hakları, akademik hırsızlık, önyargılı ve yanıltıcı metinler, sohbet robotlarının ürettiği ürünlerin hak ve mülkiyet sahipliği bunlardan bazılarıdır. Nitekim The New York Times gazetesi milyonlarca makalesinin Open AI tarafından ChatGPT’yi eğitmek için izinsiz olarak kullanıldığı iddiasıyla bir dava açmıştır. Anlaşılacağı üzere kanuni düzenlemelerin ve akademik çalışmaların bu alanlara yoğunlaşması büyük önem arz etmektedir.

3.2.2. Yapay Zekanın Hukuki Statüsü ve Fıkıh

Yapay zeka beraberinde pek çok hukuki problem getirmiştir. Birkaç örnek vermek gerekirse, yapay zekâlı sistemlerin kendilerine ait hukuki kişiliklerinin olabilirliği, ürettikleri eserlerin kime ait olacağı, bir suça neden olduklarında cezalandırmanın nasıl olacağı veya zarara sebebiyet verdiklerinde bu zararı kimin veya kimlerin tazmin edeceği gibi çeşitli hukuki problemlere çözüm aranmaktadır.

Üstelik yapay zeka denilince akla gelen etik problemler de hukuk aleminde sonuçlar doğurmaktadır. Bu problemlerin çözümü için yapay zekanın hukuki statüsünün belirlenmesi büyük bir önem arz etmektedir. Literatürde, yapay zekanın hukuki açıdan alelade bir mal gibi değerlendirilmesi fikrinden köle statüsünde kabul edilmesine, insan gibi bir hukuk öznesi kabul edilmesi fikrinden hayvan statüsünde kabul edilmesi fikrine kadar pek çok öneri vardır. Avrupa Parlamentosu Hukuk İşleri Komisyonu 27 Ocak 2017 tarihinde yapay zekanın neden olduğu maddi zararların telafisi için elektronik kişilik tavsiyesinde bulunmuştur. Avrupa ve Amerikan hukuk düzeni içerisinde bu konuya henüz kesin ve tatmin edici bir çözüm bulunamamıştır. Zira bu konu kendine has şekliyle alışılagelmiş hukuk nesnelerinin hiçbirine benzememektedir. Nitekim adının anılması dahi etik açıdan problemli görülen ve günümüzde hukuken bir geçerliliği bulunmayan kölelik müessesesine dahi bu nedenle akademik çalışmalarda atıf yapılmaktadır.Aynı şekilde yapay zekanın hukuki statüsünü fıkıh perspektifinden inceleyen çalışmalarda da benzer bir arayış görülmektedir. Fıkhen hukuki statüleri farklı olan çeşitli varlıkların yapay zekâ açısından değerlendirilmesi gerektiğine dair öneriler getirilmektedir.

Bu noktada fıkha başvurmak orjinal bazı çözüm önerilerine kapı aralayabilir. Zira fıkıh, cari hukuk düzenlerinde benzeri bulunmayan veya farklı şekillerde yer alan kavram ve kurumlarıyla bizlere yeni bakış açıları vadetmektedir. Fıkıh usulünün delil ve yöntemleri, ehliyet ve zimmet bahisleri, zararların tazmininde kolektif bir sorumluluk tesis eden akıle müessesesi, faili meçhul cinayetlerin soruşturulması için başvurulan kasame yöntemi ve daha pek çok konu yapay zeka gibi girift ve tek bir kişinin sorumlu tutulmasının oldukça zor olduğu meselelerde bize uyuşmazlıkların çözümüne dair bazı ipuçları sunmaktadır.

Yazılı kanunların teknolojilerin ilerleme ve değişim hızına yetişmesi pek mümkün görünmemektedir. Zira kanunlaştırma uzun soluklu bir süreç olup, yürürlüğe giren kanunların yapay zeka ve diğer yeni teknolojilerin getirdiği hukuki ve etik uyuşmazlıkların pek çoğunu kapsamına alamaması gibi bir risk bulunmaktadır. Dolayısıyla meseleci bir yapıda olan ve başvurulacak temel ilkeler manasında külli kaidelerle de desteklenen fıkıh, yeni dönemin ihtiyaçlarına uygun bir hukuk sistemi olarak görünmektedir.

Fıkhın diğer bir yönü ise hukuki ilişkiler manasında muamelatla sınırlı olmamasıdır; fıkıh ahlakı da içerir ve fıkıhta hukuk kuralları ahlakı teşvik eder. Bir başka deyişle fıkhen caiz olan ama ahlaken uygun olmayan bir hükümle karşılaşmak mümkün değildir. Bu açıdan fıkıh insanlığın gelecekte karşılacağı problemlere etik çözümler bulunması için bütüncül bir bakış sunmaktadır.

Fıkhın özet olarak belirtilen potansiyelinin ortaya çıkarılması için farklı alanlardan uzman ve araştırmacıların, önce usul bilgisi edinmek suretiyle, fıkıh araştırmacıları ile birlikte fıkhı yeni bir bakış açısıyla incelemeleri gerekmektedir.

3.2.3. Yapay Zeka ve Kontrol Problemi

Yapay zekanın insanlığın ortak yararı için vadettiklerini reddetmek mümkün olmadığı gibi bu konudaki ilerlemelere seyirci kalarak sadece iyi şeyler olmasını ummak da doğru değildir. Zira yapay zeka konusunda halihazırda ciddi bir rekabet söz konusu olup etik kaygılar en son aşamada düşünülen meseleler gibi görünmektedir. Gelecek yıllarda hayatımıza girecek olan farklı alanlardaki çok gelişmiş yapay zekalı sistemlerin nasıl kontrol edileceği ve kötü amaçlı müdahalelerden nasıl korunacağı konusu, maddi kazanç elde etme ve alana hakim olma gibi hırsların gölgesinde kalmaktadır. Yapay zeka konusunda otorite isimlerden olan Stuart Russell, Yapay Zeka ve Kontrol Problemi adlı kitabında yapay zeka tarihinin başından beri hep daha zeki bir yapay zeka hedefinin peşinden gidildiğini ve bunun insanlığın sonunu getirebilecek ciddiyette bir hata olduğunu belirtmektedir. Bu nedenle yapay zekanın temel tanımlarını ve yapay zekayı oluşturan fikir ve yöntemlerin büyük kısmını yeniden inşa etmek pahasına da olsa hedeflerin yeniden belirlenmesi gerektiğini ifade eder. Elon Musk başta olmak üzere binlerce kişinin imzasını taşıyan 22 Mart 2023 tarihli bir açık mektupla yapay zeka çalışmalarının daha gelişmiş modeller üretilmeden önce en az 6 ay durdurulması ve gerekli güvenlik önlemleri alındıktan sonra ilerlemelerin devam etmesi talep edilmiştir. Bu konu, tehlike henüz geri dönüşü mümkün olmayan noktalara ulaşmadan ele alınmalı ve insanlığın geleceği ile ilgili sorumluluk hisseden kişi ve topluluklar bu konuda inisiyatif almalıdırlar. Yapay zeka konusunda üzerinde uzlaşma sağlanmış etik ilkeler, güvenlik önlemleri ve güvenli kullanım testleri en az teknik gelişmeler kadar önemlidir.

Sonuç

Yapay zeka, modern dünyada vazgeçilmez bir hale gelmekte, yaşam döngümüzün her aşamasını etkilemektedir. Bu makalede göstermeye çalıştığımız gibi, insanlık yapay zekanın sürekli artan yeteneğiyle başa çıkmaya tam anlamıyla hazırlıklı değildir. Dahası, insan zihninin kapasitesini aşabilecek bir yapıtla karşı karşıyayız, ancak şu anda en acil meseleleri güvenlik, insan iradesi ve kontrolü, eşitlik, gizlilik ve etik oluşturur. Yapay zeka, modern demokratik toplumların yapı taşlarını tehdit etmektedir. Bu makalede, sınırları belirlenmemiş ve yanlış, önyargılı veya eksik verilerle beslenmiş yapay zekanın, dikkatsiz tasarım ve insan denetiminin eksikliğiyle birleştiğinde, ayrımcılıktan insan yargısının kaybına ve hatta ölüme kadar varan ciddi sonuçlar doğurabileceğini göstermeye çalıştık.

Bu, yapay zeka sistemlerinin entegrasyonunda etik ilkelere sahip olmanın gerekliliğine işaret etmektedir. Saygın yapay zeka etik çerçevelerinden dört ilkeyi bir araya getirdik: temel hakların ve değerlerin teşviki; yapay zeka sistemlerinin güvenliği ve güvenilirliği; gizlilik ve veri koruma; şeffaflık ve hesap verebilirlik. İlk ilke, insan haklarının ve yeteneklerinin korunmasını ve teşvik edilmesini, insan iradesinin ve ahlaki değerlerin korunmasını vurgular. İkinci ilke, demokratik kurumlara, herkes için mesleki fırsatlara ve nihayetinde toplumsal refaha katkıda bulunan güvenilir yapay zeka sistemleri ile ilgilidir. Üçüncü ilke, çoğu yapay zeka tekniğinin uygulanması sırasında veri açgözlülüğü nedeniyle gizlilik ve verilerin korunmasında meydana gelen gerilemenin ciddiyeti göz önüne alındığında, gizlilik ve veri korumanın önemini vurgulamaktadır. Son ilke olan şeffaflık ve hesap verebilirlik, insanların yapay zeka teknolojilerine güven duymalarının önemini ve bu iki kavram arasındaki doğal ilişkiyi vurgular. Ayrıca, temel haklar üzerinde etkisi olan yapay zeka sistemlerinin yorumlanabilirlik ve açıklanabilirlik özelliklerine sahip olmaları gerekmektedir. İnsan hayatındaki temel kararların gizemli, sırrına vakıf olunamayan ve kontrol edilemeyen programlara bırakılamayacağı anlaşılmalıdır. Ayrıca yapay zekanın beraberinde getirdiği hukuki ve etik problemlerin çözümü için fıkhın üzerinde çalışılmaya değer bir hukuk ve ahlak sistemi olduğunu dile getirdik. Bu çabaların istenen sonuçları vermesi, farklı alanların uzmanlarının birlikte çalışmasına ve insanlık yararına yürütülen bu yöndeki akademik çalışmaların yeterli desteği görmesine bağlıdır.

Biyografi

Yunus Elmas, İstanbul Üniversitesi Hukuk Fakültesi'nde hukuk eğitimi aldı. İstanbul'da avukatlık yaptı. Tefakkuh Okulu'nun bir öğrencisi ve bu okul nezdinde yeni teknolojilerin fıkhi ve etik yönleriyle incelenmesi konusunda akademik araştırmalar yapıyor. Teknolojinin insanlık yararına kullanılması için bir araya gelmiş bir topluluk olan Shared Horizon Collective’in bir üyesi. Yüksek lisans tezini Prompt Engineering konusunda yazıyor. IT alanında yazılım test mühendisi olarak çalışıyor.

Süreyya Sevde, İstanbul Bilgi Üniversitesi Hukuk Fakültesinden 2019’da mezun oldu. Eylül 2021’de avukatlık ruhsatını aldı. Eylül 2022’de Queen Mary University of London’da Teknoloji, Telekomünikasyon ve Medya LL.M. tamamladı ve tezini verdi. Şu an Freelancer olarak yapay zekâyı denetlemeye dair işleri alıyor.