Yapay Zekanın Zorlukları: Ceza Hukuku Örneği
Hakan Veli
Özet
Yapay zeka (YZ), sağlık, finans, eğitim ve enerji dahil olmak üzere birçok sektörde devrim yaratarak karar verme yeteneklerinin verimliliğini ve etkinliğini artırmıştır. Ceza hukuku alanında, YZ, adalet hizmetlerine hızlı erişimi kolaylaştırmış ve güvenlik güçleri, ceza mahkemeleri ve hapishanelerle ilgili süreçlerin ve uygulamaların otomasyonunu artırmıştır.[1] Özellikle, tahmine dayalı analitik görevleri, suç noktalarını öngörmek, tekrar suç işleme riskini değerlendirmek ve duruşma öncesi serbest bırakma kararlarına yardımcı olmak için polislik ve ceza mahkemesi sistemlerine entegre edilmiştir. Bu ilerlemeler, kaynakların daha etkili bir şekilde tahsis edilmesine ve kamu güvenliğinin artırılmasına yardımcı olur.
Bu makale, ceza hukuku alanında YZ uygulamalarının zorluklarını tartışmaktadır. Bu alan çeşitli hizmetlerde YZ dan fayda sağlasa da, zorlukları öncelikle iki yaygın uygulama alanında örnekledik: tahminsel önleyici polislik ve suçta tekerrür.
Özetle, tahminsel önleyici polislik uygulamaları, suçu meydana gelmeden önce önlemek için gerekli tedbirleri almayı amaçlar. Bu uygulamalar genellikle (1) yüksek suç riski taşıyan yerler ve zamanlar, (2) gelecekte suç işleme potansiyeli yüksek bireyler, (3) geçmiş suçluların suç kayıtlarından elde edilen profiller, (4) gelecekte suçların mağduru olma olasılığı yüksek grup veya bireyleri belirlemek için YZ dahil analitik araçlar kullanır.[2]
Suçta tekerrür öngörüsü, hükümlü kişinin tekrar suç işleyip işlemeyeceğini tahmin eder.[3] Bu tür tahminler, şartlı tahliye, denetimli serbestlik veya ceza kararlarını büyük ölçüde etkileyebilir. Bir örnek, ABD'deki mahkemelerde kullanılan ve Alternatif Yaptırımlar için Cezaevi Suçlu Yönetimi Profilleme (COMPAS) adlı yazılımdır. Bu yazılım, yargıçların ve şartlı tahliye memurlarının ön duruşma gözaltı ve serbest bırakma konusundaki kararlarında önemli bir rol oynar. Kanada, Birleşik Krallık ve Hollanda da benzer yazılımları aynı amaç için kullanılmaktadır.[4]
Bariz avantajlarına rağmen, ceza hukuku alanında YZ uygulamaları çeşitli mühendislik, etik ve yönetmelik meseleleri ile karşı karşıyadır. YZ, tüm alanlardaki sorunları sorunsuz bir şekilde çözen bir mucize mühendislik aracı değildir. Geliştirilen çözümlerin doğruluğu ve güvenilirliği, YZ mühendisliğinde var olan en iyi uygulamalar kullanılmadan garanti edilemez. Optimal bir çözüm elde edildikten sonra, YZ kararlarının süreçlere ve prosedürlere entegre edilmesi çok önemlidir. Bazı durumlarda, bu süreçler, sorunların kök nedenlerini ele almak için güncellemeler gerektirebilir. Dolayısıyla, YZ yi adapte etmek yalnızca mühendislik çözümlerini tanıtarak değil, aynı zamanda mevcut iş akışlarını, politikaları, uygulamaları ve çalışma kültürünü yeniden değerlendirerek ve rafine ederek gerçekleştirilebilir. Etik kaygılar, YZ algoritmalarındaki olası önyargılar, karar verme süreçlerinde şeffaflık ve mahremiyet ile sivil özgürlükler üzerindeki etkiler etrafında döner. Hukuki gereklilikler ve temel hakların korunması, henüz net düzenlemelerin benimsenmediği bir alanda önemli bir zorluk teşkil eder.
Makalenin geri kalan kısmı, her bir zorluğu tanıtmakta ve kısaca açıklamaktadır.
Doğruluk ve Güvenilirlik Sorunları
Ceza hukukunda kullanılanlar da dahil olmak üzere YZ tabanlı araçlar hakkında ilk endişe, bunların doğru çalışıp çalışmadığı ve temel beklentileri karşılayıp karşılamadığıdır. Bu araçların performansının veri seti kalitesi, en uygun yöntemin seçimi, algoritma parametrelerinin optimize edilmesi veya sonuçların ilgili metrikler ve veri setleri ile karşılaştırılması gibi çeşitli faktörlere bağlı olduğu unutulmamalıdır. ML (Machine Learning) modellerinin her alanda makul bir şekilde performans göstermesi garanti edilemez ve daha karmaşık modeller her zaman daha yüksek performans anlamına gelmez. Modeller, bir veri setinde mükemmel sonuçlar verebilirken, aynı problem alanında olmasına rağmen başka bir veri setinde başarısız olabilir. Bu nedenle, özellikle yüksek riskli uygulamalarda, çeşitli veri setleriyle titiz model denetimi yapılmalıdır.
Örneğin, COMPAS'ın şiddet suçu işleyen suçlular için tahmin oranının %20 civarında düşük olduğu bulunmuştur. Başka bir çalışma, COMPAS'ın karar doğruluğunun, az ya da hiç ceza hukuku uzmanlığı olmayan insan uzmanlardan daha iyi olmadığını belirlemiştir.[5] Bu çalışma ayrıca, COMPAS tarafından kullanılan 137 özellik yerine (yani, bir özellik, kişinin yaşı gibi, konuyla ilgili bireysel bir bilgi parçasıdır), yalnızca iki özelliği, yaş ve önceki mahkumiyetlerin toplam sayısını kullanan basit bir tahmin algoritması ile benzer doğruluk seviyelerinde kararlar verebildiğini bulmuştur. Bir araştırma çalışması, tekrar suç işleme tahmin modellerinin bir lokasyonun veri setinde iyi performans gösterebileceğini ancak başka bir lokasyonun veri setinde aynı performansı gösteremeyebileceğini bulmuştur.[4]
Tasarım Kararları
YZ modellerinin kararları sadece eğitim veri setlerine bağlı değildir. Eğitim sürecine rehberlik eden alan uzmanları tarafından çeşitli tasarım hususları gerçekleştirilir. Önemli kararlardan biri, ele alınan alana uyarlanması gereken metriklerin seçilmesidir. Ancak, belirli bir alanda bile uzmanlar arasında bir fikir birliğine varmak mümkün olmayabilir. Yönetmelikler veya yasal çerçeveler de metrik seçimine katkıda bulunabilir.
Yanlış pozitifler ve yanlış negatifler, metrik formülünü oluşturan ana değişkenlerdir. Bir YZ algoritmasının, bir kişinin gelecekte suç işleme potansiyeli açısından yüksek risk taşıyıp taşımadığını sınıflandırdığını varsayalım. Algoritma, A kişisini yüksek risk olarak bulursa ancak gerçekte o kişinin böyle bir riski yoksa, bu yanlış pozitif olarak adlandırılır. Tersine, algoritma B kişisinin herhangi bir risk taşımadığını bulursa ancak o kişi gelecekte suç işleyecekse, bu karar yanlış negatif olarak sınıflandırılır.
İdeal olarak, bir algoritmanın her iki değişkeni de minimize etmesi beklenir. Ancak, tasarımcı algoritmaya hangi yanlış sınıflandırmanın daha fazla cezalandırılacağını belirtmelidir. Bu tür bir önceliklendirme, alan bağlamına bağlı olarak çeşitli artı ve eksilere sahiptir. Yanlış negatifler, sistemin ana amacına ulaşmasını engeller. Bu nedenle, algoritma riskli kişileri tanımlamazsa, kullanışlı olmayacaktır. Diğer tarafta, yanlış pozitifler gereksiz önlemler alınmasına neden olacak, kaynakların israfına yol açacak ve polisin dikkatini gerçek sorunlardan uzaklaştırabilecektir. Bu karar, yanlış sınıflandırılmış kişi için önemli yükler (yani, duygusal, sosyal veya mali yükler) yaratacak ve sivil hakların ve mahremiyetin ihlali ile ilgili endişelere yol açabilecektir. İlk bakışta, yanlış negatifleri minimize etmek YZ çözümünün amacına ulaşmak için daha makul görünebilir. Ancak, yanlış pozitiflerin neden olduğu yükleri göz önünde bulundurarak, metrik seçimi zor bir karar olarak kalır.
Adalet ve Algoritmik Önyargı
Karar vermede adalet, “bir bireye veya gruba karşı doğuştan gelen veya sonradan kazanılmış özelliklerine dayalı herhangi bir önyargı veya ayrımcılığın olmaması” olarak tanımlanır.[6] YZ teknolojisi hakkında yaygın bir yanlış anlama, YZ modellerinin insan olmadığı için bireylere veya gruplara karşı önyargılı olmadığıdır. Bu yanlıştır çünkü YZ modelleri çeşitli nedenlerle adaleti sağlamayabilir, buna eğitim veri seti sınırlamaları veya algoritmaların doğal özellikleri dahildir.[6] Çoğu YZ algoritması, derin öğrenme gibi karmaşık olanlar da dahil olmak üzere, eğitim veri setlerindeki yetersiz temsil edilen konu türleriyle ilgili kararlar verirken zayıf performans gösterir. Bu, YZ tabanlı bir ceza hukuku aracı, örneğin tekrar suç işleme tahmin yazılımının, veri setindeki temsil sınırlı olduğunda bir grup insanı gereğinden fazla riskli bulabileceği anlamına gelir. Bu veri seti önyargısına ek olarak, literatür çeşitli diğer önyargı kaynaklarına dikkat çeker.[6]
Başka bir yanlış anlama, yüksek performans gösteren modellerin yüksek düzeyde adalet sağlayabileceğidir. YZ modelleri genellikle yukarıda tartışılan performans metriklerine karşı optimize edilir. Ancak, adalet değerlendirmesi farklı bir değerlendirme bakışı gerektirir, bu da model geliştirme sırasında uygun adalet metriklerinin kullanılması gerektiği anlamına gelir.[4] Örneğin, tekrar suç işleme tahmin yazılımı COMPAS, Afrikalı-Amerikalı suçlular için yanlış pozitif tahmin oranlarının, beyaz tenli suçlulara göre daha yüksek olduğunu göstermiştir. Başka bir çalışma, aynı veri setinde yaş grupları için benzer bir önyargı tespit etmiş ve bunun nedenini COMPAS modelinden ziyade veri üretimine atfetmiştir.[7] Bununla birlikte, bir önyargı olduğu tespit edilmiştir ancak neden kaynaklandığı konusunda bir fikir birliği yoktur.
İnsan Katılımı ve Hesap Verebilirlik
Otomasyon, insanları denklemin dışına mümkün olduğunca çıkarmayı amaçlayan mühendislik çözümlerinin itici güçlerinden biridir. Yapay zeka (YZ), bu hedefe ulaşmak için umut verici bir mühendislik aracıdır. Bu ideal mühendislik durumu insanlık adına tesis edilmiş olsa da, temel sorulardan biri, insanları bu otomatik çözümlerden ne ölçüde ayırabileceğimizdir. Örneğin, kendi kendine giden araçlar insan katılımı olmadan hizmet verebilir. Ancak, önemli bir yaralanmayla sonuçlanan bir olay durumunda, en azından bir insanın bunu araştırması veya olaydan kimin sorumlu tutulacağına karar vermesi gerekecektir. Bu potansiyel olaylardan sonra gerçekleştirilecek tüm bu eylemlerin tamamen otomatikleştirilmesi veya insanların makinelerin tüm bu kararları vermesine izin vermesi daha az olasıdır. En azından, nihai kararı bir insanın vermesi beklenebilir.
Kararın Şeffaflığı
YZ modelleri genellikle bilgilerini karmaşık formlarda biriktirir ve depolar, bu da insan uzmanlar tarafından anlaşılmayabilir. Çoğu model, bir insanın modelin kararının arkasındaki nedeni anlayamayacağı şekilde kara kutu tarzında çalışır (yani, açıklanabilirlik veya yorumlanabilirlik eksikliği). Ancak, ceza hukuku da dahil olmak üzere çeşitli alanlarda, kararların gerektiğinde itiraz edilebilmesi veya denetlenebilmesi için mümkün olduğunca şeffaf olması gerekir. Bazı modeller (örneğin karar ağaçları) daha iyi anlaşılabilir ve daha yorumlanabilir kabul edilse de, çeşitli yüksek performanslı modeller (örneğin derin öğrenme yöntemleri) bu özelliğe sahip değildir.
Eğer yorumlanabilir YZ modelleri performans beklentilerini karşılıyorsa, mühendislikteki en iyi uygulama bu modelleri tercih etmektir. Ancak, karmaşık modeller tek seçenek olduğunda, kararın yaklaşık olarak anlaşılabilmesi için YZ modeline ek bir açıklanabilirlik algoritması uygulanabilir. Bu açıklanabilirlik algoritmaları her zaman doğru anlamayı sağlamasa da, uygulayıcılar tarafından yaygın olarak kullanılır. Ciddi miktarda bir YZ literatürü, bu tür algoritmaların araştırma ve geliştirilmesine odaklanır. Tekrar suç işleme tahmin probleminin yorumlanabilir modellerle çözülebileceği gösterilmiştir.[4]
Mahremiyet ve Veri Koruma
Mahremiyet tehditlerine karşı veri koruması, kişisel olarak tanımlanabilir bilgilerin kötüye kullanım ve ihlallere karşı güvence altına alınmasını sağlar. Hükümetler, sıradan bir kullanıcı ile kişisel verileri depolayan ve işleyen bir kuruluş arasındaki asimetrik gücü dengelemek için mahremiyeti yüksek derecede düzenler (örneğin, GDPR). Suç kayıtları, bireyler hakkında hassas veriler içerir, bu nedenle dijital yaşamda mahremiyeti korumaya yönelik düzenlemeler altında sıkı sınırlamalara tabidir.
Bir YZ çözümü, modelin eğitim ve operasyonel aşamalarında mahremiyet kontrollerini uygulamalıdır. Model, kişisel olarak tanımlanabilir bilgileri içermeyen bir veri setiyle eğitilmelidir. Bu kısıtlama, özellikle kötü niyetli aktörlerin YZ modellerine özel saldırılar düzenleyerek bu tür bilgileri elde edebilecekleri için önemlidir. Operasyonel aşamada, kullanıcılar genellikle kararlar almak için YZ modellerine hassas bilgilerini sunabilirler. Kullanıcı ve sistem tasarımcıları, saldırganların modelle kullanıcı etkileşimini tehlikeye atmaması için çeşitli mahremiyet kontrolleri uygulamalıdır.
Gerçek Sorunu Çözmek
Gelişmiş veri analitiği ve YZ teknolojilerinin mevcudiyetine rağmen, bu çözümler tarafından verilen kararları sahada amaçlanan hedeflere ulaşmak için kullanmak daha fazla açıklama gerektirir. Örneğin, önleyici polislik araçları tarafından verilen kararlar, etkili ve uygulanabilir önleyici tedbirlerin uygulanmasına yol açmalıdır. Araştırma kanıtları, bu tür önleyici polislik uygulamalarının suç önleme duruşunu iyileştirdiğini tutarlı bir şekilde desteklememektedir. [8] Potansiyel bir suçun zaman ve yer tahmini, polis departmanlarının çalışma prosedürlerine ve yeteneklerine uygun olmayabilir. Tahmin, potansiyel suçun bir hafta sonra gerçekleşebileceğini belirtirse, bu uzun bir süredir çünkü polis prosedürleri daha kısa vadeli eylemler için daha uygundur.[8] Analitik araçların kararlarını operasyonel uygulanabilirlik ve etkinlik bağlamında değerlendirmek önemlidir. Ayrıca, bu araçların mevcut iş akışlarına sorunsuz bir şekilde entegre edilmesi, kolluk kuvvetlerinin çabalarını tamamlayacak şekilde olmalıdır.
Sonuç
Bu makale, YZ tabanlı ceza hukuku çözümlerinde gözlemlenen zorlukları ayrıntılı olarak ele alır. Zorluk listesi eksiksiz kabul edilemese de, çeşitli mühendislik, etik ve yönetmelik meseleleri kısaca tanıtılmış ve tartışılmıştır. YZ'nin hedef alana uygulanmasının sadece bir mühendislik sorunu olmadığını belirtmek önemlidir. Bu tür uygulamaların başarısı, çeşitli özgeçmişleri olan karar vericilerin, etik ve hukuk alanlarındakiler dahil olmak üzere, katkılarını içeren bütünsel bir bakış açısıyla sağlanabilir. Odak, yalnızca mühendislik çözümü üzerinde değil, aynı zamanda çözümün süreçlere ve prosedürlere dahil edilmesi üzerinde olmalıdır.
Referanslar
- ↑ A. Zavrˇsnik, “Criminal justice, artificial intelligence systems, and human rights,” in ERA forum, vol. 20, no. 4. Springer, 2020, pp. 567–583.
- ↑ W. L. Perry, Predictive policing: The role of crime forecasting in law enforcement operations. Rand Corporation, 2013.
- ↑ M. M. Farayola, I. Tal, R. Connolly, T. Saber, and M. Bendechache, “Ethics and trustworthiness of ai for predicting the risk of recidivism: A systematic literature review,” Information, vol. 14, no. 8, p. 426, 2023.
- ↑ 4,0 4,1 4,2 4,3 C. Wang, B. Han, B. Patel, and C. Rudin, “In pursuit of interpretable, fair and accurate machine learning for criminal recidivism prediction,” Journal of Quantitative Criminology, vol. 39, no. 2, pp. 519–581, 2023.
- ↑ J. Dressel and H. Farid, “The accuracy, fairness, and limits of predicting recidivism,” Science advances, vol. 4, no. 1, p. eaao5580, 2018.
- ↑ 6,0 6,1 6,2 N. Mehrabi, F. Morstatter, N. Saxena, K. Lerman, and A. Galstyan, “A survey on bias and fairness in machine learning,” ACM computing surveys (CSUR), vol. 54, no. 6, pp. 1–35, 2021.
- ↑ C. Rudin, C. Wang, and B. Coker, “The age of secrecy and unfairness in recidivism prediction,” Harvard Data Science Review, vol. 2, no. 1, p. 1, 2020.
- ↑ 8,0 8,1 J. Saunders, P. Hunt, and J. S. Hollywood, “Predictions put into practice: a quasi-experimental evaluation of Chicago's predictive policing pilot,” Journal of experimental criminology, vol. 12, pp. 347–371, 2016.