Küresel Yapay Zeka Düzenlemesi için On Öneri
Burak Haylamaz LL.M.
Giriş
Yapay Zeka, tıbbi araştırmaları güçlendirmek, iklim değişikliğini ele almak, endüstrileri dönüştürmek ve hükümetleri modernleştirmek de dahil olmak üzere birçok toplumsal fayda üretmektedir. Aynı zamanda, üretken yapay zeka chat botları ve görüntü oluşturucuları gibi yeni teknolojilerin hızla yaygınlaşması ve benimsenmesi, uzun süredir devam eden endişeleri yoğunlaştırdı. Bu durum, gizlilik ve veri koruma, şeffaflık ve açıklanabilirlik, insan hakları, fikri mülkiyet, güvenlik, önyargı, işgücü etkileri, yanlış bilgi ve dezenformasyon ve diğer toplumsal alanlarda yeni sorunlar ortaya çıkardı. Buna yanıt olarak, kuruluşlar yapay zekanın sorumlu bir şekilde geliştirilmesini ve uygulanmasını sağlamak için operasyonel kontroller ve yönetişim çerçeveleri geliştirmekte; endüstri uzmanları standartlar geliştirmek için çalışmakta; politika yapıcılar yeni yasalar oluşturmakta ve düzenleyiciler mevcut yetkilerin sınırlarını test etmekte ve yenilerini önermektedir. Ancak, ülkeler arasında yapay zekayı düzenlemek için en iyi yaklaşım konusunda bir fikir birliği yoktur: yapılması gereken katı düzenlemeler mi, ortak düzenleyici modeller mi, sertifikalar ve güvenceler mi, endüstri standartları mı yoksa bunların bir kombinasyonu mu olmalıdır?
Biz bu makalede, hesap verebilir, sorumlu ve güvenilir yapay zekayı mümkün kılmak için yapay zeka politika oluşturma ve düzenlemesine rehberlik edecek on öneri sunacağız. Bu on öneri, yapay zeka düzenlemesine yönelik üç katmanlı yaklaşımımızı özetlemektedir:
- ilke ve sonuç temelli kurallar,
- kanıtlanabilir kurumsal hesap verebilirlik,
- sağlam ve akıllı düzenleyici gözetim.
Böyle bir yaklaşım, mevcut teknoloji geliştiğinde bile yapay zekanın etik gelişimine ve dağıtımına rehberlik edebilecek temel ilkelere dayanan geleceğe dönük kurallar sağlar. Bu yaklaşımı aşağıda açıklıyoruz.
1. İlke ve Sonuç Temelli Kurallar
1. Elde edilecek sonuçların nasıl elde edileceğine ilişkin ayrıntıları belirtmek yerine, elde edilecek sonuçları tanımlayan esnek ve uyarlanabilir bir çerçeve oluşturun.
Teknoloji geliştikçe ve yaygınlaştıkça yapay zeka düzenlemeleri güncel kalabilmelidir. Bu, yapılan düzenlemelerin etkili olabilmesi için gereklidir. Tüm kurallar teknolojiden bağımsız olmalıdır: aşırı kuralcı ve tekil teknolojilere veya mevcut iş modellerine özgü bir çerçeve çizilmesi, yapılan düzenlemelerin hızla demode olma ve faydalı yenilikleri engellemesi riskini taşır.
Kurallar da ilke ve sonuç temelli olmalıdır. Kuruluşların, bu sonuçlara nasıl ulaşılacağını dikte etmeden, kendi özel bağlamlarına uygun, risk temelli, doğrulanabilir iç politikalar, prosedürler ve kontroller aracılığıyla gerekli sonuçları (örneğin: adil, önyargısız, şeffaf, doğru, güvenli) sağlamalarına olanak tanımalıdır. Böyle bir yaklaşım, geliştiricilere, temel ilkeler ve sonuçlarla tutarlılığı korurken, fiili kontroller, teknik araçlar ve koruma önlemlerinde yenilik yapma yeteneği de dahil olmak üzere yenilik yapma esnekliği sağlar.
Aynı zamanda, kurallar uygulama kapsamları konusunda mümkün olduğunca kesinlik sağlamalıdır. Örneğin, yapay zeka için düzenleyici bir çerçeve, paydaşların hangi sistemlerin kurallar kapsamında olduğunu açıkça anlayabilmeleri için yapay zekayı tanımlamalıdır. Kurallar net ve sonuca odaklı değilse, belirsizlik ve aşırı kuralcılık, özellikle yapay zeka inovasyonu ve yatırımının güçlü motorları olan küçük ve orta ölçekli işletmeler (KOBİ'ler) ve start-up'lar için yatırım ve inovasyonu engelleme riski taşıyacaktır.
2. Riskleri ve faydaları bütünsel olarak değerlendiren risk temelli bir yaklaşım benimseyin.
Yapay zekaya yönelik herhangi bir düzenleyici yaklaşım, temel insan haklarını korumaya ve bireyler ve toplum için riskleri en aza indirmeye çalışırken, yapay zekanın her ikisine de faydalı olacak şekilde geliştirilmesini ve kullanılmasını sağlamalıdır. Elbette, etkili yapay zeka teknolojilerini kullanmamanın bireyler ve toplum için riskler doğurabileceğini de unutmamak gerekir. Örneğin, hastalıkları tahmin edip önleyebilen veya siber güvenlik tehditlerini azaltabilen yapay zeka teknolojileri kullanılmazsa, bu tür riskler büyüyebilir. Bu konuda kapsamlı ve risk temelli bir yaklaşıma sahip olmak, yapay zeka sistemlerinin riskleri ve faydaları ile orantılı olarak pratik koruyucu önlemler almayı kolaylaştırır.
Risk temelli bir yaklaşım, yapay zekanın bireyler, organizasyonlar ve toplum için potansiyel faydalarını da değerlendirmelidir. Bu faydalar, yapay zekanın kullanılması veya kullanılmaması durumunda ortaya çıkabilecek risklerle karşılaştırılabilir. Örneğin, otonom araçların riskleri, bu araçların kullanıldığı farklı çevre koşullarına bağlıdır. Maden ve tarım alanlarında otonom araçların kullanımı, kentsel veya yerleşim alanlarına göre insanlara daha düşük zarar riski taşıyabilir. Aynı zamanda, bu alanlarda otonom araçlar iş gücünü hafifletme, sürdürülebilir tarımı destekleme ve verimliliği artırma gibi farklı faydalar sunar.
Kısacası, belirli bir yapay zeka teknolojisinin kullanımına yönelik kapsamlı risk değerlendirmelerinin sonuçları, kullanım durumlarına göre önemli ölçüde değişebilir. Politika oluşturma perspektifinden bakıldığında, yapay zeka uygulama alanının bağlamı önemlidir. Bu açıdan önceden yüksek veya düşük riskli kullanımları kesin olarak belirlemek zor olabilir. Risk temelli bir yaklaşım, otomatik olarak yüksek riskli kabul edilen yapay zeka sistemlerini tanımlayan kategorik bir yaklaşıma tercih edilir.
3. Mevcut sert ve yumuşak hukuk temelleri üzerine inşa edin.
Esnek ve uyarlanabilir bir yapay zeka rejimi, mevcut yasal çerçeveler üzerine inşa edilmelidir. Yasal çerçeve, ‘sert hukuk’ (yönetmelikler ve mevzuat) ve ‘yumuşak hukuk’ (örneğin, OECD Yapay Zeka İlkeleri) olarak iki kısımda ele alınabilir. Yapay zekanın uygulama bulduğu birçok sektör (örneğin, sağlık, finans) halihazırda yüksek derecede düzenlenmiştir. Mevcut yasalar ve yönetmelikler, yapay zekanın kullanımına dair de çerçeveler sunar. Ancak, ilgili mevcut yasalar ve yönetmelikler de yapay zekanın gerçekliklerine göre yeniden yorumlanmalı ve uyarlanmalıdır. Yapay zeka ile ilgili risklere yönelik düzenleyici boşluklar olduğunda, bu boşluklar, mevcut düzenlemelerin uygulanmadığı sektörlere öncelik verilerek, hedeflenmiş düzenleyici ve birlikte düzenleyici müdahalelerle kapatılmalıdır.
Mevcut sert hukuk çerçevelerinden istifade etmek, yasal belirsizlikler ve tutarsızlıklar oluşturma riskini azaltır. Ayrımcılık karşıtı, tüketici koruma, fikri mülkiyet, veri koruma ve gizlilik konusundaki mevcut kurallar, yapay zeka ile ilişkili en önemli risklerin çoğunu ele almak için önemlidir. Düzenleyici kurumlar, mevcut çerçevelerin alakalı olduğu durumlarda yapay zekaya nasıl uygulanacağına dair rehberlik sağlayarak uyumu teşvik edebilir. Düzenleyiciler, çeşitli paydaşlarla istişare ederek bu rehberliğin en yararlı olacağı durumları belirleyebilirler. Bunun yanında, mevcut kuralların yapay zeka teknolojisindeki gelişmelere uyum sağlamak için bazı uyarlamalar ve gelişmiş düzenlemeler gerektirebileceğini kabul etmek de önemlidir.
Yapay zeka modelinin önyargılı veya ayrımcı sonuçlara yol açmayacak şekilde eğitilmesini ve çalışmasını sağlamak için sağlık, cinsiyet ve etnik köken gibi hassas kişisel verilerin kullanılması gerekiyor olabilir. Ancak mevcut veri koruma yasalarında, hassas kişisel veri kategorilerinin kullanılmasını sağlayacak yeterli yasal dayanak bulunmayabilir. Eğer belirli geleneksel veri koruma ilkeleri çok katı bir şekilde yorumlanırsa, faydalı yapay zeka uygulamalarının geliştirilmesi ve uygulanmasını engelleyebilir veya çeşitli verilere erişimin kısıtlanmasından dolayı istenmeyen önyargılar gibi sonuçlar doğurabilir. Düzenleyiciler, yapay zeka geliştiricileri ve uygulayıcıları ile istişare ederek mevcut veri koruma ilkelerinin yorumunu geliştirebilmek için düzenleyici rehberlik sağlayabilmelidir.
Son olarak, mevcut kurallar, paydaşlarla işbirliği içinde geliştirilen yumuşak hukuk çerçeveleri, endüstri standartları ve birlikte düzenleyici araçlarla desteklenmelidir. Uluslararası standartlar, çok paydaşlı geliştirme süreçleri yoluyla varılan ortak anlayışları ve değerleri yansıtan yapay zeka geliştirme ve uygulama için temel gereksinimleri belirlemeye yardımcı olabilir.
4. Bireyleri şeffaflık, açıklanabilirlik ve telafi mekanizmaları aracılığıyla güçlendirin.
Yapay zekanın güvenilir ve herkes için faydalı olabilmesi için, düzenlemeler, mevzuatlar ve endüstri uygulamaları bireyleri güçlendirmelidir:
- Şeffaflık: Yapay zeka geliştiricileri ve uygulayıcıları, yapay zeka sistemlerinin girdileri ve işleyişi hakkında, gizlilik ve veri koruma, güvenlik, emniyet ve ticari sırları koruyarak, uygun bağlamda ve anlamlı bir şekilde şeffaflık sağlamalıdır.
- Açıklanabilirlik: Açıklanabilirlik, şeffaflığın bir yönü olup hesap verebilirlik ve güveni artırmanın bir yoludur. Bu, yapay zeka geliştiricilerinin ve uygulayıcılarının, yapay zeka sistemlerinin bireyleri etkileyen kararlar ve sonuçlar üzerindeki etkilerini anlamlı bir şekilde açıklamalarını gerektirir. Bunun yanında, bazı durumlarda açıklanabilirlik konusunda teknik kısıtlamalar da olabilir. Açıklanabilirlik ile güvenlik ve açıklanabilirlik ile doğruluk arasında denge sağlanması gibi durumlarda yapay zeka geliştiricileri belli konularda ödün vermek durumunda kalabilir. Bu durumlarda da geliştiriciler şeffaflık adına belgeleme yapmalıdır. Örneğin, doğruluğun açıklanabilirliğe tercih edildiği bir durumda, nasıl ve neden açıklanabilirlikten taviz verildiğini göstermek için ilgili tercihleri belgelemeleri gerekir.
- Kullanıcı Geri Bildirimi ve Telafi: Bireyler, yapay zeka tarafından yapılan bir kararı anlamadıklarında veya yapay zeka tarafından zarar gördüklerine inandıklarında, kullanıcı geri bildirimleri, soruşturmalar, şikayetler, daha fazla şeffaflık, kararı itiraz etme hakkı, insan gözden geçirmesi gerekliliği ve sonuç olarak düzeltme, ayrıca gerektiğinde ve uygun olduğunda yürütme yetkililerinin müdahalesi gibi açık seçenekler olmalıdır.
2. Gösterilebilir Kurumsal Sorumluluk
5. Gösterilebilir kurumsal sorumluluğu yapay zeka düzenlemelerinin merkezi bir unsuru haline getirin.
Düzenlemeler, kuruluşların tüm yasal gereklilikleri ve standartları yerine getirebilmeleri için gerekli olan hesap verebilirlik çerçeveleri ve yönetim programlarını kullanmalarını kolaylaştırmalıdır. Bu, hesap verebilirliği sağlamak amacıyla yapılır. Geleneksel kurumsal uyum ve iş etiği alanlarında olduğu gibi—ve günümüzde veri, güvenlik ve dijital alanlarda olduğu gibi—hesap verebilirlik, yapay zeka yaşam döngüsünün tüm aşamalarına dahil edilmeli ve uygulanmalıdır.
Kuruluşlar, hesap verebilirliklerini içeriye (üst yönetim ve kurumsal yönetim kurullarına) ve dışarıya (hissedarlar, yatırımcılar, düzenleyiciler ve genel kamuoyuna) dönük olarak gösterebilmelidir. Sertifikalar, denetimler, davranış kuralları ve değerlendirmeler, hesap verebilirliği göstermede yardımcı araçlardır. Gerçekten de, bu hesap verebilirlik mekanizmaları, yapay zeka geliştiricileri ve kullanıcıları da dahil olmak üzere, dijital politika ve düzenlemelerde temel öneme sahiptir.
Bir yapay zeka düzenlemesi, açıkça gösterilebilir hesap verebilirliği temel bir unsuru olarak içermeli ve aynı zamanda sertifikasyon şemaları ve davranış kuralları gibi hesap verebilirliği kolaylaştıran ve gösteren ortak düzenleyici çerçevelerin geliştirilmesini ve kullanımını sağlamalıdır.
6. Yapay zeka yönetiminde hesap verebilirlik uygulamalarının benimsenmesini teşvik edin.
Yasa yapıcılar ve düzenleyiciler, yapay zeka geliştiren ve kullanan kuruluşlar için temel hesap verebilirlik uygulamalarını zorunlu tutmalı, ayrıca hesap verebilirlik uygulamalarının benimsenmesini teşvik etmelidir. Paydaşlarla birlikte, yapay zeka hesap verebilirliğini oluşturma ve gösterme araçları geliştirilmelidir. Bu, kuruluşların iyi geliştirilmiş hesap verebilirlik çerçevelerini benimsemelerini, veri uygulamalarında güveni artırıcı bir unsur olarak görmelerini sağlamayı amaçlamaktadır.
Teşvikler şunları içerebilir:
- Hesap verebilir kuruluşlara yapay zeka modellerini geliştirme ve kullanma konusunda daha fazla özgürlük tanımak.
- Sosyal faydalı araştırmalar için yapay zeka projelerinde daha geniş veri kullanımına izin vermek.
- Yapay zeka sistemleri satın alan tarafların, sorumlu yapay zeka standartlarına göre sertifikalandırılmış sistemleri temin etmelerini sağlamak.
- Kamu alım projeleri için hesap verebilir yapay zeka sertifikası almayı teşvik etmek.
7. Zarara en yakın taraf odaklı olarak sorumluluğu dikkatle paylaştırın.
Yapay zeka ekosisteminde tüm aktörlerin hesap verebilirlik mekanizmalarını benimsemesi, daha iyi uyum ve sonuçlar sağlar. Ancak, sorumluluk konularında tartışmalar devam etmektedir. Prensip olarak, sorumluluk zarara en yakın tarafa verilmelidir, ancak bu uygulamada karmaşıktır. Sorumluluk, geliştiriciye, dağıtıcıya, son kullanıcılara veya bunların kombinasyonuna verilebilir.
Örneğin, bir geliştirici, ürününün yüksek riskli bir kullanımını sözleşme ile yasakladığında, kötüye kullanma riski, bu sözleşme şartlarını kasıtlı olarak ihlal eden kullanıcıya kaydırılmalıdır. Üçüncü tarafların yapay zeka modelleri veya yapay zeka destekli çözümler sağladığı senaryolarda, model geliştiricileri ve dağıtıcıları arasındaki hesap verebilirlik sözleşmelerde belirtilmelidir.
3. Akıllı Düzenleyici Gözetim
8. Regülatörler arası koordinasyon ve işbirliği mekanizmaları oluşturun.
Yapay zeka farklı sektörlerde kullanıldığından, farklı düzenleyici otoriteler arasında işbirliği gereklidir. Yeni bir yapay zeka regülatörü oluşturmak yerine, mevcut regülatörlerin yapay zeka denetimine hazırlıklı olması sağlanmalı ve yüksek düzeyde politika koordinasyonu ve iş birliği teşvik edilmelidir. Merkezi bir hükümet koordinasyon organı, tüm sektörlerde geçerli yapay zeka politikaları belirleyip, düzenleyiciler arasında uyumu ve ortak eylemi kolaylaştırmalıdır. Bu yaklaşım, tutarlı düzenleyici uygulamalar geliştirir ve yeni yasaların mevcut olanlarla uyumlu hale getirilmesine yardımcı olur.
Bu yaklaşım hem kuruluşlar hem de düzenleyiciler için faydalı olacaktır. düzenleyici yaklaşımların yanı sıra bütüncül ve disiplinler arası politika ve rehberlik uzmanlaşmış düzenleyiciler ve endüstri tarafından zaman içinde uygulanması ve izlenmesi. Böyle bir yaklaşım aynı zamanda yeni yasa ve yönetmeliklerin mevcut yasa ve yönetmeliklerle uyumlu hale getirilmesine yardımcı olabilir.
9. İş birliğine dayalı düzenleyici denetim oluşturun ve düzenleyici yeniliği sağlayın
Teknoloji gelişmeye devam ettikçe, düzenleyicilerin, düzenleyici tekniklerin ve araçların da gelişmesi gerekmektedir.
- Yetkinlik ve Kapasite Geliştirme: Regülatörler, yapay zekayı topluma ve ekonomiye faydalı şekilde kullanırken, bireylerin haklarını korumak için yetkinliklerini ve kapasitelerini artırmalıdır.
- Risk Tabanlı Yaklaşım: En yüksek riskleri oluşturan alanlara odaklanarak stratejik ve etkili düzenleme yapılmalıdır.
- İş Birliğine Dayalı Denetim: Regülatörler ve düzenlenen varlıklar arasında sürekli işbirliği ve bilgi paylaşımı gereklidir.
- Yenilikçi Düzenleyici Araçlar: Sandbox'lar ve politika prototipleme gibi araçlar kullanılmalıdır. Bu araçlar, yeni teknolojilerin yasal uyumluluğunu test etmek ve sorumlu yeniliği teşvik etmek için güvenli alanlar sağlar.
- Regülasyon sandbox'ları, yenilikçi ürün ve hizmetlerin yasalara uygunluğunu gerçek dünya ortamlarında test etmek için önemli mekanizmalardır. Bu sandbox'lar, regülatör denetimi altında yasal keşif ve deneyim sağlar. Özellikle mevcut yasal gerekliliklerle çelişen veya uyumsuz görünen yeni teknolojilerin uygulanmasında karşılaşılan zorlukları ele alıp çözmeye yardımcı olabilirler
- Politika prototipleme, yasaların yürürlüğe girmeden önce farklı yönetim modellerini keşfetmek ve geliştirmek için kamu ve özel sektör aktörlerini bir araya getiren pilot projelerdir. Erken aşama teknoloji şirketleri, hükümet, sanayi ve akademik uzmanlarla işbirliği içinde bu politika prototiplerini geliştirir ve uygular.
Bu yaklaşımlar, tutarlı düzenleyici uygulamalar geliştirir ve yeni yasaların mevcut olanlarla uyumlu hale getirilmesine yardımcı olur.
10. Küresel Uyumluluğu Sağlamak
Yapay zeka teknolojisinin küresel doğası – verilerin eğitimi, araştırma ve geliştirme, bilişim altyapısı ve sınırları aşan uygulamalar – nedeniyle, hiçbir hükümet yapay zeka politikasını ve düzenlemesini tek başına tatmin edici bir şekilde ele alamaz. Uluslararası iş birliği, güvenilir ve hesap verebilir yapay zekanın faydalarından yararlanmayı ve yeni risklerin sürekli değerlendirilip azaltılmasını sağlar. Bu amaçla, hükümetler ve diğer paydaşların yapay zeka politikası konusunda işbirliği yapmasını sağlayacak özel bir uluslararası forum gereklidir.
Ayrıca, uluslararası işbirliği yapay zeka politikaları ve düzenlemelerinin uyumlu hale getirilmesini teşvik etmelidir. Küresel uyumluluk, sınır ötesi hizmetlerin sorumlu bir şekilde sunulmasını, erişimin genişletilmesini, uyum maliyetlerinin azaltılmasını, yasal kesinliğin artırılmasını ve bireylerin hak ve çıkarlarının tutarlı bir şekilde korunmasını sağlar. Farklı yargı bölgeleri kendi öncelikleri, yasal gelenekleri ve mevcut düzenlemeleri ile birlikte, yapay zeka politikası ve düzenlemesi konusunda ortak ilke ve yaklaşımlar etrafında birleşebilirler. Bu uyumluluğu, tanıma ve sertifikasyon mekanizmaları aracılığıyla kodlamaya yönelik adımlar atabilirler; örneğin, veri koruma ve güvenilir sınır ötesi veri akışları bağlamında Küresel Sınır Ötesi Gizlilik Kuralları (CBPR) sistemine katılım gibi. Yapay zeka uyumluluğuna yönelik uluslararası teşvik edici çabalar arasında G7 girişimi, OECD yapay zeka İlkeleri, Dijital Ekonomi Ortaklık Anlaşması (DEPA) ve Küresel yapay zeka Ortaklığı gibi girişimler bulunmaktadır.
Biyografi
Burak Haylamaz, kişisel verilerin korunması ve platform regülasyonları alanlarında uzmanlaşmış, Kaliforniya eyaleti barosuna kayıtlı bir avukattır. Avrupa hukuku üzerine eğitimini tamamladıktan sonra, Stanford Üniversitesi'nde yüksek lisansını unutulma hakkı üzerine yazdığı tezle tamamlamıştır. Halihazırda, Amerikan bir hukuk firmasında çalışmaktadır. Ayrıca, Tech Policy Press ve Verfassungblog gibi bloglarda Türkiye'deki platform regülasyonlarıyla ilgili gelişmeleri yazmaktadır.