Teknoloji ve Etik: Yapay Zekâ Çağında Sorunlar ve Denge Stratejileri
Dr. Zeynep Orhan
Yapay zekâ deyince akla çok geniş bir dünya geliyor. Arama motorlarına yapay zekâ yazınca karşımıza gelen görseller ve haberler oldukça ilginç. Aslında bu konuda çok fazla bilgi kirliliği ve kafa karışıklığı da mevcut. Yapay zekâ kelimelerini duyunca hepimizin zihninde uçuşan çok farklı tanımlar olsa da ortak paydalarda insansı robotları; pek çok işi süper hızlı ve hatasız yapan makinaları; dijital semboller, resimler, videolar, sosyal medya vs. üzerinde çalışan, işleyen ve hayranlıkla beraber korku uyandıran cihazları saysak çok yanlış bir varsayım yapmış olmayız.
Her gün birbiri ardınca ve baş döndürücü bir hızla piyasaya sürülen yapay zekâ destekli ürünler her ne kadar geniş kitleleri büyülese de bir taraftan da Hollywood filmlerinin ve medyanın etkisiyle içimizdeki korkuları ve acabaları da tetiklemeye devam ediyor. Akıllı telefon asistanlarından, paket teslim eden otonom dronlara ve iklim değişikliğine çare olabilecek araçlara, tabiatı korumadan tarım ve hayvancılıkta daha verimli ürünler elde etmeye, sinema ve film endüstrisinde inanılmaz hızlı ve güzel içerik üretmeden sosyal medyayı daha etkin kullanmaya, sağlık alanında hızlı ve kaliteli hizmet sunmadan engellilerin hayatını kolaylaştırmaya, kriz yönetimi ve doğal afet gibi durumlarda kaynakların etkin kullanılmasından suçluların takip ve yakalanmasına kadar pek çok alanda yapay zekâ, günlük yaşamımızın giderek daha ayrılmaz bir parçası haline geliyor. Merak ve hayranlıkla dolu bu ortamda elbette ki, önemli bazı sorular da ortaya çıkıyor: Yapay zekâ hayatımızı olağanüstü güzelleştirecek sihirli bir değnek mi, yoksa insanlığı ortadan kaldıracak potansiyel bir tehlike mi? Gerçek, her zamanki gibi, mükemmel bir gelecek vizyonu ile sorunlu bir gelecek kâbusu arasında kendine yer buluyor. Hikayelerimizdeki kötü karakterlerin aksine, yapay zekânın içinde tabiatından kaynaklı bir kötülük yok. Ancak herhangi bir dönüştürücü teknoloji gibi uygulanış şekline bağlı olarak etkileri değişen, güçlü bir araçtır. Buna benzer tartışmalar insanlığın tarihi boyunca hemen her türlü yenilik konusunda da gündeme gelmiştir ve gelmeye de devam edecektir.
Yapay zekâ, sürekli olarak bilgi edinen ve kendini geliştiren, her zaman meraklı bir öğrenci olarak düşünülebilir. Bu yetenek, karmaşık operasyonları hassasiyetle gerçekleştiren yapay zekâ destekli cerrahi robotlardan, mahsul verimlerini optimize eden ve atıkları azaltan akıllı tarım sistemlerine kadar birçok fırsatı açığa çıkarabilir. Ancak her öğrenci gibi, yapay zekâ da hata yapmaya meyillidir. Yapay zekânın eğitim ve geliştirme aşamalarındaki önyargılar ve hatalar nedeniyle ayrımcı sonuçlara yol açması, hatalı ve problemli bilginin yayılması veya toplumun belirli kesimlerine zarar vermesi, otomasyon kaynaklı istihdam alanlarında yaşanan değişiklikler, belli teknoloji devlerinin veya ülkelerin süper güçler olarak dünyaya hükmetmeleri ve diğer kesimlerle aralarında mevcut olan uçurumların daha da derinleşmesi ile ilgili meşru endişeler, bu alandaki denetim, gözetim ve etik kuralların önemini çok net bir şekilde hissettirmektedir.
Bu çalışma, yapay zekânın hem heyecan verici olanaklarını nasıl kullanabileceğimizi hem de bunu yaparken karşılaşabileceğimiz zorlukları ve bunların üstesinden gelmek için neler yapılması gerektiğini ortaya koymayı amaçlamaktadır. Yapay zekânın doğasını ve potansiyelini derinlemesine inceleyerek, aslında onun yörüngesini etkileme gücü kazanmak ve böylece herkes için hizmet etmesine katkıda bulunmak mümkün olabilir. Bu alanda yapılacak her türlü faaliyet, toplumun tüm kesimlerini kapsayıcı ve kuşatıcı her türlü çalışma, yapay zekânın doğurabileceği problemleri şimdiden bertaraf etmeye mutlak katkı sağlayacak ve birlikte bu sihirli değneği etik ve sorumlu bir şekilde kullanabileceğimiz bir geleceğe doğru yol almamızı netice verecektir.
Yapay Zekâ ve Bilişimde Etik Sorunlar
Yapay zekânın dönüştürücü potansiyeli göz önüne alındığında, yetenekleriyle ilgili endişeler anlaşılabilir bir durumdur. Yapay zekâ, dünyamızın neredeyse her yönünü yeniden şekillendirme sözü verirken, içindeki riskleri kabul etmek esastır. Bu bölüm, önde gelen bilim insanları tarafından vurgulanan etik ikilemleri daha derinlemesine incelerken, bu alanda karşılaşılan sıkıntıları sorgulamayı, bunları çözmek için ortaya konması gereken aktif ve bilinçli katılım yöntemlerini ele alacaktır.
Yapay zekâ sistemleri, mevcut sosyal eşitsizlikleri katlayarak sürdürmemeye ve geleneksel iş piyasalarında meydana gelecek değişimi toplumsal dengeleri sarsmayacak şekilde olumlu bir dönüşüme çevirmeye odaklandırılmalıdır. Gelişimin insan refahını ve adil ilerlemeyi önceliklendirmesi temel ilke olarak benimsenmelidir.
Ancak yapay zekânın yaygınlaşması, toplumsal ayrılıkları şiddetlendirebilecek yanıltıcı bilgilerin ve nefret söyleminin artmasına neden olarak kamu iletişimini önemli ölçüde etkilemektedir. Örneğin, derin sahtecilik (deepfake) teknolojileri, medya ve hükümet kurumlarına olan güveni erozyona uğratabilecek şekilde ikna edici ancak tamamen yanlış videolar üretebilmektedir. Ayrıca, sosyal platformlardaki yapay zekâ algoritmaları aşırı içerikleri teşvik edebilmekte, böylece kutuplaşmayı körükleyebilmekte ve potansiyel olarak şiddeti teşvik edebilmektedir.
Yapay zekânın diğer bir sorunu, gerçeklikle bağdaşmayan çıktılar üretmesi yani halüsinasyonlarıdır. Bu hatalar, özellikle sağlık tanıları ve kendiliğinden sürüş teknolojisi gibi kritik alanlarda yaşamsal tehlikelere yol açabilmektedir.
Cathy O’Neil "Weapons of Math Destruction" adlı eserinde, sosyal eşitsizlikleri yansıtan ve derinleştiren önyargılı yapay zekâ algoritmalarının tehlikelerini tartışmaktadır. Sigorta ve kolluk kuvvetleri gibi sektörlerde kullanılan bu algoritmalar, mevcut önyargıları yansıtmaya devam etmekte ve hatta güçlendirmektedir. Örneğin, algoritmalar bir öğrencinin kredi başvurusunu ikamet ettiği alanla ilgili algılanan riskler nedeniyle reddedebilmekte, böylece ekonomik eşitsizlikleri pekiştirebilmektedir (O’Neil, 2017). Bunun temel nedeni ise bu sistemlerin kullandığı veriyi geçmişte ayrımcı kararlara neden olan verilerden almasıdır. Oysa geçmişte kullanılan veriler zaten insanların önyargılarının ürettiği zararlı verilerdir ve doğal olarak aynı hataları bu sistemlere taşımaya devam etmektedir.
Benzer şekilde, Safiya Umoja Noble "Algorithms of Oppression: How Search Engines Reinforce Racism" adlı çalışmasında, ırkçı ve cinsiyetçi kalıpları yaydığı gösterilen arama motoru algoritmalarındaki önyargıları analiz etmektedir. Noble, bu önyargıların, istihdam ve eğitimde kritik kararları etkileyerek dezavantajlı topluluklara çok fazla zarar verdiğini belirtmektedir (Noble, 2018).
Virginia Eubanks, "Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor " adlı eserinde, bu tür sistemlerin yoksul nüfus üzerindeki olumsuz etkilerini vurgulamaktadır. Eubanks, bu teknolojileri, dezavantajlı gruplara yardım etmek yerine onların durumlarını kötüleştiren yüksek teknolojili fakirhane (hi-tech poorhouse) olarak tanımlamakta ve teknoloji politikalarının daha insancıl ve kapsayıcı olması gerektiğini savunmaktadır (Eubanks, 2018).
"Coded Bias" adlı belgesel, MIT araştırmacısı Joy Buolamwini’nin, özellikle koyu tenli bireylerde daha az doğru sonuçlar veren yüz tanıma teknolojilerindeki önyargıları araştırmasını konu alan bir belgeseldir. Sistemin ögrenme verilerinde beyaz tenli erkekler çoğunlukta olduğu için kadınlar ve farklı ten renkleri göz önüne alınmamıştır. Bu kusur, belgeselde yapay zekânın eğitim verilerindeki önyargıları yansıtarak istihdam algoritmalarından sosyal medya platformlarına kadar çeşitli uygulamalarda ayrımcı sonuçlara yol açan daha geniş bir sorunun göstergesi olarak vurgulanmaktadır (Kantayya, 2020).
Buolamwini tarafından başlatılan Algorithmic Justice League gibi organizasyonlar, yapay zekâ sistemlerinde şeffaflık ve kapsayıcılığı vurgulayarak daha etik yapay zekâ geliştirme uygulamalarını teşvik eden çalışmalara öncülük etmektedir. Bu grup, yapay zekâ sistemlerindeki problemleri yakalamak için sistem denetimleri yapmakta ve sorumlu yapay zekâ kullanımını sağlamak için politika reformlarına yönelik savunuculuğu üstlenmektedir.
Ancak bu problemlerin yanında olumlu yanlardan da bahsetmede fayda bulunmaktadır. İnsanlar ve yapay zekâ arasındaki iş birliği, doğru şekilde dengelendiğinde, özellikle karar verme süreçlerinde faydalı olabilir. Araştırmalar, insan sezgisini yapay zekânın veri işleme yeteneğiyle birleştiren karma insan-yapay zekâ takımlarının, tek başına çalışanlardan daha etkili ve güvenilir olduğunu göstermektedir. Bu sinerji, sonuçları iyileştirmenin yanı sıra, insan gözetimiyle potansiyel yapay zekâ hatalarına karşı bir güvenlik önlemi sağlayarak yapay zekâ teknolojilerine olan güveni artırabilmektedir (Reverberi et al., 2022; Schemmer et al., 2023).
Yapay zekâ arama sonuçlarına güvenmek önemlidir, ancak yapay zekâ "halüsinasyonları" gibi yanılgılar kullanıcı güvenini zedeler. Yine de yapay zekâya aşırı güvenmek önemli riskler getirebilir. Örneğin, yapay zekâ destekli vergi yazılımları yanlış tavsiyeler sağladığı ve hukuki yardım sohbet robotları (chatbot) hatalı danışmanlık yaptığı için eleştirilmiştir (Fowler, 2024; Offenhartz, 2024).
Google da zaman içerisinde yapay zekâ ile ilgili sıkıntılı anlar yaşayan kurumlardan biri olmuştur. 2015 yılında Google, yeni fotoğraf uygulamasının bir siyah çifti “goriller” diye etiketlemesi nedeniyle özür dilemiştir. Amacı hayvanları fotoğraflarda işaretlemek olan uygulama, insanları da hayvanlarla karıştırıyordu. Afrika-Amerika kökenli bir kullanıcı Google Fotoğraflar albümüne baktığında kendisinin ve siyahi bir kız arkadaşının “gorillas” yani goriller olarak etiketlendiğini fark etti. Bu uygulama, yüklenen fotoğrafları, yapay zekâ kullanarak otomatik olarak etiketlemekteydi. Muhtemelen eğitim verisindeki problemler nedeniyle bu sorun ortaya çıkmıştı. Google hatanın ırkçı çağrışımları nedeniyle sosyal medyada yoğun olarak eleştirildi. Bunun üzerine Google sorunu hemen çözmeye odaklandı ancak çözüm verileri veya algoritmayı düzeltmek yerine, goril resim ve işaretlerini sistemden tamamen kaldırdı (Guardian, 2015).
Yakın zamanda yaşanan başka bir olayda da yine Google başroldeydi. Google I/O etkinliğinin ardından Google Aramalar'a eklenen AI Overviews özelliği, tuhaf ve yanlış yanıtlar üreterek yapay zekâ arama araçlarının daha fazla sorgulanır hale gelmesine neden oldu. Örneğin, bu özellik Reddit veya Onion gibi forumlardan alınan içeriğe dayanarak insanlara peynirin pizzaya yapışmasını sağlamak için tutkal kullanmalarını tavsiye etmiş, kullanıcılara Barack Obama'nın Müslüman olduğunu ve insanların böbrek taşı düşürmelerine yardımcı olmak için bol miktarda idrar içmeleri gerektiğini söylemişti. Ayrıca "baharatlı makarna" tarifi için benzin önerilmesi gibi tutarsızlıklar da bu kervana eklendi. Bu tür hatalar, Google, Microsoft ve OpenAI gibi büyük yapay zekâ sağlayıcılarının karşılaştığı gizlilik ve etik sorunlarına da dikkat çekmeye devam etmektedir (McMahon ve Kleinman, 2024).
Allan, insanların yapay zekaya ne tamamen güvenmeleri ne de tamamen kuşku duymaları gerektiğini, dengeli bir yaklaşımın önemini vurgulamaktadır (Allan ve ark., 2021). Yapay zekâ günlük yaşantımıza daha fazla entegre oldukça, tasarımcıların gelecekteki insan-yapay zekâ etkileşimlerini nasıl şekillendireceklerini düşünmeleri gerektiği açıktır (Lee ve ark., 2023). Yapay zekâ sonuçlarını iyileştirmek için yüksek kaliteli veri kullanımının ve uzman görüşlerinin önemi başka çalışmalarda da vurgulanmaktadır (Ed-Driouch ve ark., 2022). Ayrıca insan-makine iş birliğinin güven inşa ettiği ve yapay zekâ model performansını artırdığı da belirtilmektedir (Xie ve ark., 2024).
Yukarıda bahsi geçen vakalar sadece bu teknolojilerin verebileceği zararlar hakkında fikir vermesi amacıyla oluşturulan bir listedir. Yoksa ortaya çıkan veya çıkmayan daha pek çok örnek vermek de mümkündür. Zaten bu teknolojilerin sürekli iyileştirilmesi ve denetlenmesi gerektiği pek çok çalışmada da sıkça vurgulanmaktadır (McMahon ve Kleinman, 2024). Bu yüzden de yapay zekânın büyük dönüşüm potansiyeline sahip olmasına rağmen, etik sorunları ve tehlikeleri olduğu da asla göz ardı edilmemelidir. Yapay zekânın nimetlerinden faydalanırken dezavantajlarını unutmadan, adil bir teknolojik geleceğe sahip olmak için paydaşlar arasında ortak çabaların hız kesmeden devam etmesi gerekmektedir.
Sorun Tespitinden Sonraki Basamak
Yapay zekanın kendine özgü zorlukları pek çok çalışma ve olaylarla kendini bizlere daha derinden hissettirmekte ve farkındalık artmaktadır ancak diğer hayati konularda olduğu gibi burada da somut çözümler maalesef henüz emekleme aşamasına bile gelememiştir. Problemlerin tanınması ve tartışılır hale gelmesi sevindirici olsa da bu bilinci eyleme dökmek asıl zorluğu oluşturmaktadır. Bu güçlü aracı nasıl etkin ve dikkatli kullanacağımızı öğrenmenin kolay bir süreç olmayacağını söylemek de uzman olmak gerektirmemektedir. Yapay zekâ, aslında doğası gereği tehlikeli değildir; asıl risk, kullanım amacı ve şeklinde yatmaktadır. Ateş, nükleer enerji biyoteknoloji vb. gibi, yapay zekâ da doğru yönetildiğinde büyük yararlar sağlayabilir ya da kötüye kullanıldığında ciddi zararlar verebilir. Hızlı bir şekilde bilinçli eylem planlarını hayata geçirmek atılacak ilk adımlar arasındadır. Bilinçli ve öncü bireylerin toplum için olumlu değişiklikler yapacak şekilde bu alanı şekillendirmesi elzemdir. Yapay zekanın olumlu bir güç olarak kalmasını sağlamak için herkesin etkin bir şekilde katılım göstermesi ve elini taşın altına koyması şarttır. Peki neler yapılabilir? Aşağıdaki basit adımlar ve önlemlerle başlanabilir.
Yapay zekâ sistemlerinin başarı veya başarısızlıklarında geliştiriciler ve kullanılan veriler iki ana unsurdur. Geliştiricilerin eğitimi, yapay zekânın tasarımcılarının geleceği şekillendirmede alacağı tavrı belirlemede kritik bir aşamadır. Onları farklı yaşam tarzları, kültürler ve beklentiler hakkında bilgilendirerek ve çeşitli altyapılardan gelen bireylerden ekipler kurarak, yapay zekâ ürünlerinde bilerek veya bilmeyerek hatalar yapılmasının önüne geçilebilir. Tıpkı bir bahçıvanın farklı bitkilere farklı şekilde bakıp, büyütmeyi öğrenip sonuçta ahenk içinde güzel bir bahçe ortaya koyması gibi bir işlev sağlanabilir.
Geliştiricilerin dışında verilere de bakmakta fayda vardır. Yapay zekâ sistemleri, sınırlı veri setleriyle çalıştığında yalnızca hikâyenin belli bir kısmını sunar. Bilgisayar ve akıllı telefon uygulamalarımızı nasıl sürekli güncelliyorsak, yapay zekâ için de farklı bakış açılarıyla verileri sürekli güncel tutmaya çalışmalıyız ki bu ürünler de hem faydalı hem de fonksiyonel kalabilsinler. Yapay zekâ sistemlerinin işleyişini şeffaf hale getirmek ise ele alınması gereken diğer bir hassas konudur. Şu an kullanılan sistemlerin çoğu üzerinde kalın bir sis perdesi bulunmaktadır, hatta bunlardan elde edilen sonuçların neden o şekilde olduğunu izah etmek üreticileri için bile mümkün olmamaktadır. Bu sistemlere bu belirsizlikleri yüzünden kara kutu (black box) ismi bile verilmektedir. Dolayısıyla karar mekanizmalarının ve çalışma prensiplerinin açık ve şeffaf bir şekilde ortaya konması yapay zekâya karşı güven inşa edilmesini netice verebilir ve olası adaletsizliklere müdahale etmemizi kolaylaştırır.
Bu alanda tekelleşme ve gücün belli şirket veya ülkelerde toplanması da ciddi tehlikelerden biridir. Yönetim süreçlerine çeşitli grupları dahil etmek, yalnızca birkaç güçlü şirketin veya ülkenin değil, birçok farklı bakış açısını temsil eden kişi ve kurumların karar verme sürecine katılmasını sağlamak elzemdir. Bu, yapay zekânın daha adil ve kapsayıcı hale gelmesine yardımcı olacaktır.
Yaşanılan aksaklıklarda önemli bir pay da insanlık tarihinde hep var olan ve savaşların, kavgaların, huzursuzlukların kaynağı açgözlülük, kısa zamanda çok gelir elde etme, rakipleri geçme gibi düşüncelere aittir. Teknoloji şirketleri, genellikle kâr amacı güderek, ürünleri piyasaya aceleyle sürmektedir. Bu durum, maalesef ciddi ve kaçınılmaz hatalara yol açmaktadır. Ürünlerin piyasaya sürülmeden önce iyice test edilmesini, etik değerlendirmelerin yapılmasını ve tüm süreçlerin detaylı bir şekilde gözden geçirilmesini zorunlu hale getirecek sıkı kontrol ve güvenlik önlemleri alınmalıdır. Bu şekilde, aceleci ürün lansmanları yavaşlatılabilir ve yapay zekanın olumlu potansiyeli daha iyi bir şekilde değerlendirilebilir.
Sonuç olarak görev hepimize düşmektedir. Hem üreticilerin hem de tüketicilerin gerekli farkındalığa ulaşması ve sorumluluklarının bilincinde olarak teknolojiden faydalanması bizleri kıyamet senaryolarından kurtaracak ve güzel bir gelecek vaad edecektir.
Kaynaklar
- Algorithmic Justice League. "AJL". (2016). Retrieved from Website: https://www.ajl.org/
- Allan, K., Oren, N., Hutchison, J., and Martin, D. (2021). In search of a Goldilocks zone for credible AI. Scientific Reports, 11(1), 1–13. https://doi.org/10.1038/s41598-021-93109-8
- Chong, L., Zhang, G., Goucher-Lambert, K., Kotovsky, K., and Cagan, J. (2022). Human confidence in artificial intelligence and themselves: The evolution and impact of confidence on the adoption of AI advice. Computers in Human Behavior, 127, 107018.
- Ed-Driouch, C., Mars, F., Gourraud, P.-A., and Dumas, C. (2022). Addressing the Challenges and Barriers to the Integration of Machine Learning into Clinical Practice: An Innovative Method to Hybrid Human-Machine Intelligence. Sensors, 22(21), 8313.
- Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press.
- Fowler, G. A. (2024). TurboTax and H&R Block now use AI for tax advice. It's awful. Retrieved from Washington Post, https://www.washingtonpost.com/technology/2024/03/04/ai-taxes-turbotax-hrblock-chatbot/
- Gottlieb, I., and Poritz, I. (2024). Popular AI Chatbots Found to Give Error-Ridden Legal Answers. Retrieved from Bloomberg Law, https://news.bloomberglaw.com/business-and-practice/legal-errors-by-top-ai-models-alarmingly-prevalent-study-says
- Guardian, 2015, Google's solution to accidental algorithmic racism: ban gorillas https://www.theguardian.com/technology/2018/jan/12/google-racism-ban-gorilla-black-people
- Kantayya. S. (2020) Coded Bias. Retrieved from https://www.codedbias.com/
- Lee, S., Lee, M., and Lee, S. (2023). What if artificial intelligence becomes completely ambient in our daily lives? Exploring future human-AI interaction through high-fidelity illustrations. International Journal of Human-Computer Interaction, 39(7), 1371-1389.
- McMahon, L., and Kleinman, Z. (24 May 2024). Glue pizza and eat rocks: Google AI search errors go viral, Retrieved from bbc.com, https://www.bbc.com/news/articles/cd11gzejgz4o
- Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press.
- Offenhartz, J., (2024). NYC's AI Chatbot was Caught Telling Businesses to Break the Law. The city isn’t taking it down. Retrieved from AP News, https://apnews.com/article/new-york-city-chatbot-misinformation-6ebc71db5b770b9969c906a7ee4fae21
- O’Neil, C., (2017). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Penguin Books.
- Orhan, Z. 2024, Artificial Intelligence: Friend or Foe? It is Up to Us, 01 May 2024, Fountain Magazine, Issue 159 (May-June 2024), (pp. 7-13), Retrieved from, https://fountainmagazine.com/all-issues/2024/issue-159-may-jun-2024/artificial-intelligence-friend-or-foe-it-is-up-to-us
- Reverberi, C., Rigon, T., Solari, A., Hassan, C., Cherubini, P., and Cherubini, A. (2022). Experimental evidence of effective human-AI collaboration in medical decision-making. Scientific Reports, 12(1), 14952.
- Schemmer, M., Kuehl, N., Benz, C., Bartos, A., and Satzger, G. (2023, March). Appropriate reliance on AI advice: Conceptualization and the effect of explanations. In Proceedings of the 28th International Conference on Intelligent User Interfaces (pp. 410-422).
- Sonko, S., Adewusi, A. O., Obi, O. C., Onwusinkwue, S., and Atadoga, A. (2024). A critical review towards artificial general intelligence: Challenges, ethical considerations, and the path forward. World Journal of Advanced Research and Reviews, 21(3), 1262-1268.
- Trabelsi, M. A. (2024). The impact of artificial intelligence on economic development. Journal of Electronic Business and Digital Economics.
- Xie, J., Wang, Z., Yu, Z., Ding, Y., and Guo, B. (2024). Prototype Learning for Medical Time Series Classification via Human–Machine Collaboration. Sensors, 24(8), 265
Biyografi
Dr. Zeynep Orhan, lisans ve lisansüstü eğitimini Bilkent Üniversitesi ve İstanbul Üniversitesi Bilgisayar Mühendisliği Bölümler- inde tamamlamıştır. Ana araştırma alanları makine öğrenimi, doğal dil işleme ve veri analizidir. 28 yılı aşkın eğitim hayatında Bilkent Üniversitesi, Fatih Üniversitesi ve İstanbul Üniversitesi Bilgisayar Mühendisliği, Bosna Hersek International Burch University Information Technologies, Union College Computer Science ve University of North Texas Advanced Data Analytics Bölümlerinde çalışmıştır. Dijital ortamda üretilen metin ve geleneksel olmayan verilerin analizini gerçekleştiren, kullanıcı dostu, pratik ve zaman kazandıran çözümler sunan uygulamalar geliştirmektedir. Araştırma gündeminde duygu analizi ve fikir madenciliği sistemleri, sağlık (tanı, takip, tedavi) uygulamaları, e-öğrenim araçları, e-devlet hizmetleri ve ilgili akıllı strateji sistemleri bulunmaktadır.