Veriye Dayalı Bir Gelecek: Bilginin Yapay Zeka Üzerindeki Etkisini Keşfetmek

From HizmetWiki Türkçe (Açık)
Jump to navigation Jump to search

Hasan Yıldız

Giriş

Teknolojinin hakim olduğu bir çağda Yapay Zeka (AI), kişisel iletişimden profesyonel otomasyona kadar hayatımızın neredeyse her alanında dönüştürücü bir güç olarak ortaya çıktı. Ancak yapay zekayı yönlendiren karmaşık algoritmaların altında bir olgu yatıyor: Veri (data). Bu makale, verinin yapay zekayı güçlendirmedeki kritik rolünü araştırmakta, mevcut teknolojiler üzerindeki etkisini ve dijitalleşen dünyadaki sorumluluklarımızı incelemektedir. Moravec Paradoksu olarak bilinen yapay zekanın ilgi çekici bir yönü, biz insanların karmaşık bulduğu görevlerin makineler için basit olabileceğini ve bizim için sıradan olan görevlerin makineler için şaşırtıcı derecede zorlayıcı olabileceğini göstermektedir. Bu paradoks, yapay zekanın bilgiyi insanlardan farklı bir şekilde işlemesinin benzersiz yollarını vurgulamakta ve bu sistemleri eğitmek için çeşitli ve kapsamlı verilerin neden çok önemli olduğunu vurgulamaktadır. Bu ilişkiyi anlayarak, sadece yapay zekanın nasıl işlediğini değil, aynı zamanda toplumun geneline fayda sağlamak için ilerlemesini nasıl yönlendirebileceğimizi de kavrayabiliriz.

Yapay Zekanın Kısa Tarihi

Yapay Zekanın kökleri, insan zekasını taklit eden makine fikrinin bilim kurgudan bilimsel bir çabaya dönüştüğü 20. yüzyılın ortalarına kadar uzanmaktadır. 1950 yılında İngiliz matematikçi Alan Turing, Turing Testi’ni ortaya atarak bir makinenin bir insandan ayırt edilemeyecek kadar zeki davranışlar sergileyebilmesi için bir ölçüt önermiş ve bu ölçüt yapay zeka felsefesinin temel taşlarından biri olmaya devam etmiştir.

1950’lerde, yapay zekanın potansiyeli hakkında oluşan ilk heyecan dalgası bu alana önemli yatırımların yapılmasına yol açtı. Ancak bu heyecan, öncelikle yeterli veri ve hesaplama gücü eksikliğiyle ilgili önemli zorluklar nedeniyle kısa sürede gerçeklikle yüzleşti ve “Yapay Zeka Kışı” olarak bilinen dönemi getirdi.

1980’lerde sistemleri birtakım kurallarla programlamak yerine insan beyninden esinlenen sinir ağları gibi modeller kullanma fikri ön plana çıktı. Bu sayede bu sinir ağlarının veriler üzerinden eğitilmesi bu dönemde yapay zeka alanında yeni bir canlanma sağladı. Ancak 1990’ların sonunda ve 2000’lerin başında internetin devasa büyümesi ve özellikle grafik işlemciler (GPU’lar) aracılığıyla hesaplama gücünde gelişmeler yaşanmış olsa da bunlar yapay zekayı geliştirme amacıyla kullanılabileceği fikri henüz oluşmamıştı.

2010’larda, yapay zeka modellerinin eğitimi ve değerlendirilmesi için bir ölçüt haline gelen büyük bir etiketlenmiş görsel veri seti olan ImageNet tarafından büyük ölçüde kolaylaştırılan derin öğrenme tekniklerinin tanıtılması ile yapay zeka için önemli bir an gelmiş oldu. Bu dönem, yapay zeka yeteneklerinde önemli bir sıçramaya işaret ederek ses tanıma, otonom araçlar ve daha birçok alanda modern yapay zeka uygulamalarının başlangıcı oldu.

Yapay zekadaki en son önemli ilerleme, daha karmaşık veri işleme modellerini mümkün kılarak yapay zekada devrim oluşturan ‘Transformer’ modellerinin geliştirilmesi olmuştur. Bu modeller, tutarlı ve bağlamsal olarak alakalı metinler oluşturmak için büyük miktarda metin verisinden yararlanan modern büyük dil modellerinin (LLM’ler) temelini oluşturmaktadır. Transformer tabanlı mimarilere bu geçiş, yapay zeka inovasyonunu yönlendirmede hem veri miktarının hem de kalitesinin önemini daha da arttırmaktadır.

Yapay Zekanın Mevcut Durumu: Büyük Dil Modelleri (LLM’ler)

Günümüzün yapay zeka dünyasına çeşitli alanlardaki etkileyici gelişmeler hakimdir, ancak belki de hiçbiri Büyük Dil Modellerinin (LLM’ler) geliştirilmesinden daha etkili değildir. OpenAI tarafından geliştirilen GPT-3 (Generative Pre-trained Transformer) gibi bu sofistike modeller, makinelerin metinleri insanlar gibi anlamasında ve üretmesinde önemli bir sıçramayı temsil ediyor.

GPT-3, 175 milyar parametre veya nöron ile 2020 yılında şimdiye kadar oluşturulmuş en büyük modellerden biriydi. OpenAI, böyle bir modeli eğitmek için kitaplardan (67 milyar sembol), web sitelerinden (410 milyar sembol), Wikipedia’dan (3 milyar sembol) ve Reddit (19 milyar sembol) gibi diğer metin kaynaklarından elde edilen ve toplamda yaklaşık 500 milyar sembol içeren yüzlerce gigabaytlık metin verisinden oluşan bir veri seti kullandı. Burada sayılan ‘sembol’lerin kelimelere olan karşılığı değişebilir, ancak yaklaşık 1,5 sembolün bir kelimeye eşdeğer olduğu söylenebilir. Bu devasa veri seti, GPT-3’ün daha önce daha basit yapay zeka sistemlerinin erişemeyeceği ince dil nüanslarını yakalamasına olanak tanır.

LLM’ler eğitim sürecinde çok fazla veri kullanılır. Bu modeller sadece veri hacmine değil, aynı zamanda veri setinde bulunan bilgilerin çeşitliliğine ve kalitesine de bağlıdır. Bu çeşitlilik, önyargıları azaltmak ve çıktılarının farklı senaryolar ve doğal diller arasında güvenilirliğini ve uygulanabilirliğini artırmak için çok önemlidir.

LLM’lerin etkileri günümüzde çok görünür durumdadır. LLM’ler yalnızca sohbet robotlarını ve sanal asistanları geliştirerek sektörleri dönüştürmekle kalmayıp aynı zamanda çeviri, içerik oluşturma ve hatta programlama benzeri daha karmaşık görevleri otomatikleştirme gibi alanlarda yapay zekanın başarabileceklerinin sınırlarını zorlamaktadır. Bu modeller gelişmeye devam ettikçe, giderek daha sofistike hale gelen algoritmaları eğitmek için büyük, çeşitli veri setlerine olan ihtiyacın altını çizmektedirler.

Görsel Yapay Zeka

Büyük Dil Modellerinde gördüğümüz gibi, yapay zekanın metin işleme ve üretme kapasitesi dijital etkileşimlerimizin birçok yönünü önemli ölçüde yeniden şekillendirdi. Ancak, yapay zekanın gücü metinsel verilerin çok ötesine uzanmaktadır. Yapay zekanın önemli adımlar attığı bir diğer önemli alan da görsel bilgilerin yorumlanması ve bunlarla etkileşime girilmesidir. Bu da bizi Evrişimsel Sinir Ağları (CNN’ler) gibi yeniliklerin öncülük ettiği Görsel Yapay Zeka Modellerine getirir. CNN’ler, bilgisayarların fotoğraflar, videolar ve diğer görsel medyadaki içeriği görmesini ve anlamasını sağlayan temel bir teknoloji olmuştur. 1980’lerin sonunda ve 1990’ların başında rakam tanıma için kullanan diğer algoritmaları Yann LeCun, CNN’leri kullanarak önemli ölçüde geliştirmiştir.

Görsel yapay zeka, tıpkı insan görüşü gibi etrafımızdaki dünyayı görebilen ve yorumlayabilen teknolojileri içerir. Bu modeller, çevrelerini anlamak ve onlarla etkileşime geçmek için başta görüntüler ve videolar olmak üzere farklı türde veriler kullanır. Görsel verilerin kritik içgörüler sağladığı sağlık, otomotiv, güvenlik ve eğlence gibi sektörleri etkileyen bu tür yeteneklerin etkileri oldukça baskındır.

Yapay Zekada Çoklu Modellemenin Gücü

Yapay zekanın potansiyeli tek bir veri türünü işlemekle sınırlı değildir. Metin, görüntü, ses ve duyusal geri bildirim gibi çeşitli veri kaynaklarından gelen girdileri entegre eden çok yönlü yapay zeka sistemleri, insana daha çok benzeyen yorumlama ve dünya ile etkileşime doğru bir sıçramayı temsil etmektedir. Bu sistemler, yapay zekanın robotik ve otonom sürüş gibi karmaşık ortamları anlaması ve bu ortamlarda hareket etmesi gereken uygulamalarda çok önemlidir.

Çoklu yapay zeka modelleri, robotik alanında bu robotların dinamik ortamlarda etkili bir şekilde çalışmasını sağlar. Örneğin, hastanelerdeki veya depolardaki hizmet robotlarının sözlü talimatları yorumlaması, nesneleri tanıması, engellerin etrafında dolaşması ve bazen nesneleri tutması gerekir. Bu da işitsel, görsel ve dokunsal verilerin entegrasyonunu gerektirir. Benzer şekilde, otonom araçlar kameralardan gelen görsel verileri radar ve lidar verileriyle, trafik işaretlerinden gelen metinsel bilgilerle ve çevreden gelen işitsel sinyallerle birleştirir. Bu kapsamlı duyusal entegrasyon, bu gibi yüksek riskli uygulamalarda gerekli olan güvenli navigasyon ve karar verme süreçleri için gereklidir.

Yapay zeka sistemleri, birden fazla veri türünü aynı anda işleyerek karmaşık durumları daha doğru bir şekilde anlayabilir. Bir kalabalığı hem görebilen hem de duyabilen bir yapay zeka sistemi düşünün; bu sistem bir ortamdaki atmosferi yalnızca görsel verilere dayanan bir sistemden daha iyi değerlendirebilir. Bu çok yönlü algılama, güvenlik ve bağlamsal algının önemli olduğu senaryolarda hayati önem taşır.

Mevcut çok yönlü girdilere dayanarak gelecek senaryolarını tahmin etmek, yapay zekadaki en büyük zorluklardan ve ilerlemelerden birini temsil etmektedir. Sürücüsüz otomobiller gibi otonom sistemler sadece topladıkları verileri yorumlamakla kalmamalı, aynı zamanda daha sonra ne olacağına dair bilinçli tahminlerde de bulunmalıdır. Bu yetenek, öngörülemeyen ortamlarda gezinmek ve stratejileri gerçek zamanlı ayarlamak için çok önemlidir.

Dijitalleşmede Veri ve Bireysel Yükümlülüklerin Kritik Rolü

Metin tabanlı Büyük Dil Modellerinden dünyayı insanlar gibi algılayan ve etkileşime giren çok modelli sistemlere kadar yapay zekanın geniş yönlerini keşfettikçe, değişmeyen bir şey kaldı: Verilerin merkezi rolü. Veriler tüm yapay zeka sistemlerinin can damarıdır ve sadece bir kaynak olarak değil; yapay zekanın öğrendiği, adapte olduğu temel olarak var olur. Bununla birlikte bu verilerin sorumluluğu yalnızca teknoloji uzmanlarının ve şirketlerin omuzlarında değildir; bu sorumluluk bireyler olarak her birimize uzanmaktadır.

Günümüzün dijital çağında, internet sitelerinde gezinmekten sosyal medyada etkileşim kurmaya kadar teknolojiyle olan her etkileşimimiz, yapay zeka sistemlerini eğitebilecek ve iyileştirebilecek veriler üretiyor. Bu durum, güçlü bir fırsat oluştururken aynı zamanda önemli bir sorumluluk da getiriyor. Bu ekosistemde pasif veri kaynakları değil, aktif katılımcılar haline gelmeliyiz. Bu da paylaştığımız veriler hakkında bilinçli kararlar vermek, bilgilerimizin potansiyel kullanımlarını anlamak ve veri işlemede etik uygulamaları savunmak anlamına geliyor.

Bireylerin dijitalleşmeye katkıda bulunabileceği ve dijital içerikle sorumlu bir şekilde etkileşim kurabileceği birkaç yol:

  1. Kişisel bir blog oluşturmak ve bunu sürdürmek, günlük hayatta karşılaştığımız, bizim veya başkaları için önemli olabilecekler hakkında yazmak.
  2. Video platformlarında (YouTube veya Vimeo gibi) veya TikTok, Instagram gibi eğlence platformlarında video içerikleri üretmek.
  3. Web sayfalarında ve sosyal medyada karşılaştığımız içeriklere karşı veri etiği yönüyle bilinçli olmak.

Tüm bunların dışında, yazılı kültür oluşturmanın (sadece sözlü iletişimin aksine) kilit nokta olduğunu söylemek doğru olacaktır. Yazılı iletişim kurmaya alışalım. Bu sayede hem düşüncelerimizi daha sistematik bir şekilde düzenlemek hem de dijital dünyaya ve verilere katkıda bulunmamız mümkün olacaktır. Bu değişimi benimsemek hem kişisel iletişim becerilerimizi hem de dijital okuryazarlığımızı geliştirecektir.

Sonuç

Rich Sutton’ın etkili yazısı “The Bitter Lesson” dan (Acı Ders) yola çıkarak, yapay zekadaki ilerlemelerin ağırlıklı olarak geniş veri ve büyük hesaplama gücünden kaynaklandığını kabul ediyoruz. Hesaplama gücünü sağlama sorumluluğu kurumlara ve gruplara ait olsa da, verilerin oluşturulması ve etik bir şekilde işlenmesi her bir bireye düşen bir görevdir.

Metin tabanlı modeller ve görsel yapay zekadan çok modelli sistemlere kadar çeşitli alanlarda yapay zekanın dönüştürücü potansiyelini benimserken bu teknolojiyi şekillendirmedeki kritik rolümüzü kabul etmeliyiz. yapay zekayı besleyen veriler, ziyaret ettiğimiz web sitelerinden paylaştığımız gönderilere varana kadar dijital eylemlerimizden kaynaklanmaktadır. Dolayısıyla dijital içerik oluşturmak ve verilerle etik bir şekilde etkileşim kurmak sadece faydalı faaliyetler değil, gelecekte varlığını sürdürmek isteyen herkes için bir zorunluluktur.

Kitapların dijitalleştirilmesine aktif olarak katılarak, bloglar yazarak, Wikipedia gibi açık kaynaklara katkıda bulunarak veya videolar üreterek, bakış açılarımızın ve değerlerimizin dijital anlatıya yansıtılmasını sağlarız. Bu tür katkılar yalnızca dijital ayak izimizi geliştirmek için değil, aynı zamanda dengeli bir yapay zeka ekosistemini teşvik etmek için de çok önemlidir. Verileri nasıl ürettiğimiz ve işlediğimiz konusunda bugün yaptığımız seçimler yarının yapay zekasını doğrudan etkileyecektir.

Biyografi

Hasan Yıldız, 9 yıldır yapay zeka alanında çalışmaktadır. Görüntü ve video işleme alanında doktora çalışmalarını sürdürdü ve kariyerinde çeşitli şirketlerde yapay zeka mühendisi olarak çalıştı. Tam zamanlı görevleri sırasında, Asya’daki en büyük yapay zeka topluluklarından biri olan Machine Learning Tokyo (MLT) aracılığıyla yapay zeka eğitimine önemli katkılarda bulundu. MLT’de atölye çalışmaları, sunumlar ve konuşmalar dahil olmak üzere çeşitli eğitim kaynakları geliştirdi. Şu anda, bir Japon robotik şirketinde yapay zeka ekibinin başkanı olarak görev yapmaktadır. Aynı zamanda bir mobil robot girişiminin kurucu ortağıdır ve ekibiyle birlikte mobil robotların dünyayı anlama ve eylemlerini insanlara benzer bir şekilde gerçekleştirme biçimlerini dönüştürmek için çalışmaktadır.

Ahmet Yücel, 2017 yılında Arjantin'e geldi, liseyi bitirdikten sonra Universidad de Buenos Aires'de Data Science bölümüne başladı ve halen orada eğitimine devam etmektedir. Programcılık, yapay zeka ve web development kursları alıp bu konularda kendini geliştirmeyi hedefliyor. Girişimcilikle uğraşıyor ve öğrendiği teknolojilerle insanlığın problemlerini çözmeyi düşlüyor. Şu anda ilahiyatçılara kaynak bulmakta ve yazı yazmakta yardımcı olacak bir yapay zeka asistanı üzerinde çalışıyor, diğer yandan daha sağlıklı ve verimli bir şekilde çalışmayı destekleyen Productyve.com'u geliştiriyor.