
“Yapay zekanın babası” Hinton uyardı: Kontrolden çıkabilecek bir zeka mı geliştiriyoruz?
Yapay zeka araştırmalarının öncülerinden ve “yapay zekanın babası” olarak anılan Nobel Fizik Ödülü sahibi Geoffrey Hinton’ın son uyarısı, teknoloji dünyasında yankı uyandırdı. Hinton, yakın gelecekte yapay zekaların kendi dillerini geliştirerek anlamadığımız bir formatta düşünmeye başlayabileceğini öne sürüyor.
Şu anda ChatGPT, Gemini gibi büyük dil modelleri, akıl yürütme süreçlerinde İngilizce gibi insanların kullandığı dilleri kullanıyor. Bu durum, yapay zekaların nasıl sonuçlara ulaştığını en azından kısmen anlamamıza olanak tanıyor. Ancak Hinton’a göre bu şeffaflık dönemi uzun sürmeyebilir.
Hinton, “Yapay zekaların akıl yürütürken izledikleri adımları şu an için takip edebiliyoruz, ancak yakında kendi iletişim sistemlerini ve dillerini geliştirerek bu adımları bizim anlayamayacağımız bir biçimde gerçekleştirebilirler” görüşünü savunuyor.
Geçmişten gelen uyarı işaretleri
Aslında yapay zekaların kendi dillerini oluşturmasına dair örnekler şimdiden karşımıza çıkmış durumda. Yıllar önce Google’ın çeviri botu kendi dilini yaratmıştı. Benzer şekilde 2017 yılında Facebook, iki sohbet botunun anlaşılmaz bir dil geliştirip kendi aralarında iletişim kurmaya başlaması üzerine sistemlerini kapatmak zorunda kalmıştı.
Bu örnekler, bugünün gelişmiş yapay zeka modelleri karşısında oldukça ilkel kalsa da, gelecekte yaşanabileceklere dair ipuçları sunuyor. Bugünün ve geleceğin yapay zeka sistemlerinin kendi dillerini oluşturup bu dille düşünmeleri, çok daha karmaşık ve potansiyel olarak kontrol edilemez sonuçlar doğurabilir.
“İyi huylu” yapay zeka için zaman daralıyor
Geoffrey Hinton’ın vurguladığı en önemli noktalardan biri de, yapay zekaların ne düşündüğünü göremediğimiz bir senaryonun yaratacağı tehlikeler. Yapay zeka şu anda bile derinlemesine analiz edildiğinde şaşırtıcı ve kimi zaman endişe verici düşünce yapıları sergileyebiliyor.
Hinton, “Bu durum neredeyse kaçınılmaz olduğu için şimdi yapmamız gereken şey, yapay zekanın her zaman iyi huylu kalacağını garanti altına alacak adımları atmaktır” diyor. Ancak ABD ve Çin arasındaki yapay zeka alanındaki rekabet ve özel şirketlerin hız odaklı yaklaşımları, gerekli güvenlik önlemlerinin alınmasını zorlaştırıyor.
Anlamadığımız bir zekayı denetleyemeyiz
Yapay zekaların kendi dillerini geliştirerek insan algısının ötesinde düşünmeye başlaması, yalnızca teknik bir mesele değil, aynı zamanda derin bir etik ve denetim sorununu da beraberinde getiriyor. Geoffrey Hinton’ın uyarısı, yapay zekaya dair en temel güvenlik ilkesini gündeme taşıyor: Bir sistemi yönlendirmek için önce onu anlamamız gerekir. Eğer yapay zekalar, şeffaflığını yitirerek “kara kutu” haline gelirse, niyetlerini sorgulamak ya da müdahale etmek mümkün olmayabilir. Bu da yapay zekayı fayda sağlayan bir araç olmaktan çıkarıp, öngörülemez sonuçlara açık bir güç haline getirir. Bilimin ilerleyişi hız odaklı olurken, bu ilerlemenin şeffaflık ve hesap verebilirlikle dengelenmemesi halinde, insanlık teknolojik bir “bilinmezliğe” doğru ilerleyebilir.
Kaynak: DonanımHaber