‘Derin Öğrenmenin Babası’ Google’dan ayrılıyor ve yapay zeka tehlikeleri konusunda uyarıyor: ‘Kontrol edip edemeyeceklerini anlayana kadar bunu daha fazla büyütmeleri gerektiğini düşünmüyorum’
Halk arasında “Derin Öğrenmenin Babası” olarak bilinen Geoffrey Hinton, son on yılını Google’da yapay zeka geliştirme üzerinde çalışarak geçirdi. Ama bir röportajda New York Times (yeni sekmede açılır)Hinton, görevinden istifa ettiğini açıkladı ve yapay zekanın gelişme hızı ve zarar verme potansiyeli konusunda endişeli olduğunu söyledi.
Hinton, AI geliştirme alanındaki en önde gelen araştırmacılardan biridir. bu Kraliyet toplumu (yeni sekmede açılır)1998’de Fellow olarak seçildiği , onu “yapay sinir ağları, özellikle de bir insan öğretmenin yardımı olmadan öğrenmek için nasıl tasarlanabilecekleri konusundaki çalışmaları ile seçkin” olarak tanımlıyor ve çalışmasının “iyi olabilir” dedi. otonom akıllı beyin benzeri makinelerin başlangıcı olabilir.”
2012 yılında, o ve öğrencileri Alex Krizhevsky ve Ilya Sutskever adlı bir sistem geliştirdiler. AlexNet (yeni sekmede açılır), görüntülerdeki nesneleri önceki herhangi bir sistemden çok daha yüksek doğrulukla tanıyabilen ve tanımlayabilen bir “evrişimli sinir ağı”. 2012’yi kazanmak için AlexNet’i kullandıktan kısa bir süre sonra ImageNet sorunu (yeni sekmede açılır)Google’ın 44 milyon dolara hızla kaptığı DNN Research adlı bir başlangıç şirketi kurdular.
Hinton yapay zeka çalışmasına Google’da yarı zamanlı olarak devam etti; kendisi aynı zamanda Google’da profesör. Toronto Üniversitesi (yeni sekmede açılır)— ve bu alandaki gelişmelere öncülük etmek için: Örneğin, 2018’de Turing Ödülü (yeni sekmede açılır) “yapay zekada büyük atılımlar” için.
Muhtemelen yakında silinecek olan “Geri yayılım algoritmasını tanıtan ve kelime yerleştirmeleri öğrenmek için geri yayılımı ilk kullanan araştırmacılardan biriydi.” Google çalışan sayfası (yeni sekmede açılır) diyor. “Sinir ağı araştırmasına yaptığı diğer katkılar arasında Boltzmann makineleri, dağıtılmış temsiller, zaman gecikmeli sinir ağları, uzmanların karışımları, varyasyonel öğrenme, uzmanların ürünleri ve derin inanç ağları yer alıyor. Toronto’daki araştırma grubu, derin öğrenmede devrim yaratan büyük atılımlar yaptı. konuşma tanıma ve nesne sınıflandırması.”
Daha yakın zamanlarda, görünüşe göre işinin doğası hakkında dramatik bir fikir değişikliği yaşadı. Hinton’un yeni endişesinin bir kısmı, yapay zeka gelişiminin ilerlediği “korkutucu” orandan kaynaklanıyor. Hinton, “Bu şeylerin insanlardan daha akıllı olabileceği fikri – birkaç kişi buna inanıyordu” dedi. “Ama çoğu insan bunun çok uzak olduğunu düşündü. Ben de çok uzak olduğunu düşündüm. 30 ila 50 yıl, hatta daha uzun olduğunu düşündüm. Açıkçası, artık öyle düşünmüyorum.”
Bu, en azından kısmen, Microsoft ve Google daha gelişmiş AI sistemleri geliştirmek için yarışırken, rekabet eden kurumsal çıkarların bir sonucu olarak oluyor. Bu konuda ne yapılabileceği belli değil: Hinton, zirveye çıkma yarışının yalnızca bir tür küresel düzenlemeyle yönetilebileceğine inandığını, ancak bunun imkansız olabileceğini çünkü şirketlerin kapalı kapılar ardında ne üzerinde çalıştığını bilmenin bir yolu olmadığını söyledi. Dolayısıyla harekete geçmenin bilim camiasına düştüğünü düşünüyor.
“Kontrol edip edemeyeceklerini anlayana kadar bunu daha fazla büyütmeleri gerektiğini düşünmüyorum” dedi.
Ancak bilim adamları yapay zekaya daha yavaş ve daha bilinçli bir yaklaşım benimsemeyi seçseler bile (bence bu olası değil), devam eden gelişimin kaçınılmaz sonucu Hinton’u da endişelendiriyor: “Kötü aktörlerin onu kullanmasını nasıl önleyebileceğinizi görmek zor. Kötü şeyler için” dedi.
Hinton’un son yorumları, 2016 yılında yapılan bir röportajla ilginç bir tezat oluşturuyor. Maclean’ın (yeni sekmede açılır)dikkatli olunması gerektiğini ifade ettiği ancak gelecekte yapay zekanın gelişimini engellemek için kullanılmaması gerektiğini söyledi.
Hinton, “Bu biraz… iyi bir mekanik teknolojiye sahip olur olmaz, bekolar gibi yolda delikler açabilecek şeyler yapabilirsiniz. Ama elbette bir beko kafanızı uçurabilir,” dedi. “Ama kafanızı uçurabileceği için bir beko geliştirmek istemezsiniz, bu aptalca kabul edilir.
“Herhangi bir yeni teknoloji, eğer kötü insanlar tarafından kullanılıyorsa, kötü şeyler olabilir. Ama bu daha çok teknolojinin politikasıyla ilgili bir soru. Bence yapay zekayı bir kazıcının entelektüel eşdeğeri olarak düşünmeliyiz. Bundan çok daha iyi olacak.” pek çok şeyde bizimle. Ve inanılmaz derecede iyi olabilir – bekolar bizi çok fazla kazı yapmaktan kurtarabilir. Ama elbette, onu kötüye kullanabilirsiniz.”
İnsanlar yapay zekanın insanlık üzerinde yaratacağı etkiyi düşünmeli ama asıl mesele şu olmamalı, bu teknolojiyi nasıl bozarız ki zararlı olmasın, olmalı, nasıl yaparız? İnsanların kötü amaçlar için kullanmasına izin vermemek için siyasi sistemimizi geliştirmek mi?”
Hinton, 2016 yılında TVO ile yaptığı bir röportajda benzer açıklamalarda bulundu ve burada potansiyel sorun olduğunu kabul etti, ancak bunların gerçekte ortaya çıktıklarından çok daha ileride olmalarını beklediğini söyledi.
İlginç bir şekilde Hinton, altı aylık bir “duraklama” çağrısı yapan son açık mektupları imzalayanlardan biri değildi. (yeni sekmede açılır) yeni AI sistemlerinin geliştirilmesi üzerine. Times’a göre, istifa edene kadar Google’ı veya diğer şirketleri alenen eleştirmek istemedi. Hinton, Twitter’da, Google’ı şirket hakkında konuşabilmek için bırakmadığını, ancak “bunun Google’ı nasıl etkilediğini düşünmeden yapay zekanın tehlikeleri hakkında konuşabilmek için” açıklığa kavuşturdu.
“Google çok sorumlu bir şekilde hareket etti” diye ekledi.
Bugün NYT’de Cade Metz, Google’ı eleştirmek için Google’dan ayrıldığımı ima ediyor. Aslında, bunun Google’ı nasıl etkilediğini düşünmeden AI’nın tehlikeleri hakkında konuşabilmek için ayrıldım. Google çok sorumlu davrandı.1 Mayıs 2023
Ne olursa olsun, AI geliştirmedeki en önde gelen beyinlerden birinin şimdi bir gün bizim için çok kötü olabileceği konusunda uyarıda bulunması çok önemli. Hinton’un yeni bakış açısı, Oppenheimer’ın nükleer silah geliştirmedeki rolüyle ilgili pişmanlığıyla bariz paralellikler içeriyor. Elbette, Oppenheimer’ın ikinci düşünceleri, dünyanın ne kadar dramatik bir şekilde değiştiğini görmenin kolay olduğu atom bombasının geliştirilmesi ve kullanılmasından sonra geldi. Hinton’un pişmanlıklarının at kaçtıktan sonra mı yoksa en kötüsünü önlemek için hala zaman (ve küresel hükümetlerde yeterince düzenleme kapasitesi) olup olmadığı görülecek.
Kaynak : https://www.pcgamer.com/godfather-of-deep-learning-quits-google-and-warns-of-ai-dangers-i-dont-think-they-should-scale-this-up-more-until-they-have-understood-whether-they-can-control-it