Dünyanın en etkili yapay zeka uzmanlarından biri olan Demis Hassabis'in teknoloji sektörünün geri kalanı için bir uyarısı var: Sohbet robotlarının son birkaç yılda olduğu gibi hızla gelişmeye devam etmesini beklemeyin
Yapay zeka araştırmacıları bir süredir sistemlerini geliştirmek için oldukça basit bir konsepte güveniyorlardı: İnternetten ne kadar çok veri toplarlarsa, büyük dil modelleri – sohbet robotlarının arkasındaki teknoloji – o kadar iyi performans gösteriyorlardı.
Ancak şirketin birincil yapay zeka laboratuvarı olan Google DeepMind’ı yöneten Hassabis, teknoloji şirketlerinin verileri tükenmekte olduğu için bu yöntemin de artık fazla ömrünün kalmadığını söylüyor.
Hassabis bu ay The New York Times’a verdiği bir röportajda, yapay zeka konusundaki çalışmalarından dolayı Nobel Ödülü almaya hazırlanırken “Sektördeki herkes azalan getiriler görüyor” dedi.
Hassabis, yavaşlama konusunda uyarıda bulunan tek yapay zeka uzmanı değil. 20 yönetici ve araştırmacı ile yapılan görüşmeler, teknoloji endüstrisinin sadece birkaç yıl önce düşünülemeyecek bir sorunla karşı karşıya olduğuna dair yaygın bir inanç olduğunu gösterdi: İnternette mevcut olan dijital metnin çoğunu kullandılar.
Bu sorun, yapay zeka gelişimine milyarlarca dolar akıtılmaya devam ederken bile su yüzüne çıkmaya başladı. Salı günü, bir yapay zeka veri şirketi olan Databricks, bir girişim için şimdiye kadarki en büyük özel finansman turu olan 10 milyar dolarlık finansmana yaklaştığını söyledi. Ve teknolojinin en büyük şirketleri, yapay zeka sistemlerini çalıştıran dev veri merkezlerine yaptıkları harcamaları yavaşlatmayı planlamadıklarının sinyallerini veriyor.
Ancak yapay zeka dünyasındaki herkes endişeli değil. Aralarında OpenAI CEO’su Sam Altman’ın da bulunduğu bazıları, eski tekniklerde bazı değişiklikler olsa da ilerlemenin aynı hızda devam edeceğini söylüyor. Yapay zeka girişimi Anthropic’in CEO’su Dario Amodei ve Nvidia’nın CEO’su Jensen Huang da yükselişte.
(NYT, yapay zeka sistemleriyle ilgili haber içeriğinin telif hakkı ihlali olduğu iddiasıyla OpenAI’ye dava açtı. OpenAI iddiaları reddetti).
Tartışmanın kökleri, Johns Hopkins Üniversitesi’nde teorik fizikçi olan Jared Kaplan’ın, büyük dil modellerinin daha fazla veriyi analiz ettikçe istikrarlı bir şekilde daha güçlü ve gerçeğe yakın hale geldiğini gösteren bir araştırma makalesi yayınladığı 2020 yılına kadar uzanıyor.
Araştırmacılar Kaplan’ın bulgularını “Ölçeklendirme Kanunları” olarak adlandırdı. Tıpkı öğrencilerin daha fazla kitap okuyarak daha fazla şey öğrenmesi gibi, yapay zeka sistemleri de haber makaleleri, sohbet günlükleri ve bilgisayar programları da dahil olmak üzere internetten toplanan giderek daha büyük miktarlarda dijital metni taradıkça gelişti. Bu akımın ham gücünü gören OpenAI, Google ve Meta gibi şirketler, mümkün olduğunca çok internet verisini ele geçirmek için yarıştılar, köşeleri kestiler, şirket politikalarını görmezden geldiler ve hatta NYT tarafından bu yıl yapılan bir incelemeye göre yasaları çiğneyip çiğnememeleri gerektiğini tartıştılar.
Moore Yasası da 40 yılın sonunda ağırlaştı
Bu, 1960’larda Intel’in kurucu ortağı Gordon Moore tarafından ortaya atılan ve sık sık alıntılanan Moore Yasası’nın modern eşdeğeriydi. Moore, silikon çip üzerindeki transistör sayısının her iki yılda bir iki katına çıktığını ve böylece dünya bilgisayarlarının gücünün istikrarlı bir şekilde arttığını göstermişti. Moore Yasası 40 yıl boyunca devam etti. Ama sonunda yavaşlamaya başladı.
Sorun şu ki ne Ölçeklendirme Yasaları ne de Moore Yasası doğanın değişmez yasaları. Bunlar sadece akıllı gözlemler. Biri onlarca yıl dayandı. Diğerlerinin raf ömrü çok daha kısa olabilir. Google ve Kaplan’ın yeni işvereni Anthropic, yapay zeka sistemlerine daha fazla metin atamaz çünkü atacak çok az metin kaldı.
Hassabis, “Ölçeklendirme Yasaları uygulanmaya başladığında son üç ya da dört yılda olağanüstü getiriler elde edildi, ancak artık aynı ilerlemeyi kaydedemiyoruz” ifadelerini kullandı.
Yeni hedef: İnsan beyninin gücüyle eşleşebilecek bir makine
Hassabis, mevcut tekniklerin yapay zekayı bazı yönlerden geliştirmeye devam edeceğini söyledi. Ancak Google ve diğerlerinin peşinde olduğu hedefe ulaşmak için tamamen yeni fikirlere ihtiyaç olduğuna inandığını söyledi: İnsan beyninin gücüyle eşleşebilecek bir makine.
Geçtiğimiz ilkbaharda yeni bir girişim kurmak üzere OpenAI’den ayrılmadan önce hem Google hem de OpenAI’de araştırmacı olarak sektörü büyük düşünmeye iten Ilya Sutskever de geçen hafta yaptığı bir konuşmada aynı noktaya değindi ve “En yüksek veriye ulaştık ve daha fazlası olmayacak. Elimizdeki verilerle başa çıkmak zorundayız. Sadece tek bir internet var” dedi.
Hassabis ve diğerleri farklı bir yaklaşım araştırıyor. Büyük dil modellerinin kendi deneme ve yanılmalarından öğrenmeleri için yollar geliştiriyorlar. Örneğin dil modelleri çeşitli matematik problemleri üzerinde çalışarak hangi yöntemlerin doğru cevaba götürdüğünü, hangilerinin götürmediğini öğrenebiliyor. Özünde, modeller kendi ürettikleri veriler üzerinde eğitiliyor. Araştırmacılar buna “sentetik veri” diyor.
OpenAI kısa süre önce bu şekilde oluşturulmuş OpenAI o1 adlı yeni bir sistem yayınladı. Ancak bu yöntem yalnızca matematik ve bilgisayar programcılığı gibi doğru ile yanlış arasında kesin bir ayrımın olduğu alanlarda işe yarıyor.
Geçen ay analistlerle yapılan bir görüşme sırasında Huang’a şirketin müşterilere potansiyel bir yavaşlama konusunda nasıl yardımcı olduğu ve bunun şirkete yansımalarının neler olabileceği soruldu. Huang, kanıtların hala kazanımlar elde edildiğini gösterdiğini, ancak işletmelerin yapay zeka çipleri üzerinde yeni süreçleri ve teknikleri de test ettiğini söyledi.
Huang, “Bunun bir sonucu olarak, altyapımıza olan talep gerçekten büyük” dedi.
Huang Nvidia’nın geleceğinden emin olsa da şirketin en büyük müşterilerinden bazıları yapay zekanın beklendiği kadar hızlı ilerlememesi ihtimaline karşı hazırlıklı olmaları gerektiğini kabul ediyor.
© 2024 The New York Times Company