Yapay Zekayı Anlamak ve Bazı Temel Terminolojiler
![]() |
Yapay Zeka, veri bilimciler dışında herkes için anlaşılmaz olan bir sürü teknoloji ve terminoloji ile birlikte gelir. Sohbet Yapay Zekası kullanıcılarının Yapay Zeka terminolojisi ya da teknik kavramlar hakkında derinlemesine bilgi sahibi olmaları gerekmez. Sistemin konuşma doğası, özel arka plan bilgisi olmadan sezgisel etkileşimlere izin verir. Sohbet Yapay Zekasının gerçekte neler yapabileceğine odaklanmak daha önemlidir. |
Bu kitabı hazırlarken, bir Yapay Zeka kitabının yazarı olarak ‘sorumlu’ olanın ne olduğunu anlamakta zorlandım. Geleneksel yaklaşım, bilimin kısa bir açıklamasını ve sıkça kullanılan terimlerin bir incelemesini sağlamaktır.
Bunu yapmayacağım.
Burada, Yapay Zeka temel bilgileri hakkında bazı makul derecede anlaşılır kısa açıklamalar sunduğunu düşündüğüm birkaç dış bağlantı sunacağım.
Yapay Zeka’nın geleceği nedir?: McKinsey & Co. (Nisan, 2024) iyi bir açıklama seti sunar.
Benzer şekilde Gartner’ın Generative AI (tarihsiz) fena değil.
Futurepedia, Yapay Zeka Temelleri (Mayıs, 2024) hakkında fena değil bir özet sunar.
Nasıl yapılır kısmını hallettikten sonra, şimdi anlamanın değerli olduğunu düşündüğüm bazı terimleri tanıtacağım. Yazılımı kullanmak için bu terimleri bilmeniz gerektiği için değil. Sadece bu terim seti, mevcut Yapay Zeka neslinin nasıl çalıştığının bazı önemli yönlerine referans veriyor.
Bu terim ve kavramları ele alma kullanım durumum, (i) her ne sebeple olursa olsun Yapay Zeka hakkında bir seviye daha derine inmek isteyen yazarlar ve yayıncılar ya da (ii) Yapay Zeka’nın mevcut eleştirilerinin bağlamını anlamak isteyenler veya (iii) meslektaşlarının ya da organizasyonlarının Yapay Zekaya nasıl yaklaşması gerektiği konusunda stratejik tartışmalara katkıda bulunmak isteyenler içindir.
Başka bir deyişle, bilmeniz gerekenler değil, bilmek isteyebilecekleriniz burada. İşte alfabetik olmayan sırayla:
İstemler ve İstemleme
Chat AI yazılımını açabilir ve Google’da olduğu gibi bir soru yazabilirsiniz.
Büyük Dil Modeli (BDM)
Büyük Dil Modelleri, büyük miktarda (çoğunlukla yazılı) materyali analiz ederek çalışır, bu da onların bir konuşmada veya yazıda hangi kelimelerin veya cümlelerin gelmesi gerektiğini tahmin etmelerine olanak tanır. İnsan anlamında dili ‘anlamazlar’, bunun yerine metni daha küçük parçalara (tokenlar olarak adlandırılır) ayırarak işlerler ve ardından tokenları sayılara dönüştürürler. Metni sayılar olarak işlerler, daha sonra sayıları tekrar metne dönüştürerek çıktı verirler. Bu, Chat AI’nın telif hakkıyla korunan çalışmaları ‘içermemesinin’ nedenini aşırı basit bir şekilde açıklamaktadır: Temel metinlerden büyük bir soyutlama temsil eden sayılarla inşa edilmiştir.
BDM’ler dilin tipik olarak nasıl kullanıldığını öğrenir ve bu anlayışa dayanarak yanıtlar üretir. Çoğu dilin ne kadar öngörülebilir olduğunu küçümseme eğilimindeyiz. Chat AI, mevcut edebiyata (bazen şaşırtıcı derecede) benzer metinler üretebilir, ancak tasarım gereği, telif hakkıyla korunan metinlerin belirli bölümlerini veya kopyalarını geri getirme yeteneğine sahip değildir. (New York Times’ın OpenAI’ya karşı açtığı davayı duymuşsunuzdur—Times, ChatGPT’nin daha önce yayımlanmış makalelerin bazı bölümlerini kelimesi kelimesine yeniden üretmesini sağlayabildi.)
Üretken Yapay Zeka
Bu terimi anlamak için en önemli şey “üretken” kısmıdır. Üretken Yapay Zeka yeni metin üretir.
Üretken Önceden Eğitilmiş Dönüştürücü (GPT)
Burada en teknik terim bu olup, OpenAI tarafından geliştirilen belirli bir BDM türünü tanımlar. “Üretken” metin oluşturma yeteneğini belirtir, “önceden eğitilmiş” büyük bir metin veri kümesi üzerinde eğitildiğini ifade eder ve “dönüştürücü” kullandığı yazılımı referans alır. GPT’nin ne anlama geldiğini bilmek, ChatGPT’deki GPT’nin neyi temsil ettiğini anlamanız açısından yardımcı olur.
ChatGPT
ChatGPT, gördüğünüz yazılımdır; GPT ise yazılımın arkasında olan şeydir. Kullanıcılar ChatGPT’yi deneyimler, arkasındaki GPT’yi değil. Yukarıda belirtildiği gibi, ChatGPT, benzer işlevlere sahip birkaç çevrimiçi Chat AI yazılım sisteminden sadece biridir.
Sıkça karşılaşacağınız ve çoğu kişi için tanıdık olmayan bir terim daha var:
Korpus
Sözlük tanımıyla korpus, “yazılı metinlerin bir koleksiyonu“dur (gerçekte her zaman metin değildir). Terim, GPT’lerin eğitildiği büyük korpusları ifade eder: çoğunlukla metinlerden oluşan devasa koleksiyonlar. En büyük korpusların yüz milyarlarca kelime içerdiği söyleniyor. Biz ölümlüler için bu anlaşılmaz. Wikipedia’yı geniş bir kelime sayısına sahip olarak mı düşünüyorsunuz? Wikipedia’da sadece 4,5 milyar kelime var—GPT-4, bir trilyondan fazla kelime üzerinde eğitildi.
Bu ölçeği dikkate almanın önemli olduğunu düşünüyorum. Yazarlar, anlaşılır bir şekilde, kitaplarındaki 75.000 kelimenin büyük bir dil modeline çekilmiş olabileceğinden endişe ediyorlar. Belki de öyledir (daha fazla bilgi aşağıda). Ama varsayalım ki durum böyle, herhangi bir kitabın bugünün büyük dil modellerinin toplam gücüne ne kadar az değer kattığını bir düşünün. Gerçekten önemsiz. Önemsizin de ötesinde. 10.000 kitap bile önemsizdir.
