Makale özetini podcast olarak dinlemek için tıklayınız.
Yapay zekayı kim buldu sorusu, teknoloji tarihinin en temel sorularından biridir. Bu devrimci alan, tek bir mucidin eseri değil, on yıllara yayılan bir fikirler, başarısızlıklar ve atılımlar zincirinin bir ürünüdür. Bu makale, yapay zekanın felsefi kökenlerinden günümüzün veri odaklı devrimine uzanan yedi kritik aşamayı inceleyerek, bu sorunun çok katmanlı cevabını ortaya koymaktadır.
Yapay zeka tarihçesi, sadece algoritmaların değil, aynı zamanda insan zekasının doğasına dair anlayışımızın da evrimini yansıtan büyüleyici bir yolculuktur. Bu yolculuk, “makineler düşünebilir mi?” sorusunu bilimsel bir probleme dönüştüren bir matematik dehasıyla başlar. Bir yaz konferansında ismini bulur, büyük umutlarla beslenen “altın çağlar” yaşar ve hayal kırıklıklarıyla dolu “kışlara” girer. Nihayetinde veri, donanım ve algoritmaların mükemmel bir fırtınada birleşmesiyle bugünkü formuna ulaşır. Yapay zeka nasıl ortaya çıktı sorusunu anlamak için, bu dönüm noktalarını ve arkalarındaki vizyonerleri tanımak esastır.
İçindekiler
Yapay zeka tarihine dair daha fazla bilgi edinmek için, ilerleyen bölümlerde yer alan anahtar kavramları ve olayları inceleyeceğiz. Bu yolculuk, bize yapay zeka alanının karmaşıklığını ve derinliğini gösterecektir.

Bölüm 1: Fikrin Doğuşu: Makineler Düşünebilir mi? (1936-1955)
Yapay zeka teriminin resmi olarak literatüre girmesinden çok önce, bu alanın entelektüel temelleri, bir İngiliz matematikçi ve kriptolog olan Alan Turing tarafından atıldı. Bu dönem, “düşünme” eyleminin felsefi bir soyutlamadan, test edilebilir ve mühendislik konusu olabilecek bir kavrama dönüşümüne tanıklık etti. Turing, yapay zekayı doğrudan “icat etmemiş” olsa da, onu teorik olarak “mümkün kılan” çerçeveyi inşa etti.
Alan Turing ve Evrensel Makine Kavramı
Yapay zekanın kökenlerini anlamak ve yapay zekanın nasıl ortaya çıktığını öğrenmek için için 1936 yılına, Turing’in çığır açan makalesi “On Computable Numbers, with an Application to the Entscheidungsproblem” (Hesaplanabilir Sayılar Üzerine, Karar Verme Problemine Bir Uygulama ile) adlı çalışmasına gitmek gerekir. Bu makalede Turing, “Turing Makinesi” olarak bilinen teorik bir model ortaya koydu. Bu sanal makine, bir şerit üzerinde sembolleri okuyup yazarak ve bir dizi basit kurala uyarak, teorik olarak hesaplanabilir olan her türlü matematiksel problemi çözebilirdi.
Bu fikrin devrimci niteliği, “düşünme” veya “hesaplama” eylemini biyolojik bir beyne olan bağımlılığından kurtarmasıydı. Eğer bir süreç, adımlara bölünebilen ve kurallarla tanımlanabilen bir hesaplama ise, o zaman bir makine tarafından da simüle edilebilirdi. Bu, modern bilgisayarların teorik temelini atmakla kalmadı, aynı zamanda zekanın da bir bilgi işleme süreci olabileceği fikrinin ilk tohumlarını ekti. Turing’in bu çalışması, zekanın fiziksel bir varlıktan ziyade, soyut bir hesaplama süreci olarak anlaşılabileceğinin ilk matematiksel kanıtıydı.
“Computing Machinery and Intelligence” (1950) ve Turing Testi
Eğer 1936 makalesi yapay zekanın teorik zeminini hazırladıysa, Turing’in 1950’de prestijli felsefe dergisi Mind‘da yayınladığı “Computing Machinery and Intelligence” (Hesaplama Makineleri ve Zeka) başlıklı makalesi, alanın manifestosu olarak kabul edilir. Bu makale, yapay zeka tarihsel gelişimi için bir başlangıç noktasıdır.
Turing, makalesine o meşhur ve kışkırtıcı soruyla başlar: “Makineler düşünebilir mi?”. Ancak Turing’in dehası, bu felsefi açıdan yüklü ve tanımı zor soruyu cevaplamaya çalışmak yerine, onu operasyonel ve test edilebilir bir probleme dönüştürmesidir. “Düşünmek” ve “makine” gibi kelimelerin tanımlarında boğulmak yerine, “Taklit Oyunu” (The Imitation Game) adını verdiği bir test önerdi.
Bugün “Turing Testi” olarak bilinen bu deneyin kurgusu basittir: bir sorgulayıcı, görmediği iki varlıkla (biri insan, diğeri makine) metin tabanlı bir sohbet gerçekleştirir. Eğer sorgulayıcı, belirli bir süre sonunda hangisinin makine, hangisinin insan olduğunu güvenilir bir şekilde ayırt edemezse, o makinenin testi geçtiği ve “düşündüğü” kabul edilir. Bu test, zekayı içsel bir bilinç durumu olarak değil, dışsal olarak gözlemlenebilir bir davranış olarak tanımlıyordu. Bu, felsefeyi mühendisliğe çeviren, alanı soyut tartışmalardan somut hedeflere yönlendiren kritik bir adımdı. Turing, bu makalesiyle alana hem teorik bir temel (hesaplanabilirlik) hem de pratik bir hedef (testi geçmek) sunmuş oldu.
Bölüm 2: Bir Alanın Vaftizi: 1956 Dartmouth Konferansı
“Yapay zekayı kim buldu?” sorusunun en somut cevabı, 1956 yazında New Hampshire’daki Dartmouth Koleji’nde düzenlenen tarihi bir atölye çalışmasında yatmaktadır. Bu etkinlik, sadece bir akademik buluşma değil, aynı zamanda bir alanın resmi olarak doğduğu, ismini aldığı ve kurucu figürlerini bir araya getirdiği bir “vaftiz” töreniydi. Bu, yapay zeka tarihinin dönüm noktalarından biridir.
John McCarthy ve İsim Babalığı
Stanford Üniversitesi’nde genç bir matematikçi olan John McCarthy, dağınık haldeki “düşünen makineler” araştırmalarını tek bir çatı altında toplamak ve bu alana iddialı bir kimlik kazandırmak istiyordu. 1955 yılında, Rockefeller Vakfı’na bu yaz atölyesini finanse etmesi için bir teklif sundu. Bu teklifte, McCarthy tarihte ilk kez “Yapay Zeka” (Artificial Intelligence) terimini kullandı. Bu isim seçimi stratejikti; alanı “sibernetik” veya “otomat teorisi” gibi mevcut disiplinlerden ayırarak, insan zekasının tüm yönlerini simüle etmeyi hedefleyen yeni ve cesur bir araştırma programı olarak konumlandırıyordu. Bu nedenle, terimin mucidi ve alanın isim babası olarak John McCarthy kabul edilir.
Konferansın Amacı, Organizatörleri ve Katılımcıları
Konferans teklifinin açılış cümlesi, alanın ilk on yıllarını şekillendirecek olan sınırsız iyimserliği özetliyordu: “Bu çalışma, öğrenmenin her yönünün ya da zekanın herhangi bir başka özelliğinin, prensipte o kadar kesin bir şekilde tanımlanabileceği ve onu simüle etmek için bir makine yapılabileceği varsayımına dayanmaktadır”.
McCarthy bu iddialı hedef için dönemin en parlak zihinlerini bir araya getirdi. Organizasyon komitesinde kendisiyle birlikte MIT’den Marvin Minsky, IBM’den Nathaniel Rochester ve Bell Laboratuvarları’ndan bilgi teorisinin babası Claude Shannon yer alıyordu. Bu isimlerin farklı disiplinlerden gelmesi, yapay zekanın doğası gereği disiplinlerarası bir alan olduğunu en başından ortaya koyuyordu. Konferansa katılanlar arasında, daha sonra alana devasa katkılar yapacak olan Allen Newell, Herbert A. Simon ve dama oynayan programıyla ünlenen Arthur Samuel gibi isimler de vardı.
Yapay zeka ne zaman ortaya çıktı sorusunun cevabı, işte bu 1956 yazı ve bu konferanstır. Atölye, somut bir teknolojik ürün ortaya çıkarmasa da, çok daha önemli bir işlevi yerine getirdi: bir araştırma topluluğu yarattı, ortak bir dil ve kimlik oluşturdu ve dağınık haldeki araştırmacıları tek bir bayrak altında topladı. Bu, bir bilimsel keşiften çok, bir “kuruluş anı” ve bir alanın doğuşunu ilan eden stratejik bir eylemdi. Ancak bu kuruluş anında ortaya atılan “bir nesil içinde bu problem çözülecek” gibi aşırı iyimser tahminler , hem alanın ilk yıllarındaki hızlı ilerlemeyi tetikledi hem de daha sonra yaşanacak olan büyük hayal kırıklıklarının ve “Yapay Zeka Kışı”nın tohumlarını ekti.
İsim | Temel Katkısı | Temsil Ettiği Paradigma/Rol |
---|---|---|
Alan Turing | Turing Testi, Hesaplama Teorisi, Turing Makinesi | Teorik ve Felsefi Temel |
John McCarthy | “Yapay Zeka” teriminin mucidi, LISP programlama dili | Sembolik YZ (GOFAI), Alanın İsim Babası |
Marvin Minsky | Bilişsel Bilim, Yapay Sinir Ağları, MIT YZ Laboratuvarı Kurucusu | Sembolik / Bilişsel YZ |
Allen Newell & Herbert A. Simon | Logic Theorist (İlk YZ Programı), General Problem Solver (GPS) | Sembolik YZ (GOFAI), İnsan Problem Çözme Simülasyonu |
Geoffrey Hinton, Yann LeCun, Yoshua Bengio | Geri Yayılım (Backpropagation), Evrişimli Sinir Ağları (CNN) | Bağlantıcılık (Modern Derin Öğrenme), “Derin Öğrenmenin Vaftiz Babaları” |
Bölüm 3: Sınırsız İyimserliğin Altın Çağı ve Sembolik Yapay Zeka (1956-1974)
Dartmouth Konferansı’nın yarattığı heyecan dalgası, yapay zeka araştırmalarının ilk “Altın Çağı” olarak bilinen dönemi başlattı. Bu dönem, tek bir baskın felsefi yaklaşımla şekillendi:
Sembolik Yapay Zeka (Symbolic AI). Daha sonra eleştirel bir dille GOFAI (Good Old-Fashioned AI – Eski Usul Yapay Zeka) olarak da adlandırılan bu paradigma, zekanın özünde mantık ve sembollerin işlenmesi olduğuna inanıyordu. Bu yaklaşıma göre, insan düşüncesi, dünyayı temsil eden semboller (kelimeler, kavramlar) ve bu semboller üzerinde işleyen mantıksal kurallardan ibaretti. Eğer bu kurallar bir bilgisayara öğretilebilirse, makine de “düşünebilirdi”. Bu, veriden öğrenmek yerine, insan tarafından kodlanmış bilgiye dayanan “bilgi-temelli” bir yaklaşımdı.
İlk Yapay Zeka Programları ve Başarıları
Bu dönemde geliştirilen programlar, sembolik yaklaşımın gücünü kanıtlamayı ve büyük bir iyimserlik yaratmayı başardı.
- Logic Theorist (1956): Allen Newell ve Herbert Simon tarafından geliştirilen bu program, genellikle ilk yapay zeka programı olarak kabul edilir. Logic Theorist, Bertrand Russell ve Alfred North Whitehead’in anıtsal eseri Principia Mathematica‘daki ilk 52 teoremden 38’ini ispatlamayı başardı. Hatta teoremlerden birine, insan matematikçilerin bulduğundan daha zarif bir kanıt buldu. Bu, makinelerin sadece hesaplama yapmakla kalmayıp, soyut ve mantıksal akıl yürütme yeteneğine sahip olabileceğinin ilk somut kanıtıydı.
- General Problem Solver (GPS) (1959): Logic Theorist’in başarısının ardından Newell ve Simon, fikirlerini daha genel bir çerçeveye taşıdı. GPS, belirli bir alana bağlı kalmadan, çeşitli problemleri çözmek için tasarlanmıştı.Program, insanların problem çözerken kullandığı düşünülen bir stratejiyi, “amaç-araç analizi”ni (means-ends analysis) taklit ediyordu. GPS, mevcut durum ile hedef durum arasındaki farkı tespit ediyor ve bu farkı azaltacak adımları sistematik olarak uyguluyordu. Bu, genel amaçlı zekaya yönelik atılmış önemli bir adımdı.
- Arthur Samuel’in Dama Programı (1952-1959): Sembolik paradigmanın hakim olduğu bu dönemde, farklı bir yaklaşımın ilk filizleri de görülüyordu. IBM’de çalışan Arthur Samuel, kendi kendine dama oynamayı öğrenen bir program geliştirdi. Program, binlerce oyun oynayarak ve kendi hatalarından ders çıkararak zamanla o kadar gelişti ki, yaratıcısı Samuel’i yenebilecek seviyeye ulaştı. Samuel, bu süreci tanımlamak için tarihte ilk kez “makine öğrenmesi” (machine learning) terimini kullandı. Bu, yapay zekanın kuralları ezberlemek yerine, deneyimden öğrenebileceğini gösteren ilk güçlü örneklerden biriydi.
- ELIZA (1966): MIT’den Joseph Weizenbaum tarafından geliştirilen ELIZA, tarihin ilk chatbot’larından biriydi.Program, bir Rogerian psikoterapisti taklit ederek, kullanıcının ifadelerindeki anahtar kelimeleri yakalayıp bunları soru formunda geri yansıtıyordu. Örneğin, “Babamdan nefret ediyorum” diyen bir kullanıcıya “Babanız hakkında daha fazla anlatın” gibi bir yanıt veriyordu. ELIZA’nın hiçbir şeyi “anlamamasına” rağmen, şaşırtıcı sayıda insan programla duygusal bir bağ kurdu ve onun kendilerini gerçekten dinlediğine inandı. Bu durum, “Eliza Etkisi” olarak bilinen ve insanların bilgisayar programlarına insani nitelikler atfetme eğilimini tanımlayan psikolojik fenomeni ortaya çıkardı.
Bu ilk başarılar, alanda büyük bir coşku ve neredeyse sınırsız bir iyimserlik yarattı. Herbert Simon, 1965’te “makineler yirmi yıl içinde bir insanın yapabileceği her işi yapabilecek” gibi cesur bir tahminde bulunurken , Marvin Minsky 1967’de “bir nesil içinde ‘yapay zeka’ yaratma probleminin büyük ölçde çözüleceğini” iddia ediyordu. Bu tahminler, dönemin ruhunu ve beklentilerin ne kadar yüksek olduğunu net bir şekilde göstermektedir. Ancak bu başarıların tamamı, son derece yapılandırılmış, kuralları net ve basitleştirilmiş “oyuncak” dünyalarda elde edilmişti. Gerçek dünyanın karmaşıklığı, belirsizliği ve “sağduyu” gerektiren yapısı, bu katı kural tabanlı sistemlerin aşamayacağı bir duvar olarak karşılarına dikilecekti.

Bölüm 4: Büyük Donma: İlk Yapay Zeka Kışı (1974-1980)
1960’ların sonlarına ve 1970’lerin başlarına gelindiğinde, Altın Çağ’ın parlak vaatleri ile laboratuvardaki gerçeklik arasındaki uçurum giderek belirginleşti. Sınırsız iyimserlik, yerini derin bir hayal kırıklığına, fon kesintilerine ve bilimsel bir durgunluğa bıraktı. Yapay zeka topluluğunun “nükleer kış” benzetmesinden esinlenerek “Yapay Zeka Kışı” (AI Winter) adını verdiği bu dönem, alanın ilk büyük kriziydi. Bu çöküş, tek bir nedenden değil, bir dizi teknik, stratejik ve finansal başarısızlığın birleşiminden kaynaklandı.
Neden 1: Kombinatoryal Patlama (Combinatorial Explosion)
Yapay Zeka Kışı’nın temelindeki en önemli teknik engel “kombinatoryal patlama” sorunuydu. Bu terim, bir problemin karmaşıklığı arttıkça, olası çözüm yollarının ve hesaplanması gereken adımların sayısının astronomik bir hızla artmasını ifade eder. Sembolik YZ programları, satranç veya teorem ispatı gibi kuralları net, kapalı “oyuncak” dünyalarda başarılı olmuştu. Ancak bu programları gerçek dünya problemlerine (örneğin, bir odayı algılamak veya doğal bir konuşmayı anlamak) uygulamaya çalıştıklarında, karşılaştıkları değişkenlerin ve olasılıkların sayısı yönetilemez hale geldi. Örneğin, bir satranç programı birkaç hamle sonrasını hesaplayabilirken, gerçek dünyadaki bir robotun bir sonraki saniyede karşılaşabileceği sonsuz olasılığı hesaplaması dönemin teknolojisiyle imkansızdı. Bu sorun, GOFAI yaklaşımının ölçeklenemez olduğunu ve pratik uygulamalar için yetersiz kaldığını acı bir şekilde gösterdi.
Neden 2: Yıkıcı Raporlar ve Güven Kaybı
Teknik zorluklar, fon sağlayıcı kurumların sabrını taşırmaya başladığında, iki etkili rapor yapay zeka araştırmalarına ölümcül darbeler indirdi.
- ALPAC Raporu (1966): ABD hükümetinin talebiyle Otomatik Dil İşleme Danışma Komitesi (ALPAC) tarafından hazırlanan bu rapor, makine çevirisi (MT) alanındaki ilerlemeyi değerlendiriyordu. Soğuk Savaş döneminde Rusça belgeleri otomatik çevirme umuduyla büyük yatırımlar yapılan bu alan, büyük bir hayal kırıklığı yaratmıştı. ALPAC raporu, mevcut MT sistemlerinin insan çevirmenlere kıyasla daha yavaş, daha pahalı ve anlamlı derecede daha kalitesiz olduğu sonucuna vardı. Rapor, “yakın gelecekte kullanışlı bir makine çevirisi umudu olmadığını” belirterek, bu alandaki büyük ölçekli fonların kesilmesine yol açtı. Bu, yapay zekanın pratik bir alandaki ilk büyük kamuoyu başarısızlığıydı.
- Lighthill Raporu (1973): İngiltere’de, hükümetin bilim danışmanı Sir James Lighthill tarafından hazırlanan bu rapor, ALPAC’tan çok daha geniş kapsamlı ve yıkıcıydı. Rapor, yapay zeka alanını bir bütün olarak ele alıyor ve “alanın hiçbir bölümünde o zamanlar vaat edilen büyük etkinin yaratılamadığını” sert bir dille ifade ediyordu.Lighthill, kombinatoryal patlama sorununu merkeze alarak, YZ araştırmalarının “oyuncak” problemlerin ötesine geçemediğini ve gerçek dünya uygulamaları için bir potansiyel taşımadığını savundu. Bu raporun etkisiyle İngiltere’deki YZ araştırmaları neredeyse tamamen durma noktasına geldi ve raporun yarattığı karamsarlık dalgası ABD’yi de etkiledi.
Sonuç: Fonların Kesilmesi ve Durgunluk
Bu faktörlerin birleşimiyle, yapay zeka araştırmalarının en büyük finansal destekçisi olan ABD Savunma İleri Araştırma Projeleri Ajansı (DARPA), alana yönelik sabrını kaybetti. DARPA, spesifik ve hedefe yönelik olmayan, genel amaçlı YZ araştırmalarından fonlarını çekti. Bu, bir domino etkisi yarattı ve alan genelinde bir fon kıtlığına yol açtı. Araştırma merkezleri küçüldü, projeler iptal edildi ve birçok yetenekli araştırmacı alanı terk etti. İlk Yapay Zeka Kışı, sadece bir teknolojik durgunluk değil, aynı zamanda bir paradigma kriziydi. GOFAI’nin temel varsayımları, gerçek dünyanın karmaşıklığı karşısında yetersiz kalmıştı. Bu kriz, yapay zekanın sadece zeki algoritmalar geliştirmekle ilgili olmadığını; hesaplama limitleri, bilgi temsili ve en önemlisi, insanların sezgisel olarak bildiği ama kurallara dökmenin neredeyse imkansız olduğu “sağduyu” (common sense) gibi çok daha derin sorunlarla yüzleşmesi gerektiğini gösterdi.
Bölüm 5: Dijital Uzmanların Yükselişi ve Düşüşü (1980-1987) ve İkinci Kış
İlk Yapay Zeka Kışı’nın dondurucu etkisinin ardından, alan 1980’lerde yeniden canlanmaya başladı. Ancak bu canlanma, Altın Çağ’ın “genel insan zekası” gibi büyük hedeflerinden vazgeçerek, çok daha pragmatik ve ticari bir yöne evrildi. Bu yeni dönemin yıldızı, Uzman Sistemler (Expert Systems) oldu. Bu sistemler, yapay zekanın ticari potansiyelini kanıtlayarak kısa süreli bir patlama yarattı, ancak bu patlama da kendi içsel sınırlamaları nedeniyle ikinci bir kışa yol açtı.
Uzman Sistemler: Dar Alanda Derin Bilgi
Uzman sistemlerin temel fikri basitti: Genel amaçlı bir zeka yaratmak yerine, belirli ve dar bir alandaki (tıp, kimya, finans, bilgisayar konfigürasyonu vb.) bir insan uzmanın bilgi ve karar verme süreçlerini taklit etmek. Bu sistemler iki ana bileşenden oluşuyordu:
- Bilgi Tabanı (Knowledge Base): Alan uzmanlarından elde edilen bilgilerin, genellikle “EĞER-İSE” (IF-THEN) formatındaki yüzlerce veya binlerce kural şeklinde depolandığı bir veritabanı.
- Çıkarım Motoru (Inference Engine): Kullanıcıdan gelen verilere dayanarak, bilgi tabanındaki kuralları uygulayan ve bir sonuca veya tavsiyeye ulaşan mantıksal bir motor.
Bu yaklaşım, yapay zekanın özellikleri arasında “uzman bilgisiyle akıl yürütme” yeteneğini ön plana çıkardı.
Önemli Uzman Sistemler ve Ticari Başarı
- MYCIN (1970’ler): Bu dönemin prototipi olan MYCIN, Stanford Üniversitesi’nde geliştirildi ve kan enfeksiyonu hastalıklarını teşhis etmek için tasarlandı. Yaklaşık 600 kural içeren bilgi tabanıyla, yapılan testlerde insan uzmanlarla karşılaştırılabilir, hatta bazen daha yüksek bir doğruluk oranı sergiledi. MYCIN, bir makinenin karmaşık bir tıbbi alanda uzman düzeyinde performans gösterebileceğini kanıtladı. Ancak, bir makinenin yanlış teşhisinin yasal ve etik sorumluluğu konusundaki endişeler nedeniyle hiçbir zaman klinik pratikte kullanılmadı.
- XCON (R1) (1980): Uzman sistemlerin ticari potansiyelini kanıtlayan asıl sistem XCON oldu. Carnegie Mellon Üniversitesi’nde Digital Equipment Corporation (DEC) için geliştirilen bu sistem, şirketin VAX bilgisayarlarının karmaşık sipariş konfigürasyonlarını yapıyordu. Müşteri siparişlerindeki uyumsuzlukları ve eksik parçaları önleyerek, XCON’un DEC’e yılda 25 milyon doların üzerinde tasarruf sağladığı tahmin ediliyordu. XCON’un bu somut başarısı, yapay zekaya yönelik büyük bir kurumsal ilgi ve yatırım dalgası başlattı.
İkinci Yapay Zeka Kışı (1987-1993)
XCON’un başarısıyla başlayan uzman sistemler balonu, 1980’lerin sonuna doğru patladı ve alanı ikinci bir kış dönemine soktu. Bu çöküşün birkaç temel nedeni vardı:
- Kırılganlık (Brittleness): Uzman sistemler, bilgi tabanlarında tanımlanmamış en ufak bir yeni veya beklenmedik durumla karşılaştıklarında tamamen çöküyorlardı. Esneklikten yoksundular ve “sağduyu”ya sahip olmadıkları için kurallarının dışına çıkamıyorlardı.
- Bilgi Edinme Darboğazı (Knowledge Acquisition Bottleneck): Bir insan uzmanın yılların deneyimiyle edindiği sezgisel bilgiyi çıkarmak, bunu net kurallara dökmek ve sisteme girmek, “bilgi mühendisleri” için son derece zor, yavaş ve maliyetli bir süreçti.
- Yüksek Maliyet ve Bakım Zorluğu: Bu sistemleri geliştirmek, doğrulamak ve en önemlisi güncel tutmak, devasa bir çaba ve maliyet gerektiriyordu. Bir alandaki bilgi değiştikçe, yüzlerce kuralın manuel olarak güncellenmesi gerekiyordu.
- Donanım Pazarının Çöküşü: Uzman sistemler, genellikle LISP programlama dilini çalıştırmak için tasarlanmış pahalı ve özel “LISP makineleri” üzerinde çalışıyordu. 1987’de Apple ve IBM gibi şirketlerin daha ucuz ve güçlü genel amaçlı masaüstü bilgisayarları piyasaya sürmesiyle, bu özel donanım pazarı aniden çöktü. Bu durum, donanım satışına bağımlı olan birçok YZ şirketinin iflas etmesine neden oldu.
İkinci Yapay Zeka Kışı, Sembolik YZ paradigmasının pratik ve ticari sınırlarını net bir şekilde ortaya koydu. Uzman sistemler, kendilerine verilen bilgiyle mantık yürütebiliyorlardı, ancak bu bilgiyi kendi başlarına öğrenemiyorlardı. Bu temel eksiklik, yapay zeka topluluğunun dikkatini kaçınılmaz olarak başka bir yöne çevirdi: Makinelerin bilgiyi veriden kendi başlarına nasıl öğrenebilecekleri sorusuna.
Bölüm 6: Yeni Bir Paradigma: Veri Odaklı Diriliş ve Makine Öğrenmesi (1990’lar-2000’ler)
İki büyük hayal kırıklığının ardından yapay zeka alanı, 1990’lar ve 2000’ler boyunca daha sessiz ama köklü bir dönüşüm geçirdi. Araştırmanın ağırlık merkezi, insan tarafından kodlanmış katı kurallara dayalı sembolik sistemlerden, verilerden istatistiksel olarak örüntüleri ve ilişkileri öğrenen makine öğrenmesi (Machine Learning) yaklaşımlarına doğru kaydı.Bu, “bilgiyi nasıl kodlarız?” sorusundan, “makinelerin öğrenmesini nasıl sağlarız?” sorusuna geçişi simgeliyordu.
Paradigma Çatışması: Sembolizm ve Bağlantıcılık
Bu dönemde, yapay zeka tarihinin en temel entelektüel ayrımı daha da belirginleşti:
- Sembolizm (GOFAI): Zekayı, mantık ve kuralların semboller üzerinde uygulandığı, “yukarıdan aşağıya” (top-down) bir süreç olarak görüyordu. Bu yaklaşıma göre zeka, organize edilmiş bilgi ve mantıksal çıkarım yeteneğiydi.
- Bağlantıcılık (Connectionism): Zekayı, insan beynindeki nöron ağlarından esinlenerek, basit işlem birimleri (yapay nöronlar) arasındaki bağlantıların gücünün deneyimle (veriyle) ayarlandığı, “aşağıdan yukarıya” (bottom-up) bir süreç olarak ele alıyordu. Bu yaklaşıma göre zeka, veriden öğrenme yoluyla ortaya çıkan bir olguydu. Modern derin öğrenmenin felsefi kökleri bu paradigmada yatmaktadır.
İki kış dönemi, sembolik yaklaşımın pratik sınırlamalarını ortaya koyunca, araştırmacılar giderek daha fazla bağlantıcı ve istatistiksel yöntemlere yöneldi. Destek Vektör Makineleri (SVMs) ve Rastgele Ormanlar (Random Forests) gibi algoritmalar bu dönemde popülerlik kazandı ve pratik problemlerde önemli başarılar elde etti.
IBM Deep Blue vs. Garry Kasparov (1997): Bir Devrin Sonu, Bir Devrin Başlangıcı
Bu paradigma değişiminin en güçlü sembolik anı, 11 Mayıs 1997’de yaşandı. IBM’in süper bilgisayarı Deep Blue, altı oyunluk bir maçın sonunda dünya satranç şampiyonu Garry Kasparov’u yendi. Bu olay, dünya çapında büyük bir yankı uyandırdı ve “insan zekasının sonu mu geldi?” tartışmalarını alevlendirdi.
Ancak teknolojik açıdan bakıldığında, bu zaferin anlamı daha derindi. Deep Blue, insan gibi “düşünmüyordu”. Kasparov’un sezgisine, yaratıcılığına ve uzun vadeli stratejisine karşı, Deep Blue’nun en büyük silahı ham hesaplama gücüydü. Saniyede 200 milyon satranç pozisyonunu değerlendirebilen “kaba kuvvet” (brute force) yaklaşımıyla, olası hamle ağacında insandan çok daha derine inebiliyordu.
Bu zafer, önemli bir gerçeği ortaya koydu: Bir problemi çözmek için insan zekasını birebir taklit etmek tek yol değildi. Yeterli veri (bu durumda devasa açılış ve oyun sonu veritabanları) ve muazzam hesaplama gücü, en karmaşık strateji oyunlarından birinde bile insanüstü performansa ulaşmak için yeterli olabilirdi. Deep Blue, aslında sembolik dönemin zirvesini ve aynı zamanda sonunu temsil ediyordu. Mantıksal kuralları (satranç kuralları) ve bilgiyi (veritabanları) kullanarak, bunu devasa bir hesaplama kapasitesiyle birleştirerek kazanmıştı.
Bu olay, yapay zeka topluluğunun zihninde bir şalterin inmesine neden oldu. Eğer en karmaşık mantık oyunlarından biri bile bu şekilde “çözülebiliyorsa”, o zaman diğer karmaşık örüntü tanıma problemleri (görüntüleri sınıflandırmak, konuşmayı anlamak gibi) de yeterli veri ve hesaplama gücüyle çözülebilir miydi? Bu soru, bir sonraki ve en büyük devrime, derin öğrenme devrimine giden yolu açtı. Yapay zeka tarihsel gelişimi içinde bu maç, sembolik dönemin sonunu ve veri odaklı dönemin şafağını simgeleyen bir köprüdür.
Bölüm 7: Derin Öğrenme Devrimi: Modern Yapay Zekanın Büyük Patlaması (2010-Günümüz)
2010’lu yıllar, yapay zeka tarihinde bir “kambriyen patlaması”na tanıklık etti. Onlarca yıldır süren yavaş ve döngüsel ilerlemenin ardından, alan aniden baş döndürücü bir hızla gelişmeye başladı. Bu devrim, tek bir buluştan değil, üç güçlü teknolojik eğilimin aynı anda olgunlaşarak bir araya gelmesinden, bir “yakınsama” anından doğdu: Büyük Veri (Big Data), Paralel Hesaplama (GPU’lar) ve Gelişmiş Algoritmalar (Derin Öğrenme).
Devrimin Üç Sütunu
- Büyük Veri: Yapay Zekanın Yakıtı: Derin öğrenme modelleri, öğrenmek için devasa miktarda veriye ihtiyaç duyar. 2000’lerin sonlarına kadar bu ölçekte, halka açık ve etiketlenmiş veri setleri mevcut değildi. Bu durumu değiştiren en önemli proje, Stanford’dan araştırmacı Fei-Fei Li liderliğindeki ImageNet oldu. ImageNet, WordNet hiyerarşisine göre etiketlenmiş 14 milyondan fazla görüntü içeren devasa bir veritabanıydı. Bu proje, araştırmacılara derin sinir ağlarını eğitmek ve karşılaştırmak için gereken “yakıtı” sağladı. Veri olmadan, en gelişmiş algoritmalar bile potansiyellerine ulaşamazdı.
- GPU’lar: Yapay Zekanın Motoru: Başlangıçta video oyunları ve grafik işleme için tasarlanan Grafik İşlem Birimleri (GPU’lar), modern yapay zekanın beklenmedik donanım kahramanı oldu. Geleneksel CPU’ların aksine (birkaç güçlü çekirdeğe sahip), GPU’lar binlerce daha basit çekirdeğe sahiptir ve bu sayede binlerce matematiksel işlemi aynı anda (paralel olarak) yapabilirler. Derin sinir ağlarının eğitimi, tam da bu türden milyonlarca basit matris çarpımı işlemine dayanır. NVIDIA’nın CUDA gibi platformları sayesinde araştırmacılar, GPU’ların bu paralel işleme gücünü sinir ağlarını eğitmek için kullanmaya başladılar. Bu, eğitim sürelerini aylardan veya haftalardan günlere veya saatlere indirerek, daha önce pratik olmayan büyük ve derin modellerin geliştirilmesini mümkün kıldı.
- Algoritmik Atılım: AlexNet’in Zaferi (2012): Veri ve donanım hazır olduğunda, sahneye çıkacak bir kahramana ihtiyaç vardı. Bu kahraman, 2012’de AlexNet oldu. Geoffrey Hinton ve öğrencileri Alex Krizhevsky ile Ilya Sutskever tarafından geliştirilen bu derin evrişimli sinir ağı (CNN), yıllık ImageNet Büyük Ölçekli Görsel Tanıma Yarışması’na (ILSVRC) katıldı. O güne kadar yarışmayı kazanan en iyi modellerin hata oranı %25’in üzerindeyken, AlexNet hata oranını %15.3’e düşürerek en yakın rakibine 10 puandan fazla fark attı. Bu, sadece bir yarışma zaferi değil, bir devrimin başlangıç silahıydı. AlexNet, derin öğrenmenin geleneksel bilgisayarlı görü yöntemlerinden ne kadar üstün olduğunun tartışmasız kanıtıydı. ReLU aktivasyon fonksiyonları ve Dropout regülarizasyonu gibi teknik yenilikleri, daha sonraki tüm derin öğrenme mimarileri için standart haline geldi.
Derin Öğrenmenin “Vaftiz Babaları”
Bu devrim bir gecede ortaya çıkmadı. Arkasında, “Yapay Zeka Kışları” boyunca bile bağlantıcılık fikrine olan inançlarını yitirmeyen üç öncü araştırmacı vardı: Geoffrey Hinton, Yann LeCun ve Yoshua Bengio. Genellikle “Derin Öğrenmenin Vaftiz Babaları” olarak anılan bu üçlü, 1980’lerde geri yayılım (backpropagation) algoritmasını popülerleştirmekten, evrişimli sinir ağlarının (LeCun) ve tekrarlayan sinir ağlarının (Bengio) temellerini atmaya kadar, modern derin öğrenmenin temelindeki birçok anahtar fikri geliştirdi. Onların on yıllar süren ısrarlı çalışmaları olmasaydı, veri ve donanım hazır olduğunda bu devrimi ateşleyecek algoritmalar mevcut olmazdı.
AlexNet’in 2012’deki zaferi, bir barajın yıkılması gibiydi. Google, Facebook, Microsoft gibi teknoloji devleri ve yatırımcılar, alana devasa kaynaklar akıtmaya başladı. Bu, yapay zekanın hızla sağlık hizmetlerinde tıbbi görüntü analizinden , otonom araçlara, doğal dil işlemede ChatGPT gibi üretken modellere ve günlük hayatımızın neredeyse her alanına yayılmasını sağladı.
Yapay zeka ne zaman çıktı sorusunun modern anlamdaki cevabı, bu üç gücün birleştiği ve AlexNet’in bu birleşmenin gücünü dünyaya gösterdiği 2012 yılıdır.
Dönem | Hakim Paradigma | Kilometre Taşı Olay/Program |
---|---|---|
Fikrin Doğuşu (1936-1955) | Teorik / Felsefi | Alan Turing’in “Turing Testi” makalesi (1950) |
Altın Çağ (1956-1974) | Sembolik YZ (GOFAI) | Dartmouth Konferansı (1956) / Logic Theorist |
İlk YZ Kışı (1974-1980) | Kriz ve Durgunluk | Lighthill Raporu (1973) / DARPA fon kesintileri |
Uzman Sistemler Patlaması (1980-1987) | Dar Sembolik YZ | XCON’un ticari başarısı (1980) |
İkinci YZ Kışı (1987-2000’ler) | Makine Öğrenmesi / Veri Odaklı | LISP pazarı çöküşü (1987) / Deep Blue’nun zaferi (1997) |
Derin Öğrenme Devrimi (2010-Günümüz) | Bağlantıcılık (Derin Öğrenme) | AlexNet’in ImageNet zaferi (2012) |
Sonuç: Bir Kişiden Çok, Bir Fikirler Ekosistemi
“Yapay zekayı kim buldu?” sorusuyla başladığımız bu tarihsel yolculuk, bizi tek bir kişiye veya tek bir ana değil, bir fikirler ekosisteminin evrimine götürdü. Cevap, hangi döneme ve hangi paradigmaya odaklandığınıza göre değişir:
- Eğer sorunuz “Yapay zekayı bilimsel olarak mümkün kılan felsefi ve teorik çerçeveyi kim kurdu?” ise, cevap şüphesiz Alan Turing‘dir.
- Eğer “Bu alana ‘Yapay Zeka’ adını kim verdi ve onu resmi bir disiplin olarak kim başlattı?” diye soruyorsanız, cevap John McCarthy ve 1956 Dartmouth Konferansı’nın diğer organizatörleridir.
- Eğer “İlk yapay zeka programını kim yazdı?” diye merak ediyorsanız, cevap Allen Newell ve Herbert Simon‘dır.
- Ve eğer “Günümüzün yapay zeka devrimini ateşleyen derin öğrenme algoritmalarının temelini kim attı?” derseniz, cevap Geoffrey Hinton, Yann LeCun ve Yoshua Bengio üçlüsüdür.
Yapay zeka tarihçesi, bize bu alanın doğrusal bir ilerleme çizgisi izlemediğini gösteriyor. Aksine, büyük umutlar ve abartılı vaatlerle başlayan “yaz” dönemlerini, ardından gelen teknik ve kavramsal engellerle tetiklenen “kış” dönemlerinin takip ettiği döngüsel bir yapıya sahiptir. Sembolik YZ’nin “yukarıdan aşağıya” mantık temelli yaklaşımı, yerini büyük veri ve hesaplama gücüyle beslenen Bağlantıcılığın “aşağıdan yukarıya” öğrenme temelli yaklaşımına bırakmıştır.
Bugün yaşadığımız devrim, tek bir dehanın değil, bir yakınsamanın ürünüdür: ImageNet gibi projelerle veriyi sağlayan araştırmacılar, GPU’larla hesaplama gücünü mümkün kılan mühendisler ve kış dönemlerinde bile temel algoritmalar üzerinde çalışmaya devam eden vizyoner bilim insanları. Dolayısıyla, yapay zekayı tek bir kişi bulmadı; onu, on yıllar boyunca farklı disiplinlerden gelen, birbiriyle rekabet eden ve birbirinin mirası üzerine inşa eden binlerce zihin kolektif olarak var etti.
1. Sonuç olarak, yapay zekayı kim buldu?
Yapay zekanın tek bir mucidi yoktur. “Yapay Zeka” terimini 1956’da John McCarthy icat etmiş ve alanın resmi başlangıcı olan Dartmouth Konferansı’nı organize etmiştir. Ancak, alanın felsefi ve teorik temelleri 1950’de “Turing Testi”ni öneren
2. İlk yapay zeka programı neydi ve ne yapıyordu?
Genellikle ilk yapay zeka programı olarak kabul edilen sistem, 1956’da Allen Newell ve Herbert A. Simon tarafından geliştirilen Logic Theorist‘tir. Bu program, insan benzeri akıl yürütmeyi taklit ederek,
Principia Mathematica adlı eserdeki matematiksel teoremleri ispatlamak için tasarlanmıştı ve bunu büyük bir başarıyla gerçekleştirmiştir.
3. Yapay zeka ne zaman ortaya çıktı ve bu olayın adı neydi?
Yapay zeka, bilimsel bir disiplin olarak resmi olarak 1956 yazında ortaya çıktı. Bu olay, John McCarthy, Marvin Minsky ve diğer öncülerin düzenlediği Dartmouth Yaz Araştırma Projesi veya kısaca Dartmouth Konferansı olarak bilinir.”Yapay Zeka” terimi ilk kez bu konferansın teklifinde kullanılmıştır.
4. Turing Testi nedir ve günümüzde hala geçerli midir?
Turing Testi, bir makinenin zekasını ölçmek için Alan Turing tarafından 1950’de önerilen bir deneydir. Testte, bir insan sorgulayıcı, bir insan ve bir makine ile metin tabanlı sohbet eder. Sorgulayıcı, hangisinin makine olduğunu güvenilir bir şekilde ayırt edemezse, makine testi geçmiş sayılır. Günümüzde ChatGPT gibi modeller bu testi kolayca geçebilmektedir, bu nedenle testin “gerçek zekayı” ölçme yeteneği artık tartışmalıdır, ancak yapay zeka felsefesi için tarihi bir mihenk taşı olmaya devam etmektedir.
5. “Yapay Zeka Kışı” ne anlama geliyor ve neden yaşandı?
“Yapay Zeka Kışı”, yapay zeka araştırmalarına olan ilginin ve finansmanın ciddi şekilde azaldığı dönemleri ifade eder. İki büyük kış yaşanmıştır.
İlk Kış (1974-1980), abartılı vaatlerin gerçekleşmemesi, “kombinatoryal patlama” gibi teknik engeller ve Lighthill Raporu gibi eleştirel yayınlar nedeniyle tetiklendi.
İkinci Kış (1987-1993) ise uzman sistemlerin “kırılgan” olması, bakım maliyetlerinin yüksekliği ve özel LISP donanım pazarının çökmesi gibi nedenlerle ortaya çıktı.
6. Sembolik YZ (GOFAI) ile Bağlantıcılık (Derin Öğrenme) arasındaki temel fark nedir?
Bu iki yaklaşım, zekanın doğasına dair temel felsefi farklılıklara dayanır. Sembolik YZ (GOFAI), zekanın mantıksal kurallar ve sembollerin işlenmesiyle elde edilebileceğini savunan “yukarıdan aşağıya” bir yaklaşımdır; bilgi, insanlar tarafından sisteme kodlanır.
7. Uzman sistemler neden başarılı olup sonra gözden düştü?
Uzman sistemler 1980’lerde, özellikle DEC’in XCON sistemi gibi ticari başarılarla popüler oldu çünkü dar bir alanda insan uzman bilgisini taklit ederek somut değer yaratıyorlardı. Ancak, bilgi tabanlarının dışındaki durumlarda “kırılgan” olmaları, uzman bilgisini kurallara dökmenin çok zor ve pahalı olması (bilgi edinme darboğazı) ve bakımlarının zorluğu gibi nedenlerle gözden düştüler ve İkinci YZ Kışı’na yol açtılar.
8. GPU’lar modern yapay zeka için neden bu kadar önemli?
Grafik İşlem Birimleri (GPU’lar), binlerce basit hesaplamayı aynı anda yapabilen paralel işlem mimarisine sahiptir. Derin öğrenme modellerinin eğitimi, tam da bu tür milyonlarca matris çarpımı işlemi gerektirir. GPU’lar, bu işlemleri geleneksel CPU’lardan çok daha hızlı yaparak, büyük modellerin eğitim sürelerini haftalardan saatlere indirmiş ve modern yapay zeka devrimini donanım açısından mümkün kılmıştır.
9. Yapay zekanın özellikleri nelerdir ve zamanla nasıl değişti?
Yapay zekanın özellikleri zamanla paradigmalara göre değişmiştir. İlk dönemlerde (Sembolik YZ), temel özellikler mantıksal çıkarım, problem çözme ve sembol işleme idi. Modern derin öğrenme çağında ise özellikler
örüntü tanıma, veriden öğrenme, sınıflandırma, tahmin ve üretkenlik (yeni içerik yaratma) olarak evrilmiştir.
10. IBM Deep Blue’nun satranç zaferi neden bir dönüm noktasıydı?
1997’de IBM Deep Blue’nun dünya satranç şampiyonu Garry Kasparov’u yenmesi, sembolik bir dönüm noktasıydı. Bu zafer, bir makinenin insan zekasının en karmaşık alanlarından biri olarak görülen stratejik oyunda insanı yenebileceğini gösterdi. Daha da önemlisi, bunu insan gibi “düşünerek” değil, muazzam bir hesaplama gücü (“kaba kuvvet”) kullanarak başardı. Bu, zekaya giden tek yolun insan taklidi olmadığını ve veri ile hesaplama gücünün önemini vurgulayarak makine öğrenmesi çağına geçişi hızlandırdı.