Yapay zeka antik kökleri, ancak özellikle ikinci yarısında XX inci yüzyılın o çıkardı ve tarihsel bir okuma mümkün hale gelir.
Yapay zekanın (veya YZ'nin) ilk tarihi kilometre taşları, efsanelerin, efsanelerin ve söylentilerin usta zanaatkarlar tarafından yapılan yapay varlıklara bir zeka veya vicdan bahşettiği Protohistory'ye dayanır ; Pamela McCorduck'un yazdığı gibi, yapay zeka "eski Tanrı'yı oynama arzusuyla" başlar.
Bugün anladığımız şekilde Yapay zeka içeren klasik filozofların, tarafından başlatılan Gottfried Wilhelm Leibniz onun ile hesap ratiocinator örnekleri yapmak isteyen olmadan, sembollerin mekanik manipülasyonu gibi insan düşüncesinin sürecini açıklamak için deneyin. Bu düşünce , 1940'larda programlanabilir bilgisayarın icadıyla somutlaştı ve bu alet ve arkasındaki fikirler, bir "elektronik beyin" in fizibilitesini ciddi şekilde tartışmaya başlayan bilim adamlarına ilham verdi.
Yapay zeka araştırmaları , 1956 yazında Dartmouth College kampüsünde yapılan bir konferanstan sonra başladı . Bu toplantının ardından, bazı katılımcılar yapay zeka araştırmalarına yatırım yaptı. Bazı ütopyacılar, bir insan kadar zeki bir makinenin bir nesilden daha kısa sürede var olacağını ve daha sonra bu tahmini somutlaştırmak için milyonlarca dolar yatırım yapılacağını tahmin ettiler. Zamanla, bu duyurunun özünde var olan zorlukların büyük ölçüde küçümsenmiş olduğu ortaya çıktı. 1973'te, bilim adamlarının, özellikle James Lighthill'in eleştirilerine ve parlamenterlerin sürekli baskısına yanıt olarak , İngiliz ve Amerikan hükümetleri , rehberlik olmaksızın yapay zeka araştırmaları için sübvansiyonları durdurdu. Yedi yıl sonra, Japonya Kabinesi'nin kehanet girişimini takiben , hükümetler ve endüstri yapay zekaya yeniden yatırım yaptı, ancak 1980'lerin sonunda hayal kırıklığına uğramış politika yapıcılar fonlarını tekrar geri çekti. Bu nedenle, donma ve çözülme dönemlerinin değiştiği bu testere dişi döngüsünün yapay zeka desteğini karakterize ettiğini söyleyebiliriz. Ancak her zaman cesur tahminlerde bulunacak idealistler vardır.
Her neyse, iniş çıkışlara ve teknokratların ve yatırımcıların isteksizliğine rağmen yapay zeka ilerliyor. 1970 yılında ulaşılamayacağı düşünülen sorunlar çözülmüş ve çözümleri ticari olarak dağıtılmıştır. Bu aynı zamanda, geçmişte yalnızca sezgisel yöntemlerle elde edilebilen çözümleri programlamayı mümkün kılan algoritmalardaki ilerlemelerden de kaynaklanmaktadır. Ancak, ilk nesil araştırmacıların iyimser tahminlerinin aksine, güçlü yapay zekaya sahip bir makine henüz inşa edilmedi. Alan Turing , düşünme makineleri üzerine modern araştırmaların habercisi olan 1950 tarihli ünlü bir makalesinde , "Kısa vadeyi ancak bir anlığına görebiliriz," dedi . "Ama" ekliyor, "geriye kalan işin boyutunu öngöremiyoruz".
Başlangıçta iki yaklaşım karşı karşıya gelir: düşüncenin "evrensel yasalarını" yeniden yaratmayı amaçlayan ve Turing'in makinesi konseptinden esinlenen mantıkçı veya sembolik yaklaşım ve yapmaya çalışan Frank Rosenblatt'ın somutlaştırdığı sinirsel yaklaşım . beyindeki biyolojik süreçleri taklit eder. Russell , Frege , Vienne çemberi , matematiksel mantık vb.'nin çalışmalarından esinlenen mantıkçı yaklaşım , yapay zeka alanındaki araştırmaları finanse eden ana kuruluş olan DARPA'da kazanırsa , nöral yaklaşım 1980'lerde yeniden ortaya çıkar ve bağlantısallık üzerine ilham verici bir çalışma .
Yapay zeka öncelikle Amerika Birleşik Devletleri'nde geliştirildiği için bu makale öncelikle bu ülkeye odaklanacak.
McCorduck 2004 "2004 yılında yazdığı Yapay zeka mitlere, efsanelere, hikayeleri, spekülasyonlar ve bir form veya başka bir Batılı düşünce, gerçekleştirilmekte olan korkunç ihtiyacı olan bir rüyanın tarih boyunca yayılmasını olan bir fikirdir" antropomorfik otomatonlardan arasında insanlık.
Yunan mitolojisinde mekanik adamlar ve yapay varlıklar mevcuttur , dolayısıyla Hephaestus , Pygmalion ve Galatea'nın altın robotları , Orta Çağ'da ise ruhları aşılamak için mistik sırlar veya simya teknikleri hakkında söylentiler dolaşmaktadır , mesela Takwin of Geber , homunculi arasında Paracelsus ve Golem'i ait Maharal . In XIX inci yüzyıl , suni erkek ve düşünme makineler fikri gibi kurmaca yapıtlar cisimlendirilir Frankenstein ait Mary Shelley veya RUR (Rossum'un Universal Robots) tarafından Karel Capek ve aynı spekülatif test Makineleri arasında Darwin tarafından Samuel Butler . AI, bilim kurgunun önemli bir parçasıdır .
Of antropomorfik robotlar çalıştı Yan Shi dahil tüm medeniyetlerin, ustalar tarafından inşa edildi gerçekçi Ji Man , İskenderiye Hero , el-Cezerî ve Wolfgang von Kempelen . En eski otomatlar, eski Mısır ve eski Yunanistan'ın kutsal heykelleridir . İnananlar, zanaatkarların bu heykelleri bilgelik ve duyguya sahip gerçek ruhlarla doldurduğuna ikna olmuşlardı - Hermes Trismegistus , "tanrıların gerçek doğasını keşfederek, insan onu yeniden üretebildi" diye yazmıştı. PLC Vaucanson XVIII inci yüzyılın bir temsil ördek sırasında bir yapay çarpıcı uygulanması, yaşam bazı işlevlerini yerine olabilirsiniz Türk satranç oyuncusu arasında Johann Wolfgang von Kempelen bir sahtekarlık oldu.
Yapay zeka, insan düşünce sürecinin mekanize edilebileceği varsayımına dayanır. Mekanik - veya "biçimsel" muhakeme çalışmaları uzun bir geçmişe sahiptir. Çinli , Hintli ve Yunan filozoflarının tümü, MS birinci milenyum boyunca yapılandırılmış resmi çıkarım yöntemleri geliştirdiler . AD Fikirleri yüzyıllar boyunca Aristoteles ( kıyaslamanın resmi bir analizini yapan ), Öklid ( unsurları biçimsel akıl yürütme modeli olan), Al-Harizmi ( cebire borçlu olan ve adı " algoritma " veren) ve William of Ockham ve Duns Scotus gibi Avrupalı skolastik filozoflar .
Mayorka filozofu Raymond Lulle (1232–1315) , mantıksal yollarla bilginin üretimine adanmış birkaç mantıksal makine tasarladı ; Sükunet temel ve vazgeçilmez gerçekleri birleştirebilir mekanik birimler olarak onun makineleri tarif boyunca tüm bilgi mümkün üretecek şekilde, mekanizmalarla makine tarafından üretilen basit lojik ile ilişkili işlemler. Llull'un çalışması, fikirlerini yeniden geliştiren Leibniz üzerinde büyük bir etkiye sahip .
In XVII inci yüzyılın , Gottfried Leibniz , Thomas Hobbes ve Descartes herhangi rasyonel düşünce cebir veya geometri gibi sistemli olarak olması ihtimalini araştırdı. Gelen Leviathan ait Hobbes , ünlü cümle vardır: "sebebi [...] hesapla başka bir şey olmasıdır" Leibniz , argümantasyonu bir hesaplamayla eşitleyecek evrensel bir akıl yürütme dili (sa characteristica universalis ) tasarladı , böylece “iki filozof arasında iki muhasebeci arasındakinden daha fazla tartışmaya gerek yok. Çünkü tek yapmaları gereken kalem ve arduvazlarını ellerine almak ve birbirlerine (gerekirse bir arkadaşıyla şahit olarak): Hesaplayalım! ". Bu filozoflar , daha sonra YZ araştırmasının dogmalarından biri haline gelecek olan fiziksel bir sembol sisteminin varsayımlarını ifade etmeye başladılar .
In XX inci yüzyıl , çalışma matematiksel mantık akla yatkın yapay zeka yapmış gelişmelerin çoğu sağlamıştır. Vakıf gibi işlerle atıldı Kanunlar Düşünce tarafından Boole ve Ideography tarafından Frege . Frege'nin sistemini temel alan Russell ve Whitehead , 1913 başyapıtı Principia Mathematica'da matematiğin temellerinin biçimsel bir incelemesini sundular . Russell'ın başarısından ilham alan David Hilbert , 1920'ler-1930'ların matematikçilerine şu temel soruyu yanıtlamaları için meydan okudu: "Matematiksel akıl yürütme olabilir mi? tamamen resmileştirilmiş mi? " "Biz onun soruya cevap eksiklik teoremleri arasında Gödel , Makine ve Turing ve Lambda calculus of Church . Yanıtları birkaç yönden şaşırtıcıydı. Birincisi, matematiksel mantığın başarabileceği şeyde aslında sınırlamalar olduğunu kanıtladılar.
Ama aynı zamanda (ve daha da önemlisi YZ için) çalışmaları, bu koşullar altında herhangi bir matematiksel muhakemenin mekanize edilebileceğini öne sürdü . Kilise tez matematiksel kesinti herhangi akla sürecini taklit olabilir, 0 ve 1 olarak basit gibi semboller manipüle, mekanik bir cihaz içeriyordu. Bu anahtar kavram, Turing Makinesine çevrildi - soyut sembol manipülasyonunun özünü yakalayan basit bir teorik yapı. Bu buluş, daha sonra düşünme makinelerinin olasılığını tartışmaya başlayan bir avuç bilim insanına ilham verdi.
Hesaplama makineleri eski zamanlarda ortaya çıktı ve tarih boyunca Leibniz dahil birçok matematikçi ve mühendis tarafından geliştirildi . Başında XIX inci yüzyılın , Charles Babbage programlanabilir hesap makinesi (tasarlanan Analitik Motor şimdiye yapı olmadan). Bunu takiben Ada Lovelace , makinenin "tüm karmaşıklık ve uzunluktaki ayrıntılı ve bilimsel müzik parçalarını oluşturabileceğini" tahmin ediyor.
İlk modern bilgisayarların masif makine olan kriptanaliz ait İkinci Dünya Savaşı (gibi Z3 , ENIAC ve Colossus döşediği teorik temeller gelen ilgili son iki, olarak tasarlanan,), Alan Turing tarafından ve gelişmiş John von Neumann .
Bu makalenin bölümleri hakkında bir not .
1940'larda ve 1950'lerde, çok çeşitli alanlardan (matematik, psikoloji, mühendislik, ekonomi ve siyaset bilimi) bir avuç bilim adamı yapay bir beyin yaratma olasılığını tartışmaya başladı. Bu yapay zeka araştırma alanı, 1956'da akademik bir disiplin olarak kuruldu.
Düşünme makineleri alanındaki ilk araştırmalar giderek 1950'lerin başında geç 1930'lardan yayılmış fikirlerin yakınsaması esinlenmiştir. Son araştırmalar nöroloji , beyin elektriksel ağ olduğunu göstermiştir nöronların bakliyat türü gönderilen hep ya -hiçbir şey değil. Sibernetik arasında Norbert Wiener kontrol ve güç sistemlerinin stabilitesi tarif. Bilgi kuramı içinde Claude Shannon dijital sinyalleri (yani hep ya hiç sinyal) açıklar. Teori hesaplama ve Alan Turing hesaplama herhangi bir şekilde dijital olarak temsil edilebilir olduğunu göstermiştir. Bu fikirler arasındaki yakın ilişki, yapay bir beyin inşa etme olasılığını akla getiriyor .
Bu gibi bu ven robotların çalışma örnekleri Bristol Turtles ait William Gray Walter ve Beast Johns Hopkins (in) . Bu makineler bilgisayar, dijital elektronik veya sembolik muhakeme kullanmaz; tamamen analog devreler tarafından kontrol ediliyorlardı.
Walter Pitts ve Warren McCulloch, ideal yapay sinir ağlarını analiz ettiler ve basit mantıksal işlemleri nasıl gerçekleştirebileceklerini gösterdiler. Daha sonra araştırmacıların sinir ağı olarak adlandıracağı şey hakkında ilk konuşan onlardı . Pitts ve McCulloch'tan ilham alan öğrencilerden biri , o zamanlar 24 yaşında bir öğrenci olan Marvin Minsky idi . 1951'de (Dean Edmonds ile) ilk sinir ağı makinesi olan SNARC'yi yaptı . Minsky, önümüzdeki elli yılın en önemli AI liderlerinden ve yenilikçilerinden biri olmaya devam edecekti.
1951 yılında kullanarak Ferranti Mark I makineyi gelen Manchester Üniversitesi'nde , Christopher Strachey bir yazdı dama programı ve Dietrich Prinz bir yazdı satranç programı. Arthur Samuel'in dama mid-1950 ve 1960'ların başında geliştirilen, sonuçta iyi bir amatör meydan için yeterli bir seviyeye satın aldı. Aslında, oyunlarda yapay zeka , yapay zeka alanındaki gelişmeler için bir ölçüt görevi görüyor.
1950'de Alan Turing , gerçek zekaya sahip makineler yaratma olasılığı üzerine spekülasyon yaptığı unutulmaz bir makale yayınladı . "Zeka" yı tanımlamanın zor olduğunu fark eder ve ünlü Turing testini hayal eder . Bir makine, bir insanla yapılan bir konuşmadan ayırt edilemeyen bir konuşmayı ( araya teleprinter aracılığıyla ) yürütebiliyorsa , makine "akıllı" olarak tanımlanabilir. Sorunun bu basitleştirilmiş versiyonu, Turing'in bir "düşünen makine" nin en azından makul olduğuna dair ikna edici bir argüman yapmasına izin verdi , bu makale bu önermeye yönelik tüm klasik itirazları yanıtlıyor. Turing testi, yapay zeka felsefesi alanındaki ilk ciddi hipotezdi.
1950'lerin ortalarında bilgisayarlara erişim mümkün hale geldiğinde, başlangıçta az sayıda olan bilim adamları, sayıları manipüle edebilen bir makinenin sembolleri de manipüle edebileceğini ve sembollerin bu manipülasyonunun potansiyel olarak kullanılabileceğini fark ettiler. Bu, ilk düşünme makinelerinin geliştirilmesine yol açtı.
1955 yılında Allen Newell ve gelecekteki ekonomi Nobel ödüllü , Herbert Simon yardımıyla, Cliff Shaw , “oluşturdu Mantıksal kuramcı ”. Program sonunda ilk 52 teoremleri 38 ispat edecek bir Russell ve Whitehead ' Principia Mathematica ve hatta roman ve zarif kanıtlar bulmuştur. Simon, " maddeden oluşan bir sistemin zihnin özelliklerine nasıl sahip olabileceğini açıklayarak saygıdeğer zihin-beden problemini çözdüklerini" söylüyor . Bu, John Searle'in daha sonra " güçlü yapay zeka " olarak adlandıracağı felsefi bir hareketin ilk formülasyonlarından biridir : insanlar gibi, makineler de bir zihne sahip olabilir.
1949'da Warren Weaver , yapay zekanın bu temel sorununun geleceği hakkında hem vizyoner hem de iyimser olan doğal dillerin otomatik tercümesi hakkındaki muhtırasını yayınladı .
Dartmouth Konferansı 1956 tarafından düzenlenen Marvin Minsky , John McCarthy : ve iki üst düzey bilim adamları Claude Shannon ve Nathan Rochester (in) için IBM . Konferans tezi şu iddiayı içeriyordu: "Öğrenmenin her yönü veya zekanın diğer herhangi bir özelliği o kadar kesin bir şekilde tanımlanabilir ki, bir makine onu simüle etmek için tasarlanabilir." Katılımcılar arasında , AI araştırmalarının ilk on yıllarında önemli programlar oluşturacak olan Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell ve Herbert Simon vardı. Konferansta Newell ve Simon , " teorisyen Mantığı " ( mantık teorisyeni ) başlattı ve McCarthy, izleyiciyi "Yapay Zeka" terimini alanın başlığı olarak kabul etmeye ikna etti. 1956 Dartmouth Konferansı, yapay zekanın bu şekilde adlandırıldığı, hedeflerini belirlediği, ilk başarılarını gerçekleştirdiği ve önemli oyuncularını bir araya getirdiği kilit andı. Bu konferans, Batı dünyasında yapay zekanın bağımsız bir teorik disiplin (bilgisayar biliminin) .
Dartmouth konferansını takip eden yıllar, yeni bilgi topraklarının çılgınca fethi için bir keşif çağıydı. O dönemde geliştirilen programlar çoğu insan tarafından sadece "sıradışı" olarak görülüyor: bilgisayarlar cebirsel kelime problemlerini çözüyor, geometride teoremleri gösteriyor ve İngilizce konuşmayı öğreniyor. O zamanlar, çok az kişi bu tür "akıllı" davranışların makineler için mümkün olduğuna inanıyordu. Araştırmacılar daha sonra makalelerinde olduğu gibi özel sektörde yoğun bir iyimserlik gösteriyor, önümüzdeki 20 yıl içinde tamamen akıllı bir makinenin yapılacağını öngörüyorlar. DARPA gibi devlet kurumları bu yeni alana yoğun bir şekilde yatırım yapıyor.
Birçok program başarılı.
Deneme yanılma yoluyla muhakemeAynı temel algoritmayı kullanan ilk yapay zeka programlarının çoğu çoktur . Belirli hedefleri tamamlamak için (bir oyunu kazanmak veya bir teoremi göstermek gibi), çözüme doğru adım adım ilerlerler (her seferinde bir hareket veya bir kesinti yaparak) sanki bir labirentte ilerliyormuş gibi, oldukları anda geri dönerler. bir çıkmaza girerler. Bu paradigmaya "deneme yanılma mantığı" veya geriye dönük izleme denir .
Asıl zorluk, birçok problem için çözüme giden olası yolların sayısının astronomik olması, ünlü " kombinatoryal patlama " olması gerçeğinde yatmaktadır . Araştırmacılar daha sonra , bir çözüme götürme olasılığı düşük olan yolların çoğunu ortadan kaldıran buluşsal yöntemler veya " pratik kurallar" kullanarak arama alanını azaltmaya çalıştılar .
Newell ve Simon , Genel Problem Çözücü adlı bir programda bu algoritmanın genel bir versiyonunu yakalamaya çalışıyor . Bazı "araştırma" programları, Herbert Gelernter'in Geometri Teoremi Atasözü (1958) ve Minsky'nin öğrencilerinden biri olan James Slagle tarafından yazılan SAINT ( 1961). Diğer programlar , robotları Shakey'in davranışını kontrol etmek için Stanford'da geliştirilen STRIPS sistemi gibi eylemleri planlamak için hedefler ve alt hedeflere bakar .
Doğal lisanYapay zeka araştırmasının temel amacı, bilgisayarların İngilizce gibi doğal dilde iletişim kurmasını sağlamaktır . Birinci başarı programıydı ÖĞRENCİ ait Bobrow lise öğrencileri için yazılı cebirsel problemleri çözebiliriz.
Bir semantik ağ kavramları (örneğin "ev", "kapı") kullanılarak düğümlerin ve bu düğümler arasında bağlantılar tarafından kavramlar arasındaki ilişkileri (örneğin, "birine sahiptir") temsil eder. Bir semantik ağı kullanan ilk AI programı tarafından yazılmıştır Ross Quillian ve en güçlü versiyonu (ve tartışmalı) idi Kavramsal bağımlılık teorisi ait Roger Schank .
ELIZA by Joseph Weizenbaum konuşmaları o kadar gerçekçi yönetebilirdi ki, bazı kullanıcılar bir programla değil, bir insanla iletişim kurduklarına inanarak kandırıldılar. Gerçekte ELIZA'nın neden bahsettiği hakkında hiçbir fikri yoktu. Basitçe bir "tekne cevabı" verdi veya birkaç gramer kuralı kullanarak yanıt olarak yeniden ifade etti. ELIZA ilk konuşma ajanıydı .
Mikro dünyalar1960'ların sonlarında , MIT Yapay Zeka Laboratuvarı'ndan Marvin Minsky ve Seymour Papert , yapay zeka araştırmasının mikro dünyalar olarak da adlandırılan yapay olarak basitleştirilmiş durumlara odaklandığını öne sürdü. Fizik gibi yüksek performanslı bilimlerde temellerin çoğu zaman en iyi sürtünmesiz uçaklar veya mükemmel sert gövdeler gibi basitleştirilmiş modeller kullanılarak anlaşıldığını belirttiler. Daha sonra araştırmanın çoğu, düz bir yüzey üzerinde düzenlenmiş çeşitli şekil ve boyutlarda bir dizi renkli bloktan oluşan bir " blok dünya " üzerine odaklandı .
Bu paradigma, (takımı yöneten) Gerald Sussman , Adolfo Guzman , David Waltz (" kısıt yayılımını " icat eden ) ve özellikle Patrick Winston'un makine vizyonunda yenilikçi çalışmalara olanak sağladı . Aynı zamanda, Minsky ve Papert blokları bir araya getiren ve bu blok dünyalara hayat veren robotik bir kol inşa ediyorlardı. Bu mikro-dünyalar programlarının büyük başarısı oldu SHRDLU ait Terry Winograd . İkincisi, sıradan cümleler kullanarak İngilizce iletişim kurabilir, işlemleri planlayabilir ve gerçekleştirebilir.
İlk nesil yapay zeka araştırmacıları, çalışmaları hakkında şu öngörülerde bulunur:
İçinde Haziran 1963MİT (daha sonra oldu, "Gelişmiş Araştırma Projeleri Ajansı" yavru kuş ARPA $ 2.2 million alır DARPA ). Para, beş yıl önce Minsky ve McCarthy tarafından kurulan "AI Grubu" nu içeren Proje MAC (in) ' i finanse etmek için kullanılıyor . ARPA ARPA benzer hibe programı yapılmış yılda 1970 yılına kadar üç milyondan dolar vermeye devam Newell ve Simon de Carnegie Mellon ve projenin Stanford AI (1963 yılında John McCarthy tarafından kurulan). Bir başka önemli AI laboratuvarı, Edinburgh Üniversitesi'nde 1965 yılında Donald Michie tarafından kuruldu . Bu dört kurum, uzun yıllar boyunca akademik düzeyde AI araştırmalarının ana merkezleri olmaya devam etti.
Para çok az kontrolle dağıtılır. En eski Minsky profesörü Harvard , JCR Licklider ardından ( "Bilgi İşleme Teknolojisi Bürosu" başkanı IPTO ) ve yönetmeni Komuta Kontrol Programı ARPA de, organizasyonunun gereken "fon insanlar değil, projeler inanıyor! »Ve araştırmacılara, kendilerine ilginç gelen tüm caddeleri takip etme yetkisi verir. Bu, MIT'de hacker kültürünü doğuran tam bir özgürlük atmosferi yaratır . Licklider (1962-64) Ivan Sutherland (1964-66), Robert Taylor (1966-69) ve Lawrence Roberts (1969-1972) yerine MIT'ye yakın ve Licklider'ın IA karşısında sürekliliğini sağladı. Ancak, bu uygulamalı tutum uzun sürmez.
Yapay zeka araştırmacıları, karşılaştıkları sorunların zorlukları hakkında net bir görüşe sahip olmadıkları için, 1970'lerde yapay zeka eleştirilere ve bütçe aksamalarına maruz kaldı. Onların muazzam iyimserlikleri, aşırı beklentilere yol açtı ve vaat edilen sonuçlar gerçekleşmediğinde, yapay zekaya yapılan yatırımlar zayıflıyor. Aynı dönemde Marvin Minsky'nin algılayıcılar üzerine yaptığı yıkıcı eleştirilerle bağlantısallık 10 yıl boyunca neredeyse tamamen rafa kaldırıldı . 1970'lerin sonlarında kamuoyunda yapay zekanın olumsuz imajına rağmen, mantık programlamada , sağduyu muhakemesinde ve diğer yönlerde yeni fikirler araştırılıyor .
1970'lerin başında, AI programlarının kapasitesi sınırlıydı. En iyi performans gösterenler, çözmeleri gereken problemlerin basit versiyonlarını manipüle etmekte zorlanırlar ve tüm problemler, bir bakıma "önemsiz şey" dir. Aslında, AI araştırmacıları birkaç aşılmaz temel sınırla karşı karşıyadır ve o zamandan beri bazı sınırlar aşılmış olsa da, diğerleri gerçek engeller olarak kalmaya devam etmektedir.
Bilgi işlem gücünün sınırlarıZamanın gücü ve hafızası, haklı olarak pratik uygulamalara gerçek bir engel olarak görülüyordu; basit modelleri göstermek için zar zor yeterli oldular.
Bu nedenle, Ross Quillian'ın doğal dil üzerine çalışması yirmi kelimelik bir kelime dağarcığı ile sınırlıdır , çünkü hafıza daha fazlasını tutamaz.
Buna ek olarak, Hans Moravec 1976'da bilgisayarların milyonlarca kez herhangi bir istihbarat gösteremeyecek kadar zayıf olduğundan, minimum kritik eşiğe ulaşmaktan çok uzak olduklarından şikayet ediyor. Eşik ile ne demek istediğini daha iyi anlamak için, şu benzetmeyi kullanıyor: "Belli bir güç seviyesinin altında, bir uçak yerde düz kalır ve hiç kalkamaz, bu imkansızdır". Ancak, bilgi işlem gücü arttıkça , sonunda mümkün hale gelecektir.
Gibi bilgisayar vizyonu için , Moravec o basitçe 10 yapabilen bir jenerik bilgisayar gerektirecektir gerçek zamanlı hareket ve hatlarını (basit bir sorunu bu gün) tespit etmek için insan retinanın yeteneklerini eşleşen tahmin 9 operasyonlar / saniye. (1000 MIPS ). Karşılaştırıldığında, 1976'daki en hızlı bilgisayar olan Cray-1 (fiyatı 5 ila 8.000.000 $ arasında ), yalnızca 80 ila 130 MIPS kapasitesine sahipti ve zamanın tipik bir masaüstü bilgisayarı 1 MIPS'e bile ulaşmadı. Aslında, o dönem için etkileyici olan tahmini fazlasıyla iyimserdi: 2011'de gerçek dünyadaki bilgisayarla görme uygulamaları 10.000 ila 1.000.000 MIPS yerine on ila bin kat daha fazla güce ihtiyaç duyuyordu .
İçsel Sınırlamalar: NP Tamlığı1972 yılında aşağıdaki Cook'un teoremi , Richard Karp olduğunu göstermiştir birçok çok zor problemler bulma optimum çözümler yapay zeka temel sorunları geçmesi olmaz. Ölçeğinde sonucu ile, düşünülemez olduğu için.
Genel kültürün muhakeme ve bilgi tabanıBilgisayarla görme veya otomatik doğal dil işleme gibi birçok büyük yapay zeka uygulaması, gördüklerini veya gördüklerini "anlayabilen" programları kurmak için gerçek dünyadan çok büyük miktarda bilgi gerektirir. 1970'lerin başlarında, bu alanlardaki araştırmacılar, bir çocuk çok hızlı bir şekilde edinmesine rağmen, karşılık gelen bilgi miktarının çok büyük olduğunu keşfettiler. O zamanlar böyle bir veritabanı veya bu kadar çok bilgiyi işleyebilecek bir program oluşturmak mümkün değildi.
Moravec paradoksuYapay zeka ve robotik araştırmacıları Hans Moravec , Rodney Brooks ve Marvin Minsky , üst düzey muhakemenin bir bilgisayar programı tarafından yeniden üretilmesinin ve simüle edilmesinin, insan sensorimotor becerilerinden daha kolay olduğunu keşfettiler. Bir insan, birincisinin aksine, ikinci kategoriye giren görevleri yerine getirmede özel bir güçlük çekmediğinden, bu mantık dışı görünebilir.
Örneğin, teoremleri göstermek veya geometrik problemleri çözmek nispeten bilgisayarlar tarafından yapılabilir, ancak bir insan için bir yüzü tanıma veya çarpışmadan bir odayı geçmek gibi daha basit bir görev, makineler için uzun zamandır çok karmaşık olmuştur. Bu nedenle, bilgisayarla görme ve robotik alanındaki araştırmalar 1970'lerin ortalarında çok az ilerleme kaydetti.
Çerçeve ve yeterlilik konularındaMantığı kullanan yapay zeka araştırmacıları ( John McCarthy gibi ) , mantığın yapısını değiştirmek zorunda kalmadan planlama veya varsayılan akıl yürütmeyi içeren sıradan çıkarımları temsil edemeyeceklerini keşfettiler . Bu sorunları çözmeye çalışmak için yeni mantıklar ( monoton olmayan ve modal mantık gibi ) geliştirmeleri gerekiyordu.
Yapay zeka araştırmalarına yatırım yapan ajanslar ( İngiltere hükümeti , DARPA ve NRC, Amerikan Araştırma Konseyi gibi ) ilerleme eksikliğinden hüsrana uğruyor ve neredeyse tüm temel yapay zeka araştırma fonlarını kesiyor. Bu davranış, bir ALPAC raporunun makine çevirisi çabalarını eleştirdiği 1966 gibi erken bir tarihte başladı. 20 milyon dolar harcadıktan sonra, NRC her şeyi durdurmaya karar verir. 1973 yılında Lighthill raporunda (in) İngiltere'deki yapay zeka araştırmasının durumu, yapay zekanın "hırslı" olana ulaşmasındaki iç karartıcı başarısızlığını eleştirdi ve bu ülkedeki yapay zeka araştırmasının ortadan kaldırılmasına yol açtı (Bu rapor, özellikle kombinatoryal patlama sorunundan biri olarak bahseder . AI başarısızlıklarının nedenleri). DARPA'ya gelince , Carnegie-Mellon'daki Konuşma Anlama Araştırma programında çalışan araştırmacılar son derece hayal kırıklığına uğradı ve yıllık 3 milyon dolarlık hibe iptal edildi. 1974 civarında, AI projeleri için fon bulmak bu nedenle nadirdi.
Hans Moravec , krizi meslektaşlarının gerçekçi olmayan tahminlerine bağladı. “Pek çok araştırmacı, kendilerini büyüyen bir abartı ağına hapsolmuş halde buldu. Başka bir sorun ortaya çıktı: 1969'da Mansfield Değişikliği için yapılan oylama, DARPA'yı temel keşif araştırmaları yerine yalnızca "doğrudan uygulanabilir araştırmaları" finanse etmesi için artan bir baskı altına soktu. Altmışlarda olduğu gibi yaratıcı, serbest sürüş keşifleri için finansman artık DARPA'dan gelmeyecekti. Bunun yerine para, otonom ana muharebe tankları veya savaş yönetim sistemleri gibi belirli hedeflere sahip belirli projelere yönlendirildi.
Bazı filozofların yapay zeka araştırmacılarının iddialarına karşı güçlü itirazları var. Rakiplerinin bir ilk John Lucas dayanır, eksiklik teoremi arasında Gödel yeteneğini meydan otomatik teoremi göstericilerin bazı iddiaları göstermek için. Hubert Dreyfus , altmışların tutarsız vaatleriyle alay ediyor ve insan muhakemesinin aslında çok az "sembolik işlemeye" ihtiyaç duyduğunu, ancak her şeyden önce bir bedenlenme , içgüdü , bilinçsiz bir " know-how " hissine ihtiyaç duyduğunu savunarak yapay zekanın hipotezlerini eleştiriyor . John Searle tarafından 1980'de ileri sürülen Çin odası argümanı , bir programın kullandığı sembolleri "anladığının" söylenemeyeceğini göstermeye çalışır (" kasıtlılık " adı verilen bir nitelik ). Sembollerin makine için bir anlamı yoksa, Searle, makineyi "düşünme" olarak nitelendiremez, diyor.
Bazıları sorunun özünü hedef almadığından, bu eleştiriler AI araştırmacıları tarafından gerçekten dikkate alınmamaktadır. Kararsızlık, içsel karmaşıklık veya genel kültürün tanımı gibi sorular çok daha acil ve ciddi görünüyor. "Know-how" ve "kasıtlılık" arasındaki farkın bir bilgisayar programına çok az şey kattığını düşünüyorlar . Minsky , Dreyfus ve Searle hakkında "soruyu yanlış anladıklarını ve onları görmezden gelmemiz gerektiğini" söylüyor. MIT'de öğretmenlik yapan Dreyfus'un eleştirmenleri yeni karşılanıyor: Daha sonra yapay zeka araştırmacılarının "birlikte görüneceğimiz korkusuyla benimle yemeye cesaret edemediklerini" itiraf etti. Joseph Weizenbaum , yazarı ELIZA , doğru meslektaşlarının davranışı düşünmektedir Dreyfus profesyonelce ve çocukça. Dreyfus'un tutumlarını açıkça eleştirmesine rağmen, bunun birine davranmanın [yolu] olmadığını açıkça belirtiyor.
Weizenbaum zaman AI konusunda ciddi etik şüphelerim var başlar Kenneth Colby yazıyor DOKTORUNUZA , bir konuşma ajan terapist. Weizenbaum, Colby'nin Mindless programını ciddi bir tedavi aracı olarak görmesinden utanıyor. Ardından bir kan davası başlar ve Colby Weizenbaum'un programa katkısından bahsetmediğinde durum daha da kötüleşir. 1976'da Weizenbaum , bilgisayar gücünü yayınladı ve insan aklını (in) , yapay zekanın kötüye kullanımının potansiyel olarak insan hayatını değersizleştirebileceğini açıkladı.
Bir algılayıcı türüdür sinir ağı tarafından 1958 yılında tanıtılan Frank Rosenblatt . Günün çoğu AI araştırmacısı gibi, iyimser ve "bir algılayıcının öğrenebileceğini, karar verebileceğini ve dilleri çevirebileceğini" tahmin ediyor. Altmışlarda bu kavramlar üzerine dinamik bir araştırma programı yürütüldü, ancak Minsky ve Papert'in 1969 tarihli Perceptrons adlı kitabının yayınlanmasının ardından aniden durdu . Bu kitap, algılayıcıların yapabileceklerinin birkaç sınırına dikkat çekiyor ve Frank Rosenblatt'ın tahminlerindeki bazı abartılara dikkat çekiyor . Kitabın etkisi yıkıcı: on yıl boyunca bağlantıcılık alanında hiçbir araştırma yapılmadı. Ancak on yıl sonra, özellikle Fransa'da, Guy Perennou ve Serge Castan'da, yeni nesil araştırmacılar sorunu yeniden ele aldı.
John McCarthy , 1958 gibi erken bir tarihte, Advice Taker'da AI'da mantık kullanımını tanıttı . 1963'te J. Alan Robinson , kesinti uygulamak için nispeten basit bir yöntem keşfetti. Bunun için çözüm ve birleşme kavramlarını icat ediyor . Gerçekte, McCarthy ve öğrencileri tarafından altmışlı yılların sonlarında denedikleri gibi daha doğrudan uygulamaların özellikle verimsiz olduğu gösterilmiştir, çünkü algoritmalar çok basit teoremleri kanıtlamak için astronomik sayıda adım gerektirir. Mantık bir daha verimli kullanılması ile 1970'lerde geliştirildi Alain Colmerauer ve Philippe Roussel de Marseille-Luminy Üniversitesi ve Robert Kowalski (in) de Edinburgh Üniversitesi'nden programlama dilini yarattı Prolog . Prolog bir alt kümesini kullanır Yüklemlerinin hesaplama , Horn maddeleri daha etkili hesaplamalar sağlar. Diğer araştırmacılar , Edward Feigenbaum'un uzman sistemleri ve Allen Newell ve Herbert Simon için Soar and Theory birleşik biliş ["Unified Theory of Cognition"] için yazılım da dahil olmak üzere üretim kurallarını kullanır.1990.
Mantıksal yaklaşım, başlangıcından bu yana eleştirildi. Böylece Hubert Dreyfus , insanların problemleri çözerken mantığı nadiren kullandıklarını belirtiyor. Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman ve diğerleri gibi psikologların deneyimleri bu görüşü aşağı yukarı doğrular. McCarthy, insanların yaptıklarının alakasız olduğunu söyleyerek, amacın insanlar gibi düşünen makinelere değil, sorunları çözebilen makinelere sahip olmak olduğunu açıkladı. Ancak otomatik tümdengelime dayalı yaklaşımın en ciddi eleştirisi, teorem-Kanıtlama Prosedürlerinin Karmaşıklığı adlı ünlü makalesinde ' P = NP olmadığı sürece teoremleri kanıtlamak için etkili otomatik prosedürler olmadığını gösteren bilgisayar teorisyeni Stephen Cook'tan geliyor .
McCarthy'nin yaklaşımını eleştirenler arasında MIT Marvin Minsky'deki meslektaşları , Seymour Papert ve Roger Schank , bir insan gibi düşünmek için bir makine gerektiren "bir hikayeyi anlamak" ve "nesneleri tanımak" gibi sorunları çözmeye çalıştılar. Bir "sandalye" veya "restoran" gibi sıradan kavramları manipüle etmek için, insanların genellikle yaptığı aşağı yukarı mantıksal varsayımların aynısını yapmaları gerekir. Ne yazık ki, bu tür kesin olmayan kavramların mantıkta temsil edilmesi zordur. Gerald Sussman , "kesin olmayan kavramları tanımlamak için kesin bir dil kullanmanın onları daha kesin hale getirmediğini" gözlemliyor. Schank alogical, bu yaklaşımları " dağınık ( içeri ) " olarak tanımlar , McCarthy, Kowalski, Feigenbaum , Newell ve Simon tarafından kullanılan " zarif ( içeri ) " paradigmalarına karşı çıkar .
1975'te Minsky, meslektaşlarının "taslaklarının" çoğunun aynı yaklaşımı, yani belirli bir temada (içinde) tüm genel kültürel varsayımları kapsayan bir çerçeve kullandığını not eder . Örneğin, “kuş” kavramını manipüle edersek, akla bir sürü gerçek gelir, böylece uçtuğunu, solucanları yediğini vb. İddia edebiliriz . . Bu gerçeklerin her zaman doğru olmadığını ve bu gerçeklerden tüm çıkarımların "mantıklı" olmadığını biliyoruz, ancak bu yapılandırılmış varsayımlar, tartışmalarımızın veya düşüncelerimizin bağlamının bir parçası . Minsky bu yapılara " çerçeveler " diyor. Bu arada Schank, İngilizce konuşan romanlar hakkındaki soruları yanıtlamak için " senaryo " olarak adlandırdığı bir çerçeve çeşidi sunuyor . Bazıları, birkaç yıl sonra nesne yönelimli programlamanın yapay zeka yöneticilerinden " kalıtım " kavramını ödünç alacağını söylüyor .
1980'lerde, şirketler tarafından " uzman sistemler " adı verilen AI programları benimsendi ve bilgi , AI araştırmalarının ana konusu haline geldi. Bu arada, Japon hükümeti " beşinci nesil bilgisayarlar (inç) " girişimi aracılığıyla büyük yapay zekayı finanse ediyor . Bir diğer olay ise John Hopfield ve David Rumelhart'ın çalışmaları aracılığıyla bağlantının yeniden doğmasıdır .
Bir uzman sistem mantıksal kuralları kullanarak bilginin belirli bir alanda cevaplar soru veya çözer sorunları, o bölgede insan uzmanların bilgisinden türetilen bir programdır. İlk kopyalar Edward Feigenbaum ve öğrencileri tarafından geliştirildi . 1965'te başlayan Dendral , kimyasal bileşenleri spektrometrik okumalardan tanımlar. 1972'de geliştirilen Mycin , kanın bulaşıcı hastalıklarını teşhis etmeyi mümkün kılıyor. Bu programlar, yaklaşımın uygulanabilirliğini doğrular.
Uzman sistemler kasıtlı olarak küçük bir özel bilgi alanıyla sınırlıdır (böylece genel kültür sorunundan kaçınılır ) ve basit tasarımları, bu yazılımı nispeten kolay bir şekilde oluşturmayı ve bir kez uygulandıktan sonra geliştirmeyi mümkün kılar. Son olarak, bu programlar yararlı oluyor çünkü yapay zeka ilk kez pratik bir uygulama buluyor.
1980 yılında , hedefi müşterilere teslim edilecek VAX bilgisayarlarının konfigürasyonunu optimize etmek olan Xcon adlı uzman bir sistem , Carnegie-Mellon tarafından DEC için üretildi . Başarı muazzam çünkü şirket 1986'dan yılda 40 milyon dolara kadar tasarruf edebiliyor. O andan itibaren, dünyanın dört bir yanındaki şirketler uzman sistemlerini geliştirmeye ve uygulamaya başladılar ve 1985 civarında yapay zekaya, özellikle endüstriyel araştırma ve geliştirme merkezlerinde bir milyar dolardan fazla para harcandı. Symbolics ve LMI (Lisp Machines, Inc.) gibi donanım üreticileri ve IntelliCorp ve Aion gibi yazılım şirketleri dahil olmak üzere uzman sistemler etrafında bütün bir endüstri yaratılıyor .
Uzman sistemlerin gücü, içerdikleri uzmanlıktan gelir. Bunlar, 1970'lerde zemin kazanan yeni bir yapay zeka araştırma yönünün parçası. "Yapay zeka araştırmacıları, isteksizce, cimrilik bilimsel kanonuna aykırı olduğu için - zekanın kullanım yeteneğine dayalı olabileceğinden şüphelenmeye başladılar. Pamela McCorduck , farklı şekillerde çok sayıda farklı bilgi ”diyor . Yetmişli yılların en büyük dersi, akıllı davranışların büyük ölçüde bilginin işlenmesine, bazen de belirli bir görev alanındaki çok ileri bilgiye bağlı olduğuydu. " Bilgi tabanı sistemleri ve bilgi mühendisliği , 1980'lerde yapay zeka araştırmalarının merkezi haline geldi.
1980'ler aynı zamanda genel bilgi sorununa karşı ilk saldırı girişimi olan Cyc'in doğuşuna da tanık oldu: Ortalama bir insanın bildiği tüm önemsiz gerçekleri içermek amacıyla devasa bir veri tabanı oluşturuldu. Projeyi başlatan ve yürüten Douglas Lenat , kısayolların olmadığını savunuyor - makinelerin insan kavramlarının anlamını bilmesinin tek yolu onlara her seferinde bir kavramı ve manuel olarak öğretmektir. Tabii ki projenin birkaç on yıl içinde ortaya çıkması bekleniyor.
1981'de Japon Ekonomi, Ticaret ve Sanayi Bakanlığı , beşinci nesil bilgisayar (inç) projesi için 850 milyon ayırdı . Amaçları, konuşmalar yapabilen, görüntüleri tercüme edebilen, yorumlayabilen ve insanlar gibi akıl yürütebilen programlar yazmak ve makineler inşa etmektir. Gelişigüzel yaklaşımın savunucularının üzüntüsüne (in) , projelerinin ana bilgisayar dili olarak Prolog'u seçiyorlar , ayrıca ihtiyaçlarını karşılayacak kadar derinlemesine etkiliyorlar.
Diğer ülkeler yeni eşdeğer programlarla yanıt veriyor. İngiltere, Alvey (in) projesini 350 milyon pound'a başlattı . Amerikan şirketlerinden oluşan bir konsorsiyum, büyük ölçekli bilgisayar ve yapay zeka projelerini finanse etmek için Microelectronics and Computer Technology Corporation'ı (veya MCC ) oluşturur. DARPA da kurucu tepki Stratejik İşlem Girişimi (Stratejik İşlem Girişimi) ve 1984 ve 1988 yılları arasında AI yatırımlarını üç kat arttırmaktadır.
1982'de fizikçi John Hopfield , belirli bir sinir ağının (şimdi " Hopfield ağı " olarak adlandırılıyor ) bilgiyi tamamen yeni bir şekilde öğrenip işleyebileceğini gösterdi. Aynı dönemde, David Rumelhart “ gradyan geri yayılımı ” ( Paul Werbos tarafından birkaç yıl önce keşfedildi) adı verilen yeni bir sinir ağları eğitim yöntemi popüler hale getirdi . Bu iki yeni keşif, 1970'ten beri büyük ölçüde terk edilmiş olan bağlantısallık alanını yeniden canlandırdı .
Genç mülk, Rumelhart ve psikolog McClelland tarafından düzenlenen iki ciltlik bir makale koleksiyonu olan 1986 tarihli Distributed Parallel Processing'in ortaya çıkışıyla birleşti ve ilham aldı . Sinir ağları, 1990'larda, onları optik karakter tanıma ve ses tanıma gibi uygulamaların motoru olarak kullanmaya başladığımızda ticari bir başarı haline gelecektir .
İş dünyasının yapay zekaya olan hayranlığı arttı ve ardından 1980'lerde klasik bir ekonomik balon modelini izleyerek düştü . YZ'nin çöküşü, yatırımcıların ve devlet kurumlarının sahip olduğu algı düzeyinde gerçekleşti - eleştirilere rağmen bilimsel alan ilerlemeye devam ediyor. Rodney Brooks ve Hans Moravec , ilgili alanda araştırmacılar robotik , yapay zeka için tamamen yeni bir yaklaşım için tartışırlar.
“Yapay zeka kışı” ifadesi, 1974 bütçe kesintilerini çoktan deneyimlemiş olan araştırmacılar arasında, uzman sistemlerdeki heyecanın kontrolden çıktığını ve arkasındaki hayal kırıklığının kesinlikle daha fazlası olacağını endişeyle fark eden araştırmacılar arasında dolaştı. Korkuları gerçekten de sağlam temellere dayanıyor: 1980'lerin sonu ile 1990'ların başı arasında, yapay zeka bir dizi bütçe kesintisine uğradı.
Yaklaşan bir fırtınanın ilk işaretleri, 1987'de yapay zeka donanım pazarının aniden çöküşüydü . Apple ve IBM'in masaüstü bilgisayarları, hız ve güç açısından kademeli olarak gelişti ve 1987'de , Symbolics'in en iyi Lisp makineleri gibi, pazarın mücevherleri haline geldi. . Bu nedenle onları satın almak için artık bir neden yok. Bir gecede yarım milyar dolarlık sanayi tamamen yok oluyor.
Son olarak, Xcon gibi ilk başarılı uzman sistemlerin bakımı çok pahalıya mal oldu. Onlar güncelleme zordur, onlar öğrenemez, onlar da "dir kırılgan (in) ve (örneğin yeterlilik sorunu hariç) sorunları dolanarak (parametreler normal değerler dışında zaman iyi, onlar grotesk hata yapabilir)". Uzman sistemlerin yararlı olduğu kanıtlanmıştır, ancak yalnızca çok özel bağlamlarda.
1980'lerin sonlarında, DARPA'nın Stratejik Bilgi İşlem Girişimi , yapay zeka için finansmanı aniden kesti. Yeni DARPA yönetimi, yapay zekanın artık "en son moda" olmadığı sonucuna vararak, hibeleri hızlı sonuçlara daha elverişli projelere yönlendirdi.
1991 yılına gelindiğinde, Japonya tarafından Beşinci Nesil Bilgisayarları için 1981'de listelenen etkileyici hedeflere ulaşılamadı. Ayrıca bazıları, "sıradan bir sohbete liderlik etme" gerçeği gibi, yirmi yıl sonra hala yapılmadı. Diğer yapay zeka projelerinde olduğu gibi, çıta çok yüksek.
1980'lerin sonunda, birkaç araştırmacı, robotik merkezli yapay zekaya tamamen yeni bir yaklaşım için yalvardı. Gerçek zekayı sergilemek için bir makinenin vücudunun farkında olması gerektiğine inanıyorlar - dünyada algılaması, hareket etmesi, hayatta kalması ve gelişmesi gerektiğine inanıyorlar . Bu duyumsal yeteneklerin, genel bilgi muhakemesi gibi daha üst düzey yetenekler için gerekli olduğunu ve soyut muhakemenin aslında en az ilginç veya önemli insan yeteneği olduğunu açıklarlar (bkz. Moravec paradoksu ). Bir zekayı "aşağıdan yukarıya" savunurlar. "
Yaklaşım , altmışlardan beri etkisini yitiren sibernetik ve düzenlemeden doğan kavramları yeniden canlandırıyor . Öncülerden biri olan David Marr , vizyonu inceleyen gruba liderlik etmek için teorik sinirbilimdeki geçmiş başarılarla 1970'lerin sonunda MIT'ye geldi . Tüm sembolik yaklaşımları ( hem McCarthy'nin mantığı hem de Minsky'nin çerçeveleri ) çürütür ve yapay zekanın, sembolik işlemenin devreye girmesinden önce fiziksel görme mekanizmasını aşağıdan anlaması gerektiğini savunur. Çalışması, 1980'de kendisine çarpan lösemi nedeniyle aniden kesintiye uğradı.
Robotik araştırmacısı Rodney Brooks 1990 yılında Filler Satrancı Oynamaz başlıklı bir makalede , fiziksel sembolik sistem hipotezine doğrudan nişan alıyor ve sembollerin her zaman gerekli olmadığını çünkü “Dünya kendi modelidir ve en iyisidir. Her zaman tamamen günceldir. Her zaman gerekli tüm ayrıntıları içerir. İhtiyaç duyulan şey, defalarca doğru şekilde ölçmektir ”. 1980 ve 1990 yılında birçok cogniticians da vücut akıl denilen bir tezi gerekli olduğunu anlatarak aklın sembolik işleme modelini reddedilen uygulama .
Yarım asırdan fazla bir süredir arkasında yatan yapay zeka alanı, nihayet en eski hedeflerinden bazılarına ulaşmayı başardı. Gerçekten ileri sürülmeden de teknolojik sektörde başarıyla kullanmaya başladık. Bazı başarılar bilgisayarların yükselişiyle geldi ve diğerleri, belirli izole sorunlara odaklanarak ve bunları en yüksek bilimsel bütünlük standartlarıyla derinleştirerek elde edildi. Yine de, AI'nın en azından iş dünyasındaki itibarı mükemmel olmaktan uzaktır. İçsel olarak, yapay zekanın 1960'larda dünyanın hayal gücünü yakalayan insan eşdeğeri bir zeka seviyesi hayaline yanıt verememesinin nedenlerini gerçekten açıklayamayız.Tüm bu faktörler, AI'nın birçok rakip alt yapıya bölünmesini açıklar. -özel bir konuya veya yola adanmış alanlar, hatta bazen "yapay zeka" nın artık lekelenmiş ifadesini engelleyen bir ad seçecek kadar ileri gidiyorlar. AI birdenbire hem daha dikkatli hem de her zamankinden daha başarılı oldu.
11 Mayıs 1997, Deep Blue son dünya şampiyonu yenmek için ilk satranç bilgisayar sistemi haline Garry Kasparov . 2005 yılında, bir Stanford robotu, önceden keşif yapmadan bir çöl yolunda otonom olarak 131 mil sürerek DARPA Büyük Mücadelesini kazandı . İki yıl sonra, Carnegie-Mellon'dan bir ekip DARPA Urban Challenge'ı kazandı ve bu kez trafik koşullarına ve yolun kurallarına saygı duyarak kentsel bir ortamda 55 mil boyunca otonom bir şekilde yelken açtı. İçindeŞubat 2011Oyun şovunun bir gösteri oyununda Jeopardy! En büyük iki Jeopardy! şampiyonu Brad Rutter ve Ken Jennings , Watson Araştırma Merkezi'nde IBM tarafından tasarlanan soru-cevap sistemi tarafından rahat bir farkla mağlup edildi .
Bu başarılar, devrim niteliğindeki yeni paradigmalara değil, mühendislik tekniklerinin dikkatli bir şekilde uygulanmasına ve bilgisayarların olağanüstü gücüne dayanmaktadır. Nitekim, Deep Blue makinesi 10 milyon kat daha hızlı daha Ferranti Mark I, Christopher Strachey Bu dramatik artış izler 1951 yılında play satranç öğretti Moore Yasası'nı bu hız ve bilgisayar belleği yeteneği her iki yılda iki katına öngörüyor. "Bilgi işlem gücü" üzerindeki kilidi kırmıyor muyuz?
Yeni bir paradigma, " akıllı ajanlar " 1990'larda yavaş yavaş ortaya çıktı. İlk araştırmacılar yapay zekada modüler "böl ve yönet" yaklaşımları önermelerine rağmen, akıllı ajan Judea Pearl , Allen Newell ve diğerlerinin getirdiği modern formuna ulaşmadı. karar teorisi ve ekonomi kavramlarında . Rasyonel failin ekonomik tanımı , nesnenin veya hatta modülün bilgisayar tanımıyla birleştirildiğinde , akıllı fail paradigması geçerli olur .
Bir akıllı ajan çevresini algılar ve başarı şansını maksimize eylemleri götüren bir sistemdir. Bu tanıma göre, belirli sorunları çözen basit programlar, insanlar ve işletmeler gibi insan organizasyonları gibi "akıllı aracılar" dır . Akıllı ajan paradigması, yapay zekayı "akıllı ajanların incelenmesi" olarak tanımlar. Bu, YZ'nin ilk tanımlarından bazılarının bir genellemesidir: insan zekası çalışmasının ötesine geçer; her türlü zekayı inceler.
Bu paradigma, araştırmacıların izole edilmiş problemleri incelemelerinin yolunu açtı; bulunan çözümler hem doğrulanabilir hem de kullanışlıdır. Ortak bir dil, sorunların tanımlanmasına ve çözümlerinin birbirleri arasında paylaşılmasına izin verir ve diğer alanlar da ekonomi ve düzenleme gibi bu soyut aracılar kavramını kullanmıştır . "Ajan mimarisinin" ( Soar to Newell gibi ) bir gün araştırmacıların daha çok yönlü ve akıllı tabanlı akıllı ajan sistemleri inşa edeceğine inanılıyor .
Yapay zeka araştırmacıları, daha önce hiç olmadığı kadar sofistike matematiksel araçlar geliştiriyor ve kullanıyor. Yapay zekanın çözmesi gereken birçok sorunun matematik , ekonomi veya yöneylem araştırması gibi başka alanlarda zaten ele alındığının farkındalar . Özellikle, matematik hem daha sağlam temellere dayanan disiplinlerle işbirliğini geliştirir hem de çapraz döllenmeye ve ölçülebilir ve kanıtlanabilir verilerin toplanmasına yol açar; yapay zeka "bilimsel ortodoksiye" doğru ilerliyor. Russel ve Norvig 2003 az bir "devrim" ve "zaferi daha hiçbir şey için nitelendirir bunu zarif (in) ".
Judea Pearl'ün 1988 ufuk açan kitabı, olasılık ve karar teorisini Bayes ağları , gizli Markov modelleri , bilgi teorisi , stokastik hesap ve daha genel olarak matematiksel optimizasyon ile bütünleştirir . Matematiksel açıklamalar , sinir ağları ve evrimsel algoritmalar gibi " hesaplamalı zeka " nın ilkel paradigmaları için geçerlidir .
Başlangıçta yapay zeka araştırmacıları tarafından geliştirilen algoritmalar, daha büyük sistemlerin bir parçasını oluşturmaya başlıyor. AI, birçok karmaşık sorunu çözdü ve çözümleri, veri madenciliği , endüstriyel robotik , lojistik , ses tanıma , bankacılık uygulamaları, tıbbi teşhis, model tanıma ve Google arama motoru gibi tüm teknoloji endüstrisinde kullanıldı .
Yapay zeka alanı, bu başarılar için neredeyse hiç itibar görmedi. En büyük yeniliklerinden bazıları, BT araç kutusundaki başka bir öğenin durumuna indirgenmiştir. Nick Bostrom şöyle açıklıyor: “Çok sayıda son teknoloji yapay zeka, genel uygulamalara resmi olarak bağlanmadan filtrelendi, çünkü bir şey yeterince yararlı ve yaygın hale gelir gelmez yapay zeka etiketini kaldırıyor. "
Doksanlı yıllarda birçok yapay zeka araştırmacısı, çalışmalarını gönüllü olarak bilgisayar, bilgi tabanlı sistemler, bilişsel sistemler veya hesaplamalı zeka gibi başka isimlerle adlandırdı. Bu kısmen kendi alanlarını yapay zekadan temelde farklı gördüklerinden, aynı zamanda bu yeni isimlerin finansmanı kolaylaştırdığı için olabilir. En azından iş sektöründe, yapay zeka kışının tutarsız vaatleri, New York Times'ın 2005'te bildirdiği gibi, yapay zeka araştırmalarına musallat olmaya devam ediyor : "Bilgisayar bilimcileri ve yazılım mühendisleri, olma korkusuyla 'yapay zeka' ifadesinden kaçındılar tatlı hayalperestler olarak kabul edilir. "
1968'de Arthur C.Clarke ve Stanley Kubrick , 2001 yılından itibaren bir makinenin benzer bir zekaya sahip olacağını, hatta insanların kapasitesini aşacağını hayal ediyorlar . Yarattıkları karakter olan HAL 9000 , birçok yapay zeka araştırmacısı arasında böyle bir makinenin 2001 yılında var olacağına dair yaygın bir inanca dayanıyor.
Marvin Minsky merak ediyor: “2001'de neden HAL yapmadık? Ve çoğu araştırmacı sinir ağlarının ticari uygulamaları veya genetik algoritmalar gibi yönlere odaklandığından, genel bilgi muhakemesi gibi temel konuların gözden kaçtığını düşünüyor . Öte yandan John McCarthy , yine de niteleyici sorunu suçluyor. For Ray Kurzweil , Moore yasasına dayanarak işlem gücü eksikliği ve sorunlu yalan, o Uygulamada etrafında 2030. gelecek insanlara karşılaştırılabilir bir zeka ile bu makineler tahmin, biz “akıllı” kişisel asistanı gelişini bkz Apple 2007'de Siri , 2012'de Google Now ve 2014'te Microsoft Cortana .
Fransa'da yapay zeka araştırmaları, özellikle Paris'teki GR 22 ( Jacques Pitrat ve Jean-Louis Laurière'nin çalıştığı Claude-François Picard araştırma grubu olarak da adlandırılır ), GIA (sic) (yaklaşık alain Colmerauer Marsilya, olarak) LIMSI Orsay bölgesi CRIN Nancy, CERFIA Toulouse ve Laboria çevresinde ( Gerard Huet Rocquencourt ve çok temel bir alanda).
Toulouse'da 1979'da yıllık ulusal Şekil Tanıma ve Yapay Zeka Kongresi oluşturuldu. 1993'te Chambéry'de IJCAI (in) konferansının organizasyonu ve 1983'te bir GRECO-PRC yapay zekasının oluşturulmasıyla bağlantılı olarak , 1989'da AFIA öğrenilmiş bir toplumu ortaya çıkarır ve diğerlerinin yanı sıra, yapay zeka konusunda ulusal konferanslar. Yann Le Cun bu Fransız okulundan geldi .