Doğal anlayış dil ( NLU İngilizce) veya doğal dil içinde yorumlanması ( NLI ) bir alt kümesidir doğal dil işleme de yapay zeka o anlayış otomatik oynatma ile ilgilenir. Doğal dili anlamak, AI'da zor bir sorun olarak kabul edilir.
Haber toplama, metin kategorizasyonu, ses aktivasyonu, arşivleme ve büyük ölçekli içerik analizine uygulanması nedeniyle bu alanda önemli ticari ilgi vardır.
Daniel Bobrow'un 1964'te MIT'de doktora tezi için yazdığı ÖĞRENCİ programı, doğal dili bilgisayarla anlamaya yönelik ilk girişimlerden biridir. John McCarthy'nin yapay zeka terimini icat etmesinden sekiz yıl sonra , Bobrow'un tezi ( Bir Bilgisayar Problem Çözme Sistemi için Doğal Dil Girişi başlıklı ) bir bilgisayarın cebirsel kelime problemlerini çözmek için basit doğal dili nasıl anlayabileceğini gösterdi.
Bir yıl sonra, 1965'te MIT'den Joseph Weizenbaum , en popüler olanı psikoterapi olan herhangi bir konuda İngilizce diyalog içeren etkileşimli bir program olan ELIZA'yı yazdı . ELIZA, kutulu cümlelerde anahtar kelimelerin basit analizi ve değiştirilmesiyle çalıştı ve Weizenbaum, programa gerçek bir dünya bilgi veritabanı veya zengin bir sözlük verme sorunundan kaçındı . Bununla birlikte ELIZA, şaşırtıcı bir popülerlik kazanmıştır ve Ask.com tarafından kullanılanlar gibi mevcut ticaret sistemlerinin çok erken bir öncüsü olarak kabul edilebilir.
1969'da Stanford Üniversitesi'nden Roger Schank , doğal dili anlamak için kavramsal bağımlılık teorisini ortaya attı . Kısmen Syndney Lamb'in çalışmasından etkilenen bu model, Robert Wilensky, Wendy Lehnert ve Janet Kolodner gibi Yale Üniversitesi'ndeki Schank öğrencileri tarafından yoğun bir şekilde kullanıldı .
1970 yılında William A. Woods , doğal dilin katkısını temsil etmek için Artırılmış Geçiş Ağı'nı (ATN) tanıttı . Cümle yapısı kuralları yerine, ATN'ler, sonlu durum otomatı adı verilen özyinelemeli olarak adlandırılan eşdeğer bir dizi kullandı . ATN'ler ve bunların "genelleştirilmiş ATN" olarak adlandırılan daha genel formatı, birkaç yıl boyunca kullanılmaya devam etti.
1971'de Terry Winograd , MIT'de doktora tezi için SHRDLU yazmayı bitirdi . SHRDLU, nesneleri hareket ettirmek için robotik bir kolu yönlendirmek için küçük bir çocuk blokları dünyasındaki basit İngilizce cümleleri anlayabiliyordu. SHRDLU'nun başarılı gösterimi, daha fazla saha araştırması için önemli bir ivme sağladı. Winograd, Bilişsel Süreç Olarak Dil adlı kitabının yayınlanmasıyla bu alanda önemli bir etki yapmaya devam etti. Winograd, Stanford'da daha sonra Google'ın kurucularından biri olan Larry Page'in danışmanı olacaktı.
1970'lerde ve 1980'lerde, SRI International'ın doğal dil işleme grubu, bu alandaki araştırma ve geliştirme faaliyetlerine devam etti. Örneğin 1982'de Gary Hendrix , kişisel bilgisayarlarda veritabanı sorguları için doğal bir dil arayüzü geliştirmek üzere Symantec Corporation'ı kurdu . Ancak, fare ile çalışan grafik kullanıcı arayüzlerinin ortaya çıkmasıyla Symantec yön değiştirdi. Aynı zamanda bir dizi başka ticari girişim de başlatıldı, örneğin, Yapay Zeka Şirketinden Larry R. Harris ve Bilişsel Sistemler şirketindeki Roger Schank ve öğrencileri. 1983 yılında Michael Dyer, Roger Schank ve WG Lehnart'ın çalışmalarına benzeyen BORIS sistemini Yale'de geliştirdi.
Üçüncü milenyum, IBM'in Watson'ı gibi metinlerin sınıflandırılması için makine öğrenimini kullanan sistemlerin tanıtımına tanık oldu . Ancak bu, doğal dili anlamakla ilgili değil. John Searle'e göre Watson soruları bile anlamadı.
John Ball , cognitician ve mucidi Pathom Teorisi bu değerlendirmeyi desteklemektedir. Doğal dil işleme, hizmet ve e-ticarette insan üretkenliğini desteklemek için uygulamalarda ilerleme sağlamıştır, ancak bu büyük ölçüde uygulamanın kapsamını daraltarak mümkün olmuştur.İnsan dilinde bir şey sormanın hala geleneksel doğallığa meydan okuyan binlerce yolu vardır. dil işleme. "Makinelerle anlamlı bir konuşma yapmak ancak her kelimeyi cümledeki diğer kelimelerin anlamlarına göre doğru anlamla ilişkilendirmekle mümkündür - tıpkı 3 yaşındaki bir çocuğun tahmin yürütmemesi gibi."
Genel "doğal dili anlama" terimi, robotlara gönderilen kısa komutlar gibi küçük, nispeten basit görevlerden gazete makalelerini anlama veya şiir yazma gibi karmaşık görevlere kadar çok çeşitli bilgisayar uygulamalarına uygulanabilir . Pek çok gerçek dünya uygulaması iki uç noktanın arasına düşer, örneğin e-postaların otomatik olarak ayrıştırılması için metni sınıflandırmak ve bunları bir şirketteki uygun bir departmana yönlendirmek, metnin derinlemesine anlaşılmasını gerektirmez, ancak çok daha geniş bir kelime dağarcığı ile ilgilenmelidir. sabit şemalara sahip bir veritabanında basit sorguları işlemekten daha çeşitli bir sözdizimi.
Yıllar içinde, bilgisayarlara sunulan doğal dili veya İngilizce cümleleri işlemeye yönelik çeşitli girişimler, değişen derecelerde karmaşıklığın yerini almıştır. Bazı girişimler, derinlemesine anlayışa sahip sistemlerle sonuçlanmadı, ancak sistemin genel kullanılabilirliğine katkıda bulundu. Örneğin, Wayne Ratliff , Star Trek'teki İngilizce konuşan bilgisayarı taklit etmek için ilk olarak İngiliz tarzı sözdizimine sahip Vulcan programını geliştirdi . Vulcan daha sonra, kullanımı kolay sözdizimi kişisel bilgisayar veritabanı endüstrisini etkin bir şekilde başlatan dBase sistemi oldu . Bununla birlikte, kullanımı kolay veya İngilizce sözdizimine sahip sistemler, zengin bir sözlük kullanan ve doğal dil cümlelerinin anlambiliminin bir iç temsilini (genellikle birinci dereceden mantık olarak ) içeren sistemlerden oldukça farklıdır .
Bu nedenle, bir sistemin aradığı "anlamanın" genişliği ve derinliği, hem sistemin karmaşıklığını (ve içerdiği zorlukları) hem de üstesinden gelebileceği uygulama türlerini belirler. Bir sistemin "genişliği", kelime dağarcığının ve gramerinin boyutu ile ölçülür. "Derinlik", akıcı bir ana dili konuşan kişinin anlayışına yaklaşma derecesiyle ölçülür. En dar ve en sığ düzeyde, İngilizce tarzı komut tercümanları minimum karmaşıklık gerektirir, ancak az sayıda uygulamaya sahiptir. Dar ama derin sistemler, anlama mekanizmalarını araştırır ve model alır, ancak yine de sınırlı uygulama alanına sahiptirler. Sadece anahtar kelimeleri eşleştirmenin ve bir kullanıcı için uygunluğuna karar vermenin ötesinde bir basın bülteni gibi bir belgenin içeriğini anlamaya çalışan sistemler daha geniştir ve önemli ölçüde karmaşıklık gerektirir, ancak yine de sığdırlar. Hem çok geniş hem de çok derin sistemler şu anki teknolojinin ötesindedir.
Kullanılan yaklaşımdan bağımsız olarak, çoğu doğal dil anlama sistemi bazı ortak unsurları paylaşır. Sistem , cümleleri dahili bir temsile bölmek için bir dil sözlüğüne , bir ayrıştırıcıya ve dilbilgisi kurallarına ihtiyaç duyar . Uygun bir ontolojiye sahip zengin bir sözlük oluşturmak, büyük çaba gerektirir, örneğin Wordnet sözlüğü , yıllarca süren çaba gerektirdi.
Sistemin ayrıca anlamaya rehberlik etmesi için anlamsal bir teoriye ihtiyacı vardır . Bir dil anlama sisteminin yorumlama kapasiteleri, kullandığı semantik teoriye bağlıdır. Rekabet eden anlamsal dil kuramları, bilgisayarlı anlamsal yorumlamanın temeli olarak alaka düzeylerinde belirli uzlaşmalara sahiptir. Bunlar, naif anlambilimden veya stokastik anlambilimsel analizden bağlamdan anlam türetmek için pragmatik kullanımına kadar uzanır .
Doğal dil anlayışının gelişmiş uygulamaları da mantıksal çıkarımı çerçevelerine dahil etmeye çalışır. Bu genellikle türetilen anlamın yüklem mantığındaki bir dizi iddiaya eşleştirilmesi ve ardından sonuçlara varmak için mantıksal çıkarımın kullanılmasıyla elde edilir. Bu nedenle, Lisp gibi işlevsel dillere dayalı sistemler, mantıksal iddiaları temsil etmek için bir alt sistem içermelidir, oysa Prolog dilini kullananlar gibi mantık odaklı sistemler genellikle yerleşik mantıksal temsil çerçevesinin bir uzantısına dayanır.
Doğal dili anlamada bağlamı yönetmek özel zorluklar ortaya çıkarabilir. Çok çeşitli örnekler ve karşı örnekler, her biri belirli güçlü ve zayıf yönlere sahip resmi bağlam modellemeye yönelik birden fazla yaklaşımla sonuçlanmıştır.