Tabiiy tilni tushunish (NLU) yoki tabiiy tilni talqin qilish (NLI)[1] – bu sunʼiy intellektdagi tabiiy tilga ishlov berishning kichik toʻplami hisoblanib, sunʼiy intellektning vazifasi esa bu yerda mashinada oʻqishni tushunish. Tabiiy tilni tushunish AI uchun yechish zarur boʻlgan qiyin muammo hisoblanadi[2].

Ushbu sohaning bir necha qoʻllanilish holatlari mavjud boʻlib, ular jamoat orasida iqtisodiy qiziqish uygʻotmoqda. Quyidagilar NLU ning asosiy faoliyat turlari hisoblanadi:

  • Avtomatlashtirilgan fikrlash[3]
  • Savollarga javob berish[5]
  • Yangiliklarni yigʻish
  • Matnlarni turkumlashtirish
  • Ovozni faollashtirish
  • Arxivlash
  • Kontent tahlili

Tarixi

tahrir

STUDENT dasturi 1964-yilda Daniel Bobrow tomonidan MITda doktorlik dissertatsiyasi uchun yozilgan boʻlib, kompyuter orqali tabiiy tilni tushunishga qaratilgan dastlabki urinishlardan biri edi[6][7][8][9][10]. Oradan sakkiz yil oʻtgach Jon Makkarti sunʼiy intellekt atamasini ishlab chiqdi, Bobrowning dissertatsiyasida (Kompyuter muammolarini hal qilish tizimi uchun tabiiy tilni kiritish) algebrik soʻz muammolarini yechish uchun kompyuter qanday qilib oddiy tabiiy tilni tushunishi mumkinligini koʻrsatadi.

Bir yil oʻtgach, 1965-yilda MITda Joseph Weizenbaum „ELIZA“ interaktiv dasturini yozdi, u ingliz tilidagi istalgan mavzuda suhbat olib bora olardi, ulardan eng ommabopi psixoterapiya hisoblanadi. ELIZA sintaktik tahlil qilish va kalit soʻzlarni tayyor iboralarga almashtirish orqali ishlardi. Weizenbaum ELIZA ni keng qamrovli bilim bazasi yoki keng lugʻat bilan taʼminlash muammosidan qochdi. Shunga qaramay, ELIZA oddiy loyiha sifatida kutilmaganda mashhur boʻldi hamda uni Ask.com kabi zamonaviy tijorat tizimlarining dastlabki versiyasi sifatida koʻrish mumkin[11].

1969-yilda Stanford universitetida Roger Schank tabiiy tilni tushunish uchun kontseptual tegishlilik nazariyasini yaratdi[12].Sydney Lamb taʼsirida boʻlgan ushbu model Schankning Yale universiteti talabalari, jumladan Robert Wilensky, Wendy Lehnert va Janet Kolodner tomonidan qoʻllangan.

1970-yilda William A. Woods kompyuterlarga tabiiy tilni tushunishga yordam berish uchun augmented transition network (kengaytirilgan oʻtish tarmogʻi)ni (ATN) yaratdi[13]. ATNlar birgalikda ishlaydigan oddiy qoidalar toʻplamidan foydalangan holda oldingi yondashuvlarga (phrase structure rules) qaraganda boshqacha (finite state automata) usuldan foydalanganlar. Ushbu ATN va ularning „umumiylashtirilgan ATN“ deb nomlangan takomillashtirilgan versiyasi koʻp yillar davomida mashhur edi.

Stenfordda Winograd keyinchalik Google asoschilaridan biri boʻlgan Larri Peyjga maslahat beradi.1971-yilda Terry Winograd MITda PhD uchun SHRDLU dasturini tamomladi. Bu dastur bolalar bloklari dunyosi haqidagi oddiy inglizcha jumlalarni tushunishi mumkin va bu tushunchadan foydalanib, narsalarni harakatga keltirish uchun robot qoʻlini yoʻnaltiradi. SHRDLU ning muvaffaqiyati ushbu sohadagi tadqiqotlarni kuchaytirdi[14][15]. Winograd Language as a Cognitive Process (Til kognitiv jarayon sifatida) kitobini nashr etishi bilan bu sohada oʻz hissasini qoʻshishda davom etdi[16] va keyinchalik Stenfordda Google asoschisi Larri Peyjga maslahat berdi.

1970-1980-yillarda SRI Internationaldagi tabiiy tillarni qayta ishlash guruhi ushbu sohada tadqiqot qilish va ishlanmalar yaratishni davom ettirdi. Ushbu tadqiqotlar asosida bir qator tijoriy harakatlar amalga oshirildi, jumladan, 1982-yilda Gary Hendrix tomonidan shakllantirilgan Symantec Corporation dastlab shaxsiy kompyuterlarda maʼlumotlar bazasi soʻrovlari uchun tabiiy til interfeysini ishlab chiqish maqsadida kompaniya sifatida tuzildi. Ammo, sichqoncha bilan boshqariladigan grafik foydalanuvchi interfeyslari paydo boʻlishi bilan Symantec oʻz yoʻnalishini oʻzgartirdi. Bir vaqtning oʻzida bir qator boshqa tijorat harakatlari yuzaga kela boshladi, masalan, Sunʼiy intellekt korporatsiyasida Larry R. Harris va Cognitive Systems korporatsiyasida Roger Schank va uning shogirdlari[17][18] 1983-yilda Michael Dyer Roger Schank va W.G Lehnertning Yeldagi ishiga oʻxshash boʻlgan BORIS tizimini ishlab chiqdi[19].

Uchinchi ming yillikda IBM Watson kabi matnlarni tasniflash uchun mashinali oʻqitishdan foydalanadigan tizimlar joriy etildi. Biroq, mutaxassislar ushbu tizimlar matnlarni qay darajada „tushuna olish“ darajasini muhokama qilmoqdalar. Misol uchun, Jon Searl, Watsonning maʼlumot berishiga qaraganda ushbu tizim hattoki savollarni ham tushunmagan[20].

Imkoniyat va kontekst

tahrir

"Tabiiy tilni tushunish" atamasi kompyuter ilovalarining keng doirasini qamrab oladi. Bularga robotlarga qisqa buyruqlar berish kabi oddiy vazifalardan tortib gazeta maqolalari yoki sheʼrlarni toʻliq tushunish kabi murakkab vazifalar ham kiradi. Koʻpgina amaliy ilovalar ikki qarama-qarshi tomonga ajraldi, masalan, elektron pochta xabarlarini avtomatik ravishda tasniflash va ularni kompaniyaga yoʻnaltirish. Ular matnni chuqur tushunishni talab qilmasalar-da, sxemali maʼlumotlar bazalariga asosiy soʻrovlarni boshqarish bilan solishtirganda kattaroq lugʻat va turli jumla tuzilmalarini boshqaradi.

Yillar davomida kompyuterlarga taqdim etilgan tabiiy til yoki ingliz tili tabiatiga mos jumlalarni qayta ishlashga turli xil urinishlar turli darajadagi murakkabliklarda amalga oshirildi. Tabiiy tilni qayta ishlash boʻyicha baʼzi urinishlar tizimni chuqur tushunishga olib kelishi shart emas edi, lekin ular umumiy foydalanish qulayligini oshirdi. Masalan, Wayne Ratliff Vulcan dasturini Star Trek dagi kompyuterdan ilhomlangan inglizcha sintaksis asosida yaratdi. Vulcan dBase tizimiga aylandi, uning foydalanuvchilarga qulay sintaksisi shaxsiy kompyuterlar maʼlumotlar bazasi sanoatini ishga tushirishda muhim rol oʻynadi[21] [22]. Foydalanish oson yoki ingliz tiliga oʻxshash sintaksisga ega tizimlar boy leksikadan foydalanadigan tizimlardan ancha farq qiladi va tabiiy til jumlalari semantikasining ichki tasvirini (koʻpincha birinchi tartibli mantiq sifatida) oʻz ichiga oladi.

Tarkibiy qismi va qurilishi

tahrir

Qabul qilingan yondashuvdan qatʼi nazar, koʻpchilik tabiiy tilni tushunadigan tizimlar umumiy tarkibiy qismlarga ega. Bular jumlalarni ichki tasvirga aylantirish uchun til leksikasi, tahlil qilish va grammatik qoidalarni oʻz ichiga oladi. Tegishli ontologiyaga ega boʻlgan keng qamrovli leksikani yaratish katta kuch talab qiladi; Masalan, WordNet leksikonini yaratish koʻp yillik mehnatni talab qildi[23].

Yana qarang

tahrir
  • Hisoblash semantikasi
  • Kompyuter lingvistikasi
  • Diskursni ifodalash nazariyasi
  • Chuqur lingvistik ishlov berish
  • Tabiiy tilni qayta ishlash tarixi
  • Maʼlumotlarni ajratib olish
  • Matematika [24] [25] [26]
  • Tabiiy tilga ishlov berish
  • Tabiiy tilda dasturlash
  • Tabiiy tildagi foydalanuvchi interfeysi
  • Ochiq maʼlumot olish
  • Nutqning bir qismini teglash
  • Nutqni tanish

Manbalar

tahrir
  1. Semaan, P. (2012). Natural Language Generation: An Overview. Journal of Computer Science & Research (JCSCR)-ISSN, 50-57
  2. Roman V. Yampolskiy. Turing Test as a Defining Feature of AI-Completeness . In Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) --In the footsteps of Alan Turing. Xin-She Yang (Ed.). pp. 3-17. (Chapter 1). Springer, London. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf
  3. Van Harmelen, Frank, Vladimir Lifschitz, and Bruce Porter, eds. Handbook of knowledge representation. Vol. 1. Elsevier, 2008.
  4. Macherey, Klaus, Franz Josef Och, and Hermann Ney. „Natural language understanding using statistical machine translation.“ Seventh European Conference on Speech Communication and Technology. 2001.
  5. Hirschman, Lynette, and Robert Gaizauskas. „Natural language question answering: the view from here.“ natural language engineering 7.4 (2001): 275-300.
  6. American Association for Artificial Intelligence Brief History of AI
  7. Daniel Bobrow's PhD Thesis Natural Language Input for a Computer Problem Solving System.
  8. Machines who think by Pamela McCorduck 2004 ISBN 1-56881-205-1 page 286
  9. Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach Prentice Hall, ISBN 0-13-790395-2, http://aima.cs.berkeley.edu/, p. 19
  10. Computer Science Logo Style: Beyond programming by Brian Harvey 1997 ISBN 0-262-58150-7 page 278
  11. Weizenbaum, Joseph (1976). Computer power and human reason: from judgment to calculation W. H. Freeman and Company. ISBN 0-7167-0463-3 pages 188-189
  12. Roger Schank, 1969, A conceptual dependency parser for natural language Proceedings of the 1969 conference on Computational linguistics, Sång-Säby, Sweden, pages 1-3
  13. Woods, William A (1970). „Transition Network Grammars for Natural Language Analysis“. Communications of the ACM 13 (10): 591–606
  14. Artificial intelligence: critical concepts, Volume 1 by Ronald Chrisley, Sander Begeer 2000 ISBN 0-415-19332-X page 89
  15. Terry Winograd’s SHRDLU page at Stanford SHRDLU (Wayback Machine saytida 2020-08-17 sanasida arxivlangan)
  16. Winograd, Terry (1983), Language as a Cognitive Process, Addison–Wesley, Reading, MA.
  17. Larry R. Harris, Research at the Artificial Intelligence corp. ACM SIGART Bulletin, issue 79, January 1982
  18. Inside case-based reasoning by Christopher K. Riesbeck, Roger C. Schank 1989 ISBN 0-89859-767-6 page xiii
  19. In Depth Understanding: A Model of Integrated Process for Narrative Comprehension.. Michael G. Dyer. MIT Press. ISBN 0-262-04073-5
  20. Searle, John. „Watson Doesn't Know It Won on 'Jeopardy!'“. Wall Street Journal (2011-yil 23-fevral).
  21. InfoWorld, Nov 13, 1989, page 144
  22. InfoWorld, April 19, 1984, page 71
  23. G. A. Miller, R. Beckwith, C. D. Fellbaum, D. Gross, K. Miller. 1990. WordNet: An online lexical database. Int. J. Lexicograph. 3, 4, pp. 235-244.
  24. Programming with Natural Language Is Actually Going to Work—Wolfram Blog
  25. Van Valin, Jr. „From NLP to NLU“.
  26. Ball. „multi-lingual NLU by Pat Inc“. Pat.ai.