Понимание естественного языка - Natural-language understanding

Природно-понимание языка ( НЛ ) или интерпретации естественного языка ( НИТ ) является подтемой обработки естественного языка в области искусственного интеллекта , который имеет дело с машиной понимания прочитанным . Понимание естественного языка считается сложной задачей для искусственного интеллекта .

Эта область представляет значительный коммерческий интерес из-за ее применения для автоматизированного рассуждения , машинного перевода , ответов на вопросы , сбора новостей, категоризации текста , голосовой активации , архивирования и крупномасштабного анализа контента .

История

Программа STUDENT , написанная в 1964 году Дэниелом Боброу для его докторской диссертации в Массачусетском технологическом институте , является одной из самых ранних известных попыток понимания естественного языка компьютером. Спустя восемь лет после того, как Джон Маккарти ввел термин « искусственный интеллект» , диссертация Боброу (озаглавленная « Ввод на естественном языке для компьютерной системы решения проблем» ) показала, как компьютер может понимать простой ввод естественного языка для решения задач алгебры со словами.

Год спустя, в 1965 году, Йозеф Вайценбаум из Массачусетского технологического института написал ELIZA , интерактивную программу, в которой велся диалог на английском по любой теме, самой популярной из которых была психотерапия. ELIZA работала путем простого синтаксического анализа и замены ключевых слов на стандартные фразы, а Вайценбаум обошел проблему предоставления программе базы данных реальных знаний или богатого словаря . Тем не менее, ELIZA приобрела удивительную популярность как игрушечный проект и может рассматриваться как очень ранний предшественник текущих коммерческих систем, таких как те, которые используются Ask.com .

В 1969 году Роджер Шанк из Стэнфордского университета представил концептуальную теорию зависимости для понимания естественного языка. Эта модель, на которую частично повлияли работы Сиднея Лэмба , широко использовалась студентами Шанка в Йельском университете , такими как Роберт Виленски , Венди Ленерт и Джанет Колоднер .

В 1970 году Уильям А. Вудс представил расширенную сеть переходов (ATN) для представления ввода на естественном языке. Вместо правил структуры фраз в ATN использовался эквивалентный набор конечных автоматов , которые вызывались рекурсивно. ATN и их более общий формат, называемый «обобщенные ATN», продолжали использоваться в течение ряда лет.

В 1971 году Терри Виноград закончил писать SHRDLU для своей кандидатской диссертации в Массачусетском технологическом институте. SHRDLU мог понимать простые английские предложения в ограниченном мире детских кубиков, чтобы управлять роботизированной рукой для перемещения предметов. Успешная демонстрация SHRDLU дала значительный импульс для продолжения исследований в этой области. Виноград продолжал оказывать большое влияние в этой области, опубликовав свою книгу « Язык как познавательный процесс» . В Стэнфорде Виноград позже консультировал Ларри Пейджа , соучредителя Google .

В 1970-х и 1980-х годах группа обработки естественного языка в SRI International продолжала исследования и разработки в этой области. На основе исследования был предпринят ряд коммерческих усилий, например , в 1982 году Гэри Хендрикс основал Symantec Corporation, первоначально как компанию для разработки интерфейса на естественном языке для запросов к базам данных на персональных компьютерах. Однако с появлением графических пользовательских интерфейсов , управляемых мышью , Symantec изменила направление. Примерно в то же время были начаты и другие коммерческие проекты, например , Ларри Р. Харрис из Корпорации искусственного интеллекта и Роджер Шэнк и его ученики из Cognitive Systems Corp. В 1983 году Майкл Дайер разработал систему BORIS в Йельском университете, которая имела сходство с системой. работы Роджера Шенка и У. Г. Ленерта.

В третьем тысячелетии появились системы, использующие машинное обучение для классификации текста, такие как IBM Watson . Однако эксперты спорят, насколько «понимание» демонстрируют такие системы: например , по словам Джона Сирла , Ватсон даже не понимал вопросов.

Джон Болл, ученый-когнитивист и изобретатель теории Патома , поддерживает эту оценку. Обработка естественного языка широко использовалась в приложениях для поддержки производительности труда людей в сфере обслуживания и электронной коммерции, но это стало возможным в значительной степени за счет сужения области применения приложения. Есть тысячи способов запросить что-то на человеческом языке, которое все еще не поддается обработке традиционного естественного языка. «Вести содержательный разговор с машинами возможно только тогда, когда мы сопоставляем каждое слово с правильным значением на основе значений других слов в предложении - точно так же, как трехлетний ребенок без догадок».

Объем и контекст

Общий термин «понимание естественного языка» может применяться к разнообразному набору компьютерных приложений, начиная от небольших, относительно простых задач, таких как короткие команды, отданные роботам , до очень сложных задач, таких как полное понимание газетных статей или отрывков стихов. . Многие реальные приложения попадают между двумя крайностями, например, классификация текста для автоматического анализа электронных писем и их маршрутизация в подходящий отдел корпорации не требует глубокого понимания текста, но требует значительного больший словарный запас и более разнообразный синтаксис, чем управление простыми запросами к таблицам базы данных с фиксированными схемами.

На протяжении многих лет предпринимались попытки обработки естественного языка или англоязычных предложений, представленных в компьютерах, с разной степенью сложности. Некоторые попытки не привели к созданию систем с глубоким пониманием, но повысили удобство использования системы в целом. Например, Уэйн Рэтлифф первоначально разработал программу Vulcan с англоязычным синтаксисом, чтобы имитировать англоязычный компьютер в « Звездном пути» . Позже Vulcan стал системой dBase , простой в использовании синтаксис которой положил начало индустрии баз данных для персональных компьютеров. Однако системы с простым в использовании синтаксисом, похожим на английский , существенно отличаются от систем, которые используют богатый лексикон и включают внутреннее представление (часто как логику первого порядка ) семантики предложений естественного языка.

Следовательно, широта и глубина «понимания», к которому стремится система, определяют как сложность системы (и предполагаемые проблемы), так и типы приложений, с которыми она может иметь дело. «Широта» системы измеряется размерами ее словарного запаса и грамматики. «Глубина» измеряется степенью, в которой его понимание приближается к уровню свободного носителя языка. В самом узком и поверхностном виде, англоязычные интерпретаторы команд требуют минимальной сложности, но имеют небольшой диапазон приложений. Узкие, но глубокие системы исследуют и моделируют механизмы понимания, но их применение все еще ограничено. Системы, которые пытаются понять содержание документа, такого как выпуск новостей, помимо простого сопоставления ключевых слов, и оценить его пригодность для пользователя, более широкие и требуют значительной сложности, но они все же несколько поверхностны. Системы, которые одновременно являются очень широкими и очень глубокими, выходят за рамки современного уровня техники.

Компоненты и архитектура

Независимо от используемого подхода, большинство систем, понимающих естественный язык, имеют некоторые общие компоненты. Системе нужен лексикон языка, а также синтаксический анализатор и грамматические правила, чтобы разбивать предложения на внутреннее представление. Построение богатого лексикона с подходящей онтологией требует значительных усилий, например , лексикон Wordnet требует много человеко-лет усилий.

Система также требует теории от семантики, чтобы направлять понимание. Возможности интерпретации системы понимания языка зависят от семантической теории, которую она использует. Конкурирующие семантические теории языка имеют определенные компромиссы в их пригодности в качестве основы автоматизированной семантической интерпретации. Они варьируются от наивной семантики или стохастического семантического анализа до использования прагматики для извлечения значения из контекста. Семантические синтаксические анализаторы преобразуют тексты на естественном языке в формальные представления значений.

Продвинутые приложения понимания естественного языка также пытаются включить логический вывод в свои рамки. Обычно это достигается отображением производного значения в набор утверждений в логике предикатов с последующим использованием логической дедукции для получения выводов. Следовательно, системы, основанные на функциональных языках, таких как Lisp, должны включать подсистему для представления логических утверждений, в то время как системы, ориентированные на логику, такие как системы, использующие язык Prolog, обычно полагаются на расширение встроенной структуры логического представления.

Управление контекстом при понимании естественного языка может представлять особые проблемы. Большое количество примеров и контрпримеров привело к множеству подходов к формальному моделированию контекста, каждый из которых имеет свои сильные и слабые стороны.

Смотрите также

Заметки