Теория вычислительного обучения - Computational learning theory
Часть серии по |
Машинное обучение и интеллектуальный анализ данных |
---|
В информатике , вычислительной теории обучения (или просто теория обучения ) подполе искусственного интеллекта посвящены изучению дизайна и анализ машинного обучения алгоритмов.
Обзор
Теоретические результаты в машинном обучении в основном касаются типа индуктивного обучения, называемого обучением с учителем . При обучении с учителем алгоритму даются образцы, которые помечены каким-либо полезным способом. Например, образцы могут быть описанием грибов, а на этикетках может быть указано, съедобны ли грибы. Алгоритм берет эти ранее помеченные образцы и использует их для создания классификатора. Этот классификатор представляет собой функцию, которая назначает метки образцам, включая образцы, которые ранее не просматривались алгоритмом. Цель алгоритма контролируемого обучения - оптимизировать некоторые показатели производительности, например свести к минимуму количество ошибок, сделанных на новых выборках.
Помимо границ производительности, теория вычислительного обучения изучает временную сложность и осуществимость обучения. В теории вычислительного обучения вычисление считается выполнимым, если оно может быть выполнено за полиномиальное время . Есть два вида результатов временной сложности:
- Положительные результаты - демонстрация того, что определенный класс функций можно изучить за полиномиальное время.
- Отрицательные результаты - показывают, что определенные классы нельзя выучить за полиномиальное время.
Отрицательные результаты часто основываются на общепринятых, но еще не подтвержденных предположениях, таких как:
- Вычислительная сложность - P ≠ NP (проблема P против NP) ;
- Криптографические - существуют односторонние функции .
Существует несколько различных подходов к теории вычислительного обучения, основанных на различных предположениях о принципах вывода, используемых для обобщения на основе ограниченных данных. Сюда входят различные определения вероятности (см. Частотная вероятность , байесовская вероятность ) и различные предположения о генерации выборок. Различные подходы включают:
- Точное обучение, предложенное Даной Англуин ;
- Вероятно, приблизительно правильное обучение (PAC learning), предложенное Лесли Валиант ;
- Теория ВК , предложенная Владимиром Вапником и Алексеем Червоненкисом ;
- Байесовский вывод ;
- Теория алгоритмического обучения , из работы Э. Марка Голда ;
- Машинное обучение онлайн , из работы Ника Литтлстоуна.
Хотя ее основная цель - абстрактное понимание обучения, теория вычислительного обучения привела к разработке практических алгоритмов. Например, теория PAC привела к развитию , теория VC привела к поддержке векторных машин , а байесовский вывод привел к сетям убеждений .
Смотрите также
- Введение в грамматику
- Теория информации
- Стабильность (теория обучения)
- Толерантность к ошибкам (обучение PAC)
Рекомендации
Обзоры
- Angluin, D. 1992. Теория вычислительного обучения: обзор и избранная библиография. В материалах двадцать четвертого ежегодного симпозиума ACM по теории вычислений (май 1992 г.), страницы 351–369. http://portal.acm.org/citation.cfm?id=129712.129746
- Д. Хаусслер. Наверное, примерно правильное обучение. В AAAI-90 Proceedings of the Eight National Conference on Artificial Intelligence, Boston, MA, pages 1101–1108. Американская ассоциация искусственного интеллекта, 1990 г. http://citeseer.ist.psu.edu/haussler90probably.html
Размер ВК
- В. Вапник и А. Червоненкис. О равномерной сходимости относительных частот событий к их вероятностям . Теория вероятностей и ее приложения, 16 (2): 264–280, 1971.
Выбор функции
- А. Дагат и Л. Хеллерстайн, «Обучение PAC с несущественными атрибутами», в 'Proceedings of the IEEE Symp. on Foundation of Computer Science », 1994. http://citeseer.ist.psu.edu/dhagat94pac.html
Индуктивный вывод
- Золото, Э. Марк (1967). «Определение языка в пределе» (PDF) . Информация и контроль . 10 (5): 447–474. DOI : 10.1016 / S0019-9958 (67) 91165-5 .
Оптимальное обучение нотации O
- Одед Гольдрайх , Дана Рон . Об универсальных алгоритмах обучения . http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.47.2224
Отрицательные результаты
- М. Кернс и Лесли Валиант . 1989. Криптографические ограничения на обучение булевых формул и конечных автоматов. В материалах 21-го ежегодного симпозиума ACM по теории вычислений, страницы 433–444, Нью-Йорк. ACM. http://citeseer.ist.psu.edu/kearns89cryptographic.html
Повышение (машинное обучение)
- Роберт Э. Шапир. Сила слабой обучаемости. Машинное обучение, 5 (2): 197–227, 1990 http://citeseer.ist.psu.edu/schapire90strength.html
Обучение Оккама
- Blumer, A .; Ehrenfeucht, A .; Haussler, D .; Вармут, Бритва М.К. Оккама Inf.Proc.Lett. 24, 377–380, 1987.
- Blumer, A .; Ehrenfeucht, A .; Haussler, D .; Вармут, М.К. Обучаемость и измерение Вапника-Червоненкиса . Журнал ACM, 36 (4): 929–865, 1989.
Наверное, примерно правильное обучение
- Л. Валиант. Теория обучаемого . Сообщения ACM, 27 (11): 1134–1142, 1984.
Устойчивость к ошибкам
- Майкл Кернс и Мин Ли. Обучение при наличии вредоносных ошибок. SIAM Journal on Computing, 22 (4): 807–837, август 1993. http://citeseer.ist.psu.edu/kearns93learning.html
- Кернс, М. (1993). Эффективное устойчивое к шуму обучение на основе статистических запросов. В материалах двадцать пятого ежегодного симпозиума ACM по теории вычислений, страницы 392–401. http://citeseer.ist.psu.edu/kearns93efficient.html
Эквивалентность
- D.Haussler, M.Kearns, N.Littlestone и M. Warmuth , Эквивалентность моделей для полиномиальной обучаемости, Proc. 1-й семинар ACM по вычислительной теории обучения, (1988) 42-55.
- Pitt, L .; Вармут, МК (1990). «Сводимость с сохранением прогнозов» . Журнал компьютерных и системных наук . 41 (3): 430–467. DOI : 10.1016 / 0022-0000 (90) 90028-J .
Описание некоторых из этих публикаций приводится в важных публикациях по машинному обучению .