Система обучающих классификаторов - Learning classifier system

2D-визуализация обучения правилам LCS для аппроксимации 3D-функции. Каждый синий эллипс представляет собой отдельное правило, охватывающее часть пространства решений. (Адаптировано из изображений, взятых из XCSF с разрешения Мартина Бутца)

Системы обучающих классификаторов , или LCS , представляют собой парадигму основанных на правилах методов машинного обучения, которые объединяют компонент обнаружения (например, обычно генетический алгоритм ) с компонентом обучения (выполнение контролируемого обучения , обучения с подкреплением или обучения без учителя ). Системы обучающихся классификаторов стремятся идентифицировать набор контекстно-зависимых правил, которые коллективно хранят и применяют знания кусочно для того, чтобы делать прогнозы (например, моделирование поведения , классификация , интеллектуальный анализ данных , регрессия , аппроксимация функций или игровая стратегия ). Такой подход позволяет разбивать сложные пространства решений на более мелкие и простые части.

Концепции, лежащие в основе обучающих систем классификаторов, возникли в результате попыток моделирования сложных адаптивных систем с использованием основанных на правилах агентов для формирования искусственной когнитивной системы (т.е. искусственного интеллекта ).

Методология

Архитектура и компоненты данной системы обучающих классификаторов могут быть весьма разнообразными. Полезно думать о LCS как о машине, состоящей из нескольких взаимодействующих компонентов. Компоненты могут быть добавлены или удалены, или существующие компоненты могут быть изменены / заменены в соответствии с требованиями данной проблемной области (например, алгоритмические строительные блоки) или для того, чтобы сделать алгоритм достаточно гибким для работы во многих различных проблемных областях. В результате парадигма LCS может быть гибко применена ко многим проблемным областям, требующим машинного обучения . Основные различия между реализациями LCS следующие: (1) архитектура в стиле Мичиган и архитектура в стиле Питтсбурга, (2) обучение с подкреплением против обучения с учителем , (3) инкрементное обучение против пакетного обучения, (4) онлайн-обучение против • автономное обучение , (5) фитнес на основе силы и фитнес, основанный на точности, и (6) полное сопоставление действий и сопоставление лучших действий. Эти подразделения не обязательно являются взаимоисключающими. Например, XCS, наиболее известный и наиболее изученный алгоритм LCS, выполнен в стиле Мичигана, был разработан для обучения с подкреплением, но также может выполнять контролируемое обучение, применяет инкрементное обучение, которое может быть как онлайн, так и офлайн, применяет фитнес на основе точности и стремится для создания полного сопоставления действий.

Элементы общего алгоритма LCS

Пошаговая схема, иллюстрирующая общий цикл обучения системы классификатора обучения в Мичиганском стиле, выполняющий обучение с учителем.

Принимая во внимание, что LCS - это парадигма генетического машинного обучения, а не конкретный метод, ниже описаны ключевые элементы общего, современного (т.е. пост-XCS) алгоритма LCS. Для простоты давайте сосредоточимся на архитектуре в стиле Мичиган с обучением с учителем. См. Иллюстрации справа, на которых показаны последовательные шаги, связанные с этим типом общей LCS.

Среда

Среда - это источник данных, на которых обучается LCS. Это может быть автономный конечный обучающий набор данных (характеристика задачи интеллектуального анализа данных , классификации или регрессии) или последовательный онлайн-поток живых обучающих экземпляров. Предполагается, что каждый обучающий экземпляр включает некоторое количество функций (также называемых атрибутами или независимыми переменными ) и одну интересующую конечную точку (также называемую классом , действием , фенотипом , прогнозом или зависимой переменной ). Часть обучения LCS может включать выбор функций , поэтому не все функции в обучающих данных должны быть информативными. Набор значений характеристик экземпляра обычно называется состоянием . Для простоты давайте возьмем пример проблемной области с логическими / двоичными функциями и логическим / двоичным классом. Для систем в стиле Мичиган один экземпляр из среды обучается в каждом цикле обучения (т.е. инкрементное обучение). Системы в стиле Питтсбурга выполняют пакетное обучение, при котором наборы правил оцениваются на каждой итерации по большей части или по всем обучающим данным.

Правило / классификатор / популяция

Правило - это контекстно-зависимая связь между значениями состояния и некоторым прогнозом. Правила обычно имеют форму выражения {IF: THEN} (например, { IF 'condition' THEN 'action'} или, в более конкретном примере, {IF 'красный' AND 'восьмиугольник' THEN 'стоп-сигнал'} ). Критическая концепция как в LCS, так и в машинном обучении на основе правил заключается в том, что отдельное правило само по себе не является моделью, поскольку правило применимо только тогда, когда его условие выполнено. Думайте о правиле как о «локальной модели» пространства решений.

Правила могут быть представлены разными способами для обработки различных типов данных (например, двоичные, дискретные, порядковые, непрерывные). Для заданных двоичных данных LCS традиционно применяет троичное представление правил (т. Е. Правила могут включать 0, 1 или '#' для каждой функции в данных). Символ «безразлично» (например, «#») служит подстановочным знаком в условии правила, разрешающем правила и систему в целом для обобщения взаимосвязей между функциями и целевой конечной точкой, которые должны быть предсказаны. Рассмотрим следующее правило (# 1 ### 0 ~ 1) (т.е. условие ~ действие). Это правило можно интерпретировать как: ЕСЛИ вторая характеристика = 1 И шестая характеристика = 0, ТО предсказание класса = 1. Мы бы сказали, что вторая и шестая характеристики были указаны в этом правиле, а остальные были обобщены. Это правило и соответствующее предсказание применимы только к экземпляру, когда экземпляр правила удовлетворяет его условиям. Это чаще называют соответствием. В ЛВПЕ Мичиган стиля, каждое правило имеет свою физическую форму, а также ряд других правил-параметры , связанные с ним , которые могут описать количество копий этого правила , которые существуют (то есть множественность ), возраст правило, его точность или точность прогнозов вознаграждения и других описательных или экспериментальных статистических данных. Правило вместе с его параметрами часто называют классификатором . В системах типа Мичиган классификаторы содержатся в совокупности [P], для которой установлено максимальное количество классификаторов, определенное пользователем. В отличие от большинства алгоритмов стохастического поиска (например, эволюционных алгоритмов ), популяции LCS начинаются пустыми (т. Е. Нет необходимости случайным образом инициализировать совокупность правил). Вместо этого классификаторы будут первоначально представлены населению с закрывающим механизмом.

В любом LCS обученная модель представляет собой набор правил / классификаторов, а не какое-либо отдельное правило / классификатор. В LCS в стиле Мичиган вся обученная (и, необязательно, уплотненная) совокупность классификаторов формирует модель прогнозирования.

Соответствие

Одним из наиболее важных и часто трудоемких элементов LCS является процесс согласования. Первый шаг в цикле обучения LCS берет один обучающий экземпляр из среды и передает его в [P], где происходит сопоставление. На втором шаге каждое правило в [P] теперь сравнивается с обучающим экземпляром, чтобы увидеть, какие правила соответствуют (т. Е. Контекстуально релевантны текущему экземпляру). На третьем шаге все правила сопоставления перемещаются в набор сопоставлений [M]. Правило соответствует обучающему экземпляру, если все значения функций, указанные в условии правила, эквивалентны соответствующему значению функции в обучающем экземпляре. Например, предполагая, что обучающий экземпляр - (001001 ~ 0), эти правила будут соответствовать: (### 0 ## ~ 0), (00 ### 1 ~ 0), (# 01001 ~ 1), но эти правила не будет (1 ##### ~ 0), (000 ## 1 ~ 0), (# 0 # 1 # 0 ~ 1). Обратите внимание, что при сопоставлении конечная точка / действие, указанное правилом, не принимается во внимание. В результате набор соответствий может содержать классификаторы, предлагающие конфликтующие действия. На четвертом шаге, поскольку мы выполняем контролируемое обучение, [M] делится на правильный набор [C] и неправильный набор [I]. Правило сопоставления попадает в правильный набор, если оно предлагает правильное действие (на основе известного действия обучающего экземпляра), в противном случае оно попадает в [I]. В LCS с обучением с подкреплением вместо этого будет сформирован набор действий [A], поскольку правильное действие неизвестно.

Покрытие

На этом этапе цикла обучения, если ни один из классификаторов не попал ни в [M], ни в [C] (как это было бы в случае, когда совокупность начинается пустой), применяется механизм покрытия (пятый шаг). Покрытие - это форма интеллектуальной инициализации населения в Интернете . Покрытие случайным образом генерирует правило, которое соответствует текущему обучающему экземпляру (а в случае контролируемого обучения это правило также генерируется с правильным действием. Предполагая, что обучающий экземпляр равен (001001 ~ 0), покрытие может сгенерировать любое из следующих правил: (# 0 # 0 ## ~ 0), (001001 ~ 0), (# 010 ## ~ 0). Покрытие не только гарантирует, что в каждом цикле обучения есть хотя бы одно правильное правило соответствия в [C], но и что любое правило, инициализированное в совокупности, будет соответствовать по крайней мере одному обучающему экземпляру.Это не позволяет LCS исследовать пространство поиска правил, не соответствующих ни одному обучающему экземпляру.

Обновление параметров / присвоение кредитов / обучение

На шестом шаге параметры правила любого правила в [M] обновляются, чтобы отразить новый опыт, полученный в текущем обучающем экземпляре. В зависимости от алгоритма LCS на этом этапе может выполняться ряд обновлений. Для обучения с учителем мы можем просто обновить точность / ошибку правила. Точность / ошибка правила отличается от точности / ошибки модели, поскольку она рассчитывается не по всем обучающим данным, а только по всем совпадающим экземплярам. Точность правила вычисляется путем деления количества раз, когда правило было в правильном наборе [C], на количество раз, когда оно было в наборе совпадений [M]. Точность правил можно рассматривать как «локальную точность». Здесь также обновляется соответствие правилу и обычно рассчитывается как функция точности правила. Понятие фитнеса взято непосредственно из классических генетических алгоритмов . Имейте в виду, что существует множество вариантов того, как LCS обновляет параметры для выполнения присвоения кредитов и обучения.

Потребление

На седьмом этапе обычно применяется механизм субсидирования . Подчинение - это явный механизм обобщения, который объединяет классификаторы, покрывающие избыточные части проблемного пространства. Подключаемый классификатор эффективно поглощает включенный классификатор (и его численность увеличивается). Это может произойти только тогда, когда включающий классификатор является более общим, столь же точным и охватывает все проблемное пространство классификатора, который он включает.

Открытие правил / генетический алгоритм

На восьмом этапе LCS применяет высокоэлитарный генетический алгоритм (GA), который выбирает два родительских классификатора на основе приспособленности (выживаемость наиболее приспособленных). Родители выбираются из числа [C], как правило, с использованием турнирного отбора . В некоторых системах применяется выбор колеса рулетки или детерминированный выбор, а родительские правила выбираются по-разному из [P] - панмиктический выбор или из [M]). Операторы кроссовера и мутации теперь применяются для создания двух новых правил потомков. На этом этапе и родительские, и дочерние правила возвращаются в [P]. Генетический алгоритм LCS является очень элитарным, поскольку на каждой итерации обучения сохраняется подавляющее большинство населения. В качестве альтернативы обнаружение правил может быть выполнено каким-либо другим методом, таким как оценка алгоритма распределения , но GA является наиболее распространенным подходом. Эволюционные алгоритмы, такие как GA, используют стохастический поиск, что делает LCS стохастическим алгоритмом. LCS стремится грамотно исследовать пространство поиска, но не выполняет исчерпывающий поиск комбинаций правил и не гарантирует схождения к оптимальному решению.

Удаление

Последний шаг в общем цикле обучения LCS - поддержание максимального размера популяции. Механизм удаления выберет классификаторы для удаления (обычно с использованием выбора колеса рулетки). Вероятность того, что классификатор будет выбран для удаления, обратно пропорциональна его пригодности. Когда классификатор выбран для удаления, его параметр численности уменьшается на единицу. Когда численность классификатора уменьшается до нуля, он полностью удаляется из генеральной совокупности.

Обучение

LCS будет циклически повторять эти шаги в течение определенного количества итераций обучения, заданного пользователем, или до тех пор, пока не будут выполнены определенные пользователем критерии завершения. Для онлайн-обучения LCS будет получать полностью новый обучающий экземпляр на каждой итерации из среды. Для автономного обучения LCS будет перебирать конечный набор обучающих данных. Как только он достигнет последнего экземпляра в наборе данных, он вернется к первому экземпляру и снова пройдет цикл по набору данных.

Правило уплотнения

После завершения обучения в популяции правил неизбежно появятся некоторые плохие, избыточные и неопытные правила. Оно является общим для применения правила уплотнения , или конденсации эвристику как шаг пост-обработки. Эта результирующая уплотненная совокупность правил готова для применения в качестве модели прогнозирования (например, для прогнозирования на тестовых экземплярах) и / или для интерпретации для обнаружения знаний .

Прогноз

Независимо от того, применялось ли сжатие правил или нет, выходом алгоритма LCS является совокупность классификаторов, которые могут применяться для прогнозирования ранее невидимых экземпляров. Механизм прогнозирования не является частью самого контролируемого цикла обучения LCS, однако он будет играть важную роль в цикле обучения LCS с обучением с подкреплением. А пока мы рассмотрим, как можно применить механизм прогнозирования для прогнозирования тестовых данных. При прогнозировании компоненты обучения LCS деактивируются, чтобы совокупность не продолжала учиться на входящих данных тестирования. Экземпляр теста передается в [P], где набор соответствий [M] формируется как обычно. На этом этапе набор совпадений по-другому передается в массив прогнозов. Правила в наборе совпадений могут предсказывать различные действия, поэтому применяется схема голосования. В простой схеме голосования побеждает действие с наиболее сильными поддерживающими «голосами» из правил сопоставления и становится выбранным прогнозом. Не все правила получают равное голосование. Скорее сила голоса за одно правило обычно пропорциональна его количеству и пригодности. Эта схема голосования и характер того, как LCS хранит знания, предполагает, что алгоритмы LCS неявно участвуют в совокупности .

Интерпретация

Индивидуальные правила LCS обычно являются удобочитаемым выражением IF: THEN. Правила, составляющие модель прогнозирования LCS, можно ранжировать по различным параметрам правила и проверять вручную. Также были предложены глобальные стратегии для управления открытием знаний с использованием статистических и графических данных. Что касается других передовых подходов к машинному обучению, таких как искусственные нейронные сети , случайные леса или генетическое программирование , системы обучающихся классификаторов особенно хорошо подходят для задач, требующих интерпретируемых решений.

История

Ранние годы

Джон Генри Холланд был наиболее известен своей работой по популяризации генетических алгоритмов (ГА), благодаря своей новаторской книге «Адаптация в естественных и искусственных системах» в 1975 году и формализации теоремы Холланда о схеме . В 1976 году Холланд концептуализировал расширение концепции ГА до того, что он назвал «когнитивной системой», и представил первое подробное описание того, что станет известно как первая система обучающихся классификаторов, в статье «Когнитивные системы, основанные на адаптивных алгоритмах». Эта первая система, получившая название Cognitive System One (CS-1), была задумана как инструмент моделирования, предназначенный для моделирования реальной системы (то есть среды ) с неизвестной основной динамикой с использованием совокупности понятных человеку правил. Цель заключалась в том, чтобы создать набор правил для выполнения машинного обучения в режиме онлайн для адаптации к среде на основе нечастых выплат / вознаграждений (например, обучения с подкреплением) и применения этих правил для создания поведения, соответствующего реальной системе. Эта ранняя амбициозная реализация позже была сочтена чрезмерно сложной и дала противоречивые результаты.

Начиная с 1980 года Кеннет де Йонг и его ученик Стивен Смит применили другой подход к машинному обучению на основе правил с (LS-1) , где обучение рассматривалось как автономный процесс оптимизации, а не как процесс онлайн-адаптации. Этот новый подход был больше похож на стандартный генетический алгоритм, но развил независимые наборы правил. С тех пор методы LCS, вдохновленные структурой онлайн-обучения, введенной Голландией в Мичиганском университете, стали называться LCS в стиле Мичиган , а методы, вдохновленные Смитом и Де Йонгом из Университета Питтсбурга, стали называться питтсбургскими. LCS . В 1986 году компания Holland разработала то, что на следующее десятилетие будет считаться стандартной системой LCS в мичиганском стиле.

Другие важные понятия , которые возникли в первые дни ЛВПА исследования было включены (1) формализация алгоритма Ковша бригады (BBA) для кредитного назначения / обучения, (2) выбор родительских правил из общих «экологической ниши» (т.е. матча набор [M]), а не из всей совокупности [P], (3) покрытие , впервые введенное как оператор создания , (4) формализация набора действий [A], (5) упрощенная архитектура алгоритма, (6 ) приспособленность на основе силы , (7) рассмотрение задач одношагового или контролируемого обучения и введение правильного набора [C], (8) приспособленность на основе точности (9) комбинация нечеткой логики с LCS (которая позже породила линию нечетких алгоритмов LCS ), (10) поощрение длинных цепочек действий и иерархий по умолчанию для повышения производительности при решении многошаговых задач, (11) изучение скрытого обучения (которое позже послужило вдохновением для новой ветви систем упреждающих классификаторов (ACS)), и (12) введение первых зачетных единиц, подобных Q-обучению. техника энт. Хотя не все эти концепции применяются в современных алгоритмах LCS, каждая из них была вехой в развитии парадигмы LCS.

Революция

Интерес к обучающим системам классификаторов возродился в середине 1990-х годов во многом благодаря двум событиям; разработка алгоритма Q-Learning для обучения с подкреплением и введение Стюартом Уилсоном значительно упрощенных архитектур LCS в стиле Мичиган. Система классификаторов нулевого уровня Уилсона (ZCS) сосредоточена на повышении алгоритмической понятности на основе стандартной реализации LCS Холландса. Частично это было сделано путем удаления правил назначения ставок и внутреннего списка сообщений, необходимых для первоначального присвоения кредита BBA, и замены его гибридной стратегией BBA / Q-Learning . ZCS продемонстрировала, что гораздо более простая архитектура LCS может работать так же хорошо, как и исходные, более сложные реализации. Тем не менее, ZCS по-прежнему страдает недостатками производительности, в том числе быстрым распространением общих классификаторов.

В 1995 году Уилсон опубликовал свою знаменательную статью «Пригодность классификатора на основе точности», в которой он представил систему классификатора XCS . XCS взял упрощенную архитектуру ZCS и добавил приспособленность на основе точности, нишевый GA (действующий в наборе действий [A]), явный механизм обобщения, называемый подчинением , и адаптацию присвоения кредитов Q-Learning . XCS был популяризирован своей способностью достигать оптимальной производительности при разработке точных и максимально общих классификаторов, а также впечатляющей гибкостью задач (способной выполнять как обучение с подкреплением, так и обучение с учителем ). Позже XCS стал самым известным и наиболее изученным алгоритмом LCS и определил новое семейство основанных на точности LCS . Альтернативно ZCS стал синонимом LCS, основанного на силе . XCS также важен, потому что он успешно преодолел разрыв между LCS и областью обучения с подкреплением . После успеха XCS, LCS позже были описаны как системы обучения с подкреплением, наделенные способностью к обобщению. Обучение с подкреплением обычно направлено на изучение функции ценности, которая отображает полное представление пространства состояния / действия. Точно так же дизайн XCS заставляет его формировать всеобъемлющее и точное представление проблемного пространства (то есть полную карту ), а не сосредотачиваться на нишах с высокой отдачей в среде (как это было в случае с LCS, основанным на силе). Концептуально полные карты отражают не только то, что вам следует делать или что правильно, но также и то, что вам не следует делать или что неправильно. Иными словами, большинство LCS, основанных на силе, или LCS с исключительно контролируемым обучением ищут набор правил эффективных обобщений в форме карты наилучших действий (или частичной карты ). С тех пор более подробно были изучены сравнения между физической подготовкой, основанной на силе и точности, а также картами полных и лучших действий.

По следам XCS

XCS вдохновил на разработку целого нового поколения алгоритмов и приложений LCS. В 1995 году Конгдон был первым, кто применил LCS к реальным эпидемиологическим исследованиям болезней, за ним последовал Холмс, который разработал BOOLE ++ , EpiCS , а затем EpiXCS для эпидемиологической классификации. Эти ранние работы вдохновили более поздний интерес к применению алгоритмов LCS для сложных и крупномасштабных задач интеллектуального анализа данных, воплощенных в приложениях биоинформатики . В 1998 году Штольцманн представил системы упреждающих классификаторов (ACS), которые включали правила в форме «условие-действие-эффект», а не классическое представление «условие-действие». ACS был разработан для прогнозирования последствий для восприятия действия во всех возможных ситуациях в окружающей среде. Другими словами, система развивает модель, которая определяет не только, что делать в данной ситуации, но также предоставляет информацию о том, что произойдет после того, как определенное действие будет выполнено. Это семейство алгоритмов LCS лучше всего подходит для многоэтапных задач, планирования, ускорения обучения или устранения неоднозначности перцептивного псевдонима (т. Е. Когда одно и то же наблюдение получается в разных состояниях, но требует разных действий). Позже Бутц продолжил это предвосхищающее семейство LCS, разработав ряд улучшений исходного метода. В 2002 году Уилсон представил XCSF , добавив вычисляемое действие для выполнения аппроксимации функции. В 2003 году компания Bernado-Mansilla представила систему классификаторов с учителем (UCS) , которая специализировала алгоритм XCS для решения задач обучения с учителем, одношаговых задач и формирования набора наилучших действий. UCS удалил стратегию обучения с подкреплением в пользу простого, основанного на точности правил приспособления, а также фаз изучения / использования, характерных для многих учащихся с подкреплением. Компания Bull представила простую LCS, основанную на точности (YCS), и простую систему минимального классификатора LCS (MCS), основанную на силе, с целью развития лучшего теоретического понимания структуры LCS. Компания Bacardit представила системы LCS в стиле Питтсбурга GAssist и BioHEL , предназначенные для интеллектуального анализа данных и масштабируемости до больших наборов данных в приложениях биоинформатики . В 2008 году Другович опубликовал книгу под названием «Проектирование и анализ обучаемых систем классификаторов», включающую некоторые теоретические исследования алгоритмов LCS. Бутц представил первое правило визуализации онлайн-обучения в графическом интерфейсе для XCSF (см. Изображение в верхней части этой страницы). Урбанович расширил структуру UCS и представил ExSTraCS, специально предназначенную для контролируемого обучения в шумных проблемных областях (например, эпидемиология и биоинформатика). ExSTraCS интегрировал (1) экспертные знания для управления охватом и генетический алгоритм в отношении важных характеристик данных, (2) форма долговременной памяти, называемая отслеживанием атрибутов, позволяющая более эффективно обучаться и характеризовать неоднородные шаблоны данных, и (3) гибкое представление правил, аналогичное смешанному дискретно-непрерывному представлению списка атрибутов Бакардита. И Бакардит, и Урбанович изучали стратегии статистики и визуализации для интерпретации правил LCS и выполнения поиска знаний для интеллектуального анализа данных. Браун и Икбал исследовали концепцию повторного использования строительных блоков в виде фрагментов кода и первыми решили проблему эталонного теста 135-битного мультиплексора, впервые изучив полезные строительные блоки из более простых задач мультиплексора. ExSTraCS 2.0 был позже представлен для улучшения масштабируемости LCS в стиле Мичиган, впервые успешно решив проблему эталонного тестирования 135-битного мультиплексора. Проблема n-битного мультиплексора очень эпистатична и неоднородна , что делает ее очень сложной задачей машинного обучения .

Варианты

Система классификаторов обучения в стиле Мичиган

LCS в мичиганском стиле характеризуются совокупностью правил, в которой генетический алгоритм работает на уровне отдельных правил, а решение представлено всей совокупностью правил. Системы в стиле Мичиган также обучаются постепенно, что позволяет им выполнять как обучение с подкреплением, так и обучение с учителем, а также как онлайн, так и офлайн. Системы в стиле Мичиган имеют то преимущество, что они применимы к большему количеству проблемных областей, а также уникальные преимущества инкрементального обучения.

Система классификаторов обучения в стиле Питтсбурга

LCS в питтсбургском стиле характеризуются совокупностью наборов правил переменной длины, каждый из которых является потенциальным решением. Генетический алгоритм обычно работает на уровне всего набора правил. Системы в стиле Питтсбурга также могут уникальным образом развивать упорядоченные списки правил, а также использовать правило по умолчанию. Эти системы обладают естественным преимуществом идентификации меньших наборов правил, что делает эти системы более интерпретируемыми в отношении проверки правил вручную.

Гибридные системы

Также были предложены системы, которые стремятся объединить ключевые сильные стороны обеих систем.

Преимущества

  • Адаптивный: они могут адаптироваться к изменяющейся среде в случае онлайн-обучения.
  • Без модели: они делают ограниченные предположения об окружающей среде или шаблонах ассоциаций в данных.
    • Они могут моделировать сложные, эпистатические, гетерогенные или распределенные основные паттерны, не полагаясь на предварительные знания.
    • Они не делают никаких предположений о количестве прогностических и непредсказуемых функций в данных.
  • Ученик ансамбля: к данному экземпляру не применяется единственная модель, которая универсально дает прогноз. Вместо этого релевантный и часто противоречивый набор правил вносит свой вклад в «голосование», которое можно интерпретировать как нечеткое предсказание.
  • Стохастический обучающийся: недетерминированное обучение выгодно в крупномасштабных задачах или задачах высокой сложности, когда детерминированное или исчерпывающее обучение становится неразрешимым.
  • Неявно многоцелевой: правила развиваются в сторону точности с неявным и явным давлением, поощряющим максимальную общность / простоту. Это неявное обобщающее давление уникально для LCS. Фактически, более общие правила будут чаще появляться в наборах соответствий. В свою очередь, у них есть более частая возможность быть избранными в качестве родителей и передать свои более общие (геномы) правилам потомства.
  • Интерпретируемый: в интересах интеллектуального анализа данных и обнаружения знаний отдельные правила LCS логичны, и их можно сделать интерпретируемыми операторами IF: THEN. Также были введены эффективные стратегии, позволяющие открывать глобальные знания, выявляя важные особенности и закономерности ассоциации из совокупности правил в целом.
  • Гибкое приложение
    • Одно- или многоэтапные задачи
    • Обучение с учителем, с подкреплением или без учителя
    • Бинарный класс и мультиклассовая классификация
    • Регресс
    • Дискретные или непрерывные элементы (или некоторое сочетание обоих типов)
    • Чистые или шумные проблемные домены
    • Сбалансированные или несбалансированные наборы данных.
    • Учитывает отсутствующие данные (т.е. отсутствующие значения функций в обучающих примерах)

Недостатки

  • Ограниченная доступность программного обеспечения: существует ограниченное количество доступных реализаций LCS с открытым исходным кодом, и еще меньше разработано, чтобы быть удобными для пользователя или доступными для практиков машинного обучения.
  • Интерпретация: хотя алгоритмы LCS, безусловно, более интерпретируемы, чем некоторые продвинутые изучающие машины, пользователи должны интерпретировать набор правил (иногда большие наборы правил для понимания модели LCS). Методы уплотнения правил и стратегии интерпретации остаются областью активных исследований.
  • Теория / Доказательства сходимости: за алгоритмами LCS стоит относительно небольшой объем теоретической работы. Вероятно, это связано с их относительной алгоритмической сложностью (с применением ряда взаимодействующих компонентов), а также их стохастической природой.
  • Переоснащение: как и любой компьютерный обучающийся, LCS может страдать от переобучения, несмотря на неявное и явное давление обобщения.
  • Параметры запуска: LCS часто имеют множество параметров запуска, которые необходимо учитывать / оптимизировать. Как правило, большинство параметров можно оставить на усмотрение сообщества по умолчанию, за исключением двух критических параметров: максимального размера популяции правил и максимального количества итераций обучения. Оптимизация этих параметров, вероятно, будет очень проблемной.
  • Известность: несмотря на свой возраст, алгоритмы LCS до сих пор не получили широкой известности даже в сообществах машинного обучения. В результате алгоритмы LCS редко рассматриваются по сравнению с другими общепринятыми подходами к машинному обучению. Вероятно, это связано со следующими факторами: (1) LCS - относительно сложный алгоритмический подход, (2) LCS, моделирование на основе правил - это парадигма моделирования, отличная от почти всех других подходов к машинному обучению. (3) Программные реализации LCS встречаются не так часто.
  • Вычислительные затраты: хотя алгоритмы LCS, безусловно, более осуществимы, чем некоторые исчерпывающие подходы, они могут быть дорогостоящими в вычислительном отношении. Для простых линейных задач обучения нет необходимости применять LCS. Алгоритмы LCS лучше всего подходят для сложных проблемных пространств или проблемных пространств, в которых мало предварительных знаний.

Проблемные домены

  • Адаптивное управление
  • Сбор данных
  • Инженерный дизайн
  • Выбор функции
  • Аппроксимация функций
  • Game-Play
  • Классификация изображений
  • Обработка знаний
  • Медицинский диагноз
  • Моделирование
  • Навигация
  • Оптимизация
  • Прогноз
  • Запрос
  • Робототехника
  • Маршрутизация
  • Правило-индукция
  • Планирование
  • Стратегия

Терминология

Название «Learning Classifier System (LCS)» немного вводит в заблуждение, поскольку существует множество алгоритмов машинного обучения , которые «учатся классифицировать» (например, деревья решений , искусственные нейронные сети ), но не являются LCS. Термин «машинное обучение на основе правил ( RBML )» полезен, поскольку он более четко отражает существенный «основанный на правилах» компонент этих систем, но он также распространяется на методы, которые не считаются LCS (например, изучение правил ассоциации , или искусственная иммунная система ). Более общие термины, такие как «машинное обучение на основе генетики» и даже «генетический алгоритм», также применялись для обозначения того, что было бы более характерно определено как система обучающихся классификаторов. Из-за их сходства с генетическими алгоритмами системы классификаторов обучения Питтсбургского стиля иногда в общем называют «генетическими алгоритмами». Помимо этого, некоторые алгоритмы LCS или близкие к ним методы называются «когнитивными системами», «адаптивными агентами», « производственными системами » или, в общем, «системой классификаторов». Такое изменение терминологии вносит некоторую путаницу в поле зрения.

Вплоть до 2000-х годов почти все методы системы обучающих классификаторов разрабатывались с учетом задач обучения с подкреплением. В результате термин «обучающая система классификаторов» обычно определялся как комбинация обучения с подкреплением «методом проб и ошибок» с глобальным поиском генетического алгоритма. Интерес к приложениям для обучения с учителем и даже к обучению без учителя с тех пор расширил использование и определение этого термина.

Смотрите также

Рекомендации

Внешние ссылки

Видеоурок

Интернет страницы