tf – idf - tf–idf


В поиске информации , TF-IDF , TF * IDF , или TFIDF , короткий для термина частотного обратной частоты документа , является числовой статистикой , которая призвана отразить , насколько важно слово к документу в коллекции или корпусе . Он часто используется в качестве весового коэффициента при поиске информации, интеллектуальном анализе текста и пользовательском моделировании . Значение tf – idf увеличивается пропорционально тому, сколько раз слово появляется в документе, и компенсируется количеством документов в корпусе, которые содержат это слово, что помогает учесть тот факт, что некоторые слова в целом встречаются чаще. tf – idf - одна из самых популярных сегодня схем взвешивания терминов. Опрос, проведенный в 2015 году, показал, что 83% текстовых рекомендательных систем в электронных библиотеках используют tf – idf.

Варианты схемы взвешивания tf – idf часто используются поисковыми системами в качестве центрального инструмента для оценки и ранжирования релевантности документа с учетом пользовательского запроса . tf – idf может успешно использоваться для фильтрации стоп-слов в различных предметных полях, включая текстовое обобщение и классификацию.

Одна из простейших функций ранжирования вычисляется путем суммирования tf – idf для каждого термина запроса; многие более сложные функции ранжирования являются вариантами этой простой модели.

Мотивации

Частота сроков

Предположим, у нас есть набор текстовых документов на английском языке, и мы хотим ранжировать их по тому, какой документ более соответствует запросу «коричневая корова». Простой способ начать - удалить документы, которые не содержат всех трех слов «the», «brown» и «cow», но при этом остается много документов. Чтобы различать их, мы можем подсчитать, сколько раз каждый термин встречается в каждом документе; количество раз, когда термин встречается в документе, называется частотой его употребления . Однако в случае, когда объем документов сильно различается, часто вносятся корректировки (см. Определение ниже). Первая форма взвешивания терминов была предложена Хансом Петером Луном ( Hans Peter Luhn, 1957), и ее можно резюмировать следующим образом:

Вес термина, который встречается в документе, просто пропорционален частоте использования термина.

Частота обратного документа

Поскольку термин «the» настолько распространен, частота использования термина будет иметь тенденцию неправильно выделять документы, в которых слово «the» используется чаще, без придания достаточного веса более значимым терминам «коричневый» и «корова». Термин «the» не является подходящим ключевым словом для различения релевантных и нерелевантных документов и терминов, в отличие от менее распространенных слов «коричневый» и «корова». Следовательно, включен обратный коэффициент частоты документа, который уменьшает вес терминов, которые очень часто встречаются в наборе документов, и увеличивает вес терминов, которые встречаются редко.

Карен Спэрк Джонс (1972) разработала статистическую интерпретацию специфичности термина, названную обратной частотой документа (idf), которая стала краеугольным камнем взвешивания терминов:

Специфичность термина может быть определена как функция, обратная количеству документов, в которых он встречается.

Определение

  1. Tf – idf - это произведение двух статистических данных, частоты термина и обратной частоты документа . Существуют различные способы определения точных значений обеих статистических данных.
  2. Формула, предназначенная для определения важности ключевого слова или фразы в документе или на веб-странице.
Варианты кратности срока (тс) веса
схема взвешивания тс вес
двоичный
сырой счет
частота сроков
нормализация журнала
двойная нормализация 0,5
двойная нормализация K

Частота сроков

Частота термина tf ( t , d ) - частота термина t ,

,

где f t , d - это исходное количество термина в документе, т. е. количество раз, когда термин t встречается в документе d . Есть несколько других способов определить частоту использования терминов:

  • сам исходный счет: tf ( t , d ) = f t , d
  • Логические «частоты»: tf ( t , d ) = 1, если t встречается в d, и 0 в противном случае;
  • Частота термина с поправкой на длину документа: tf ( t , d ) = f t , d ÷ (количество слов в d)
  • логарифмически масштабируемая частота: tf ( t , d ) = log (1 + f t , d ) ;
  • увеличенная частота, чтобы предотвратить предвзятость в сторону более длинных документов, например, необработанная частота, деленная на исходную частоту наиболее часто встречающегося термина в документе:

Частота обратного документа

Варианты обратного веса документа (idf)
схема взвешивания вес idf ( )
унарный 1
частота обратного документа
обратная частота документа гладкая
частота обратного документа макс.
вероятностная обратная частота документа

Частота обратного документа - это мера того, сколько информации предоставляет слово, т. Е. Является ли оно общим или редким во всех документах. Это логарифмически масштабированная обратная доля документов, содержащих слово (полученная путем деления общего количества документов на количество документов, содержащих термин, и последующего логарифма этого частного):

с участием

  • : общее количество документов в корпусе
  •  : количество документов, в которых встречается термин (т. е. ). Если термин отсутствует в корпусе, это приведет к делению на ноль. Поэтому обычно знаменатель корректируется на .
График различных обратных частотных функций документа: стандартный, гладкий, вероятностный.

Частота термина - обратная частота документа

Тогда tf – idf рассчитывается как

Высокий вес в tf – idf достигается за счет высокой частоты термина (в данном документе) и низкой частоты использования термина во всем наборе документов; поэтому веса имеют тенденцию отфильтровывать общие термины. Поскольку соотношение внутри функции журнала idf всегда больше или равно 1, значение idf (и tf – idf) больше или равно 0. Поскольку термин появляется в большем количестве документов, отношение внутри логарифма приближается к 1 , приближая idf и tf – idf к 0.

Рекомендуемые схемы взвешивания tf – idf
схема взвешивания вес срока документа вес термина запроса
1
2
3

Обоснование idf

Idf был представлен как «специфичность термина» Карен Шперк Джонс в статье 1972 года. Хотя он хорошо зарекомендовал себя в качестве эвристики , его теоретические основы были проблемными в течение как минимум трех десятилетий после этого, и многие исследователи пытались найти для него теоретическое обоснование информации .

Собственное объяснение Спэрка Джонса не предлагало много теории, за исключением связи с законом Ципфа . Были предприняты попытки поставить idf на вероятностную основу путем оценки вероятности того, что данный документ d содержит термин t как относительную частоту документов,

так что мы можем определить idf как

А именно, обратная частота документа является логарифмом «обратной» относительной частоты документа.

Эта вероятностная интерпретация, в свою очередь, принимает ту же форму, что и самоинформация . Однако применение таких теоретико-информационных понятий к проблемам при поиске информации приводит к проблемам при попытке определить соответствующие пространства событий для требуемых распределений вероятностей : необходимо учитывать не только документы, но также запросы и термины.

Связь с теорией информации

Частота термина и обратная частота документа могут быть сформулированы с использованием теории информации ; это помогает понять, почему их продукт имеет значение с точки зрения общего информационного содержания документа. Характерное предположение о распределении состоит в том, что:

Это предположение и его последствия, по словам Айзавы: «представляют собой эвристику, которую использует tf-idf».

Вспомните выражение условной энтропии для «случайно выбранного» документа в корпусе, обусловленного тем фактом, что он содержит конкретный термин (и предположим, что все документы имеют равную вероятность быть выбранными, и малость r = вероятности)):

В терминах обозначений и являются «случайными величинами», соответствующими соответственно отрисовке документа или термина. Теперь вспомните определение взаимной информации и обратите внимание, что ее можно выразить как

Последний шаг - расширить безусловную вероятность нарисовать термин относительно (случайного) выбора документа, чтобы получить:

Это выражение показывает, что суммирование Tf – idf всех возможных терминов и документов восстанавливает взаимную информацию между документами и термином с учетом всех особенностей их совместного распределения. Следовательно, каждый Tf – idf несет «бит информации», прикрепленный к паре документов термин x.

Пример tf – idf

Предположим, что у нас есть таблицы количества терминов в корпусе, состоящем только из двух документов, как указано справа.

Документ 2
Срок Срок действия
это 1
является 1
Другая 2
пример 3
Документ 1
Срок Срок действия
это 1
является 1
а 2
образец 1

Расчет tf – idf для термина «это» выполняется следующим образом:

В необработанной форме частоты tf - это просто частота «this» для каждого документа. В каждом документе слово «это» встречается один раз; но поскольку в документе 2 больше слов, его относительная частота меньше.

Идентификатор idf является постоянным для корпуса и учитывает соотношение документов, содержащих слово «это». В данном случае у нас есть корпус из двух документов, и все они включают слово «это».

Таким образом, tf – idf равно нулю для слова «это», что означает, что это слово не очень информативно, поскольку оно встречается во всех документах.

Слово «пример» более интересно - оно встречается трижды, но только во втором документе:

Наконец-то,

(с использованием логарифма по основанию 10 ).

Вне сроков

Идея tf – idf также применима к объектам, отличным от терминов. В 1998 году понятие idf было применено к цитированию. Авторы утверждали, что «если очень необычная цитата встречается в двух документах, это должно иметь больший вес, чем цитирование, сделанное большим количеством документов». Кроме того, tf – idf применялся к «визуальным словам» с целью сопоставления объектов в видео и целых предложениях. Однако концепция tf – idf не во всех случаях оказалась более эффективной, чем простая схема tf (без idf). Когда к цитированию применялся tf – idf, исследователи не могли найти никаких улучшений по сравнению с простым весом цитирования, в котором не было компонента idf.

Производные

Ряд схем взвешивания членов произошел от tf – idf. Один из них - TF – PDF (Term Frequency * Proportional Document Frequency). TF – PDF был введен в 2001 году в контексте выявления новых тем в СМИ. Компонент PDF измеряет разницу в том, как часто термин встречается в разных доменах. Еще одно производное - TF – IDuF. В TF – IDuF идентификатор idf не рассчитывается на основе корпуса документов, в котором необходимо выполнить поиск или который будет рекомендован. Вместо этого idf рассчитывается для личных коллекций документов пользователей. Авторы сообщают, что TF-IDuF был столь же эффективен, как и tf-idf, но также мог применяться в ситуациях, когда, например, система пользовательского моделирования не имеет доступа к глобальному корпусу документов.

Смотрите также

использованная литература

Внешние ссылки и рекомендуемая литература