Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Информационные нечеткие сети (IFN) - это жадный алгоритм машинного обучения для контролируемого обучения . Структура данных, созданная алгоритмом обучения, также называется информационной нечеткой сетью. Построение IFN очень похоже на построение деревьев решений . Однако IFN строит ориентированный граф, а не дерево . IFN также использует условную метрику взаимной информации для выбора функций на этапе построения, в то время как деревья решений обычно используют другие метрики, такие как энтропия или Джини .

IFN и этапы процесса открытия знаний [ править ]

Атрибуты IFN [ править ]

  1. Модель IFN частично решает проблему фрагментации, которая возникает в деревьях решений (чем глубже узел, тем меньше записей он представляет. Следовательно, количество записей может быть слишком низким для индикации статистической значимости ), поскольку весь набор записей используется на каждом уровне. .
  2. Каждый узел внутри сети называется внутренним или скрытым узлом.
  3. В IFN каждая переменная может появляться только в одном слое, и в слое не может быть более одного атрибута. Не все атрибуты должны использоваться.
  4. Увеличение условного MI целевой переменной после построения сети равно сумме увеличения условного MI во всех слоях.
  5. Эти дуги от конечных узлов к узлам целевой переменным взвешиваются (терминальные узлы являются узлами , непосредственно подключенных к узлам целевой переменных). Вес - это условная взаимная информация из-за дуги.
  6. IFN сравнивали на нескольких общих наборах данных с алгоритмом дерева решений c4.5 . В модели IFN обычно используется меньше переменных и меньше узлов. Точность ИФН был меньше одного дерева решений. Модель IFN обычно более устойчива, а это означает, что небольшие изменения в обучающей выборке повлияют на нее меньше, чем в других моделях.

Алгоритм построения IFN [ править ]

Входные данные: список входных переменных, которые можно использовать, список записей данных (обучающий набор) и минимальная статистическая значимость, используемая для принятия решения о том, разделять узел или нет (по умолчанию 0,1%).

  1. Создайте корневой узел и слой целевой переменной.
  2. Повторяйте цикл до тех пор, пока мы не исчерпаем все атрибуты, или пока он не сможет улучшить условную взаимную информацию со статистической значимостью .
    1. Найдите атрибут с максимальной условной взаимной информацией .
    2. Убедитесь, что вклад атрибута имеет статистическую значимость, используя тест отношения правдоподобия .
    3. Разделите любой узел в предыдущем слое, если вклад текущего атрибута имеет статистическую значимость. В противном случае создайте узел из этого узла в один из узлов значений целевой переменной в соответствии с правилом большинства .
  3. возвращает список переменных, выбранных для использования сетью и самой сетью.

Внешние ссылки [ править ]

  • Фаззификация и сокращение наборов теоретико-информационных правил в интеллектуальном анализе данных и вычислительном интеллекте, А. Кандел , М. Ласт и Х. Бунке (редакторы), Physica-Verlag, Studies in Fuzziness and Soft Computing, Vol. 68. С. 63–93, 2001.
  • Сравнительное исследование искусственных нейронных сетей и информационных нечетких сетей по их использованию в тестировании программного обеспечения