Перейти к навигации Перейти к поиску
Тема этой статьи может не соответствовать общему руководству Википедии о известности . ( май 2010 г. )( Узнайте, как и когда удалить этот шаблон сообщения ) |
Информационные нечеткие сети (IFN) - это жадный алгоритм машинного обучения для контролируемого обучения . Структура данных, созданная алгоритмом обучения, также называется информационной нечеткой сетью. Построение IFN очень похоже на построение деревьев решений . Однако IFN строит ориентированный граф, а не дерево . IFN также использует условную метрику взаимной информации для выбора функций на этапе построения, в то время как деревья решений обычно используют другие метрики, такие как энтропия или Джини .
IFN и этапы процесса открытия знаний [ править ]
- Дискретизация непрерывных функций
- Выбор функции
- Создает модель для классификации
- Оценка извлеченных ассоциативных правил и их приоритетность
- Обнаружение аномалий
Атрибуты IFN [ править ]
- Модель IFN частично решает проблему фрагментации, которая возникает в деревьях решений (чем глубже узел, тем меньше записей он представляет. Следовательно, количество записей может быть слишком низким для индикации статистической значимости ), поскольку весь набор записей используется на каждом уровне. .
- Каждый узел внутри сети называется внутренним или скрытым узлом.
- В IFN каждая переменная может появляться только в одном слое, и в слое не может быть более одного атрибута. Не все атрибуты должны использоваться.
- Увеличение условного MI целевой переменной после построения сети равно сумме увеличения условного MI во всех слоях.
- Эти дуги от конечных узлов к узлам целевой переменным взвешиваются (терминальные узлы являются узлами , непосредственно подключенных к узлам целевой переменных). Вес - это условная взаимная информация из-за дуги.
- IFN сравнивали на нескольких общих наборах данных с алгоритмом дерева решений c4.5 . В модели IFN обычно используется меньше переменных и меньше узлов. Точность ИФН был меньше одного дерева решений. Модель IFN обычно более устойчива, а это означает, что небольшие изменения в обучающей выборке повлияют на нее меньше, чем в других моделях.
Алгоритм построения IFN [ править ]
Входные данные: список входных переменных, которые можно использовать, список записей данных (обучающий набор) и минимальная статистическая значимость, используемая для принятия решения о том, разделять узел или нет (по умолчанию 0,1%).
- Создайте корневой узел и слой целевой переменной.
- Повторяйте цикл до тех пор, пока мы не исчерпаем все атрибуты, или пока он не сможет улучшить условную взаимную информацию со статистической значимостью .
- Найдите атрибут с максимальной условной взаимной информацией .
- Убедитесь, что вклад атрибута имеет статистическую значимость, используя тест отношения правдоподобия .
- Разделите любой узел в предыдущем слое, если вклад текущего атрибута имеет статистическую значимость. В противном случае создайте узел из этого узла в один из узлов значений целевой переменной в соответствии с правилом большинства .
- возвращает список переменных, выбранных для использования сетью и самой сетью.
Внешние ссылки [ править ]
- Фаззификация и сокращение наборов теоретико-информационных правил в интеллектуальном анализе данных и вычислительном интеллекте, А. Кандел , М. Ласт и Х. Бунке (редакторы), Physica-Verlag, Studies in Fuzziness and Soft Computing, Vol. 68. С. 63–93, 2001.
- Сравнительное исследование искусственных нейронных сетей и информационных нечетких сетей по их использованию в тестировании программного обеспечения