- Файл
- История файлов
- Использование файла
- Глобальное использование файлов
- Метаданные
Размер этого PNG-превью для исходного SVG-файла: 800 × 383 пикселей . Другие разрешения: 320 × 153 пикселей | 640 × 306 пикселей | 1024 × 490 пикселей | 1280 × 613 пикселей | 2560 × 1225 пикселей | 815 × 390 пикселей .
Исходный файл (SVG - файл, номинально 815 × 390 пикселей, размер файла: 6 КБ)
История файлов
Щелкните дату / время, чтобы просмотреть файл в том виде, в котором он был в то время.
Дата / время | Эскиз | Габаритные размеры | Пользователь | Комментарий | |
---|---|---|---|---|---|
Текущий | 11:47, 12 апреля 2015 | 815 × 390 (6 КБ) | Offnfopt | Страница, созданная пользователем с помощью UploadWizard |
Использование файла
Этот файл используется более чем на 100 страницах. В следующем списке показаны первые 100 страниц, которые используют только этот файл. Полный список доступен.
- Обучение модели действия
- Активное обучение (машинное обучение)
- Искусственный интеллект
- Искусственная нейронная сеть
- Изучение правил ассоциации
- Автоэнкодер
- БЕРЕЗА
- Обратное распространение
- Компромисс смещения и дисперсии
- Повышение (машинное обучение)
- Агрегирование бутстрапа
- Алгоритм CURE
- Каноническая корреляция
- Теория вычислительного обучения
- Условное случайное поле
- Конференция по нейронным системам обработки информации
- Сверточная нейронная сеть
- DBSCAN
- Сбор данных
- Наука о данных
- Обучение дереву решений
- DeepDream
- Сеть глубоких убеждений
- Глубокое обучение
- Deeplearning4j
- Минимизация эмпирического риска
- Ансамблевое обучение
- Устойчивость к ошибкам (обучение PAC)
- Машина для экстремального обучения
- Функциональная инженерия
- Особенности обучения
- Масштабирование функций
- Выбор функции
- Нечеткая кластеризация
- Генеративная состязательная сеть
- Повышение градиента
- Введение в грамматику
- Графическая модель
- Иерархическая кластеризация
- Независимый компонентный анализ
- Международная конференция по машинному обучению
- К-СВД
- Метод ядра
- Перцептрон ядра
- Учимся ранжировать
- Список наборов данных для исследований в области машинного обучения
- Фактор местного выброса
- Логическая обучающая машина
- Дерево логистической модели
- Долговременная кратковременная память
- Машинное обучение
- Средний сдвиг
- Многослойный перцептрон
- Многократное обучение
- Множественное обучение ядра
- Наивная байесовская фильтрация спама
- Анализ компонентов окружения
- Факторизация неотрицательной матрицы
- Алгоритм ОПТИКИ
- Обучение Оккама
- Машинное обучение онлайн
- Ошибка вне сумки
- Перцептрон
- Масштабирование Платта
- Вероятностная классификация
- Наверное, примерно правильное обучение
- Правильное ортогональное разложение
- Q-обучение
- Случайный лес
- Рекуррентная нейронная сеть
- Регрессионный анализ
- Обучение с подкреплением
- Вектор релевантности
- Ограниченная машина Больцмана
- Сложность образца
- Самоорганизующаяся карта
- Полу-контролируемое обучение
- Скудное изучение словаря
- Состояние – действие – награда – состояние – действие
- Статистическая теория обучения
- Структурированный прогноз
- Контролируемое обучение
- Машина опорных векторов
- Обучение временной разнице
- Обучение без учителя
- Проблема исчезающего градиента
- Теория Вапника – Червоненкиса.
- Word2vec
- Встраивание слов
- Пользователь: Anonymousbadger / песочница
- Пользователь: Kazkaskazkasako / Книги / EECS
- Пользователь: Like.liberation / sandbox
- Пользователь: Лиоррокач / песочница
- Пользователь: Mgkrupa
- Юзер: Мнейков / песочница
- Юзер: Пакоч / песочница
- Пользователь: Pixtonc / песочница
- Пользователь: Quantares / песочница
- Пользователь: Scott.linderman / sandbox
- Пользователь: TonyWang0316 / sandbox
Посмотреть дополнительные ссылки на этот файл.
Глобальное использование файлов
Следующие другие вики используют этот файл:
- Использование на en.wikibooks.org
- Искусственные нейронные сети / сети прямого распространения
- Искусственные нейронные сети / Версия для печати
- Использование на pt.wikipedia.org
- Predefinição: Barra de aprendizagem de máquina
- Апрендизагем супервизия
- Использование на tr.wikipedia.org
- Кулланиджы: Мухаммед Энес Эльмас / deneme tahtası
- Использование на uk.wikipedia.org
- Машинне навчання
- Штучна нейронна мережа
- Метод головних компонент
- Кластеризація методом к – середніх
- Самоорганізаційна Карта Кохонена
- Рекурентна нейронна мережа
- Кластерний аналіз
- Перцептрон
- Метод зворотного поширення помилки
- Багатошаровий перцептрон Румельхарта
- Теория розпізнавання образів
- Задача класифікації
- Прихована марковська модель
- Ядрові методи
- Метод опорних векторов
- Ієрархічна кластеризація
- Наївний баєсів класификатор
- EM-алгоритм
- Случайный лес
- Шаблон: Машинне навчання
- Навчання без учителя
- ОПТИКА
- Виявлення аномалій
- Розклад невід'ємних матриць
- Навчання с учителем
- Наведение по подписке
- Нейронна мережа прямого поширення
- Метод к-найближчих сусідів
- Глибинне навчання
- Навчання ознак
- Обмежена машина Больцмана
- Глибинна мережа переконань
- Згорткова нейронна мережа
- Обирання ознак
- Автокодувальник
- Конструювання ознак
- Q-навчання
- Напівавтоматичне навчання
- Проблема зникання градієнту
- Ймовірнісна класифікація
- Доречно-векторна машина
- Компромиссы и дисперсия
- Мінімізація емпіричного ризику
- Теория Вапника - Червоненкіса
- Теорія статистичного навчання
Посмотреть более глобальное использование этого файла.