Список алгоритмов scikit-learn, требующих стандартизации / нормализации

Может ли кто-нибудь предоставить список всех алгоритмов, для которых необходимо стандартизировать или нормализовать данные перед использованием? Или кто-нибудь может рассказать мне с примером, где я могу найти его в документации scikit-learn.

На этот вопрос нет четкого ответа «требует» / «требует не». Например, нейронная сеть будет работать с масштабированными или немасштабированными данными, но может получить выгоду от стандартизации. Следовательно, вам скорее нужно обсудить, какой алгоритм в каком сценарии выигрывает от стандартизации / нормализации.

Markus 09.09.2018 21:57
Стоит ли изучать PHP в 2023-2024 годах?
Стоит ли изучать PHP в 2023-2024 годах?
Привет всем, сегодня я хочу высказать свои соображения по поводу вопроса, который я уже много раз получал в своем сообществе: "Стоит ли изучать PHP в...
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
В JavaScript одним из самых запутанных понятий является поведение ключевого слова "this" в стрелочной и обычной функциях.
Приемы CSS-макетирования - floats и Flexbox
Приемы CSS-макетирования - floats и Flexbox
Здравствуйте, друзья-студенты! Готовы совершенствовать свои навыки веб-дизайна? Сегодня в нашем путешествии мы рассмотрим приемы CSS-верстки - в...
Тестирование функциональных ngrx-эффектов в Angular 16 с помощью Jest
В системе управления состояниями ngrx, совместимой с Angular 16, появились функциональные эффекты. Это здорово и делает код определенно легче для...
Концепция локализации и ее применение в приложениях React ⚡️
Концепция локализации и ее применение в приложениях React ⚡️
Локализация - это процесс адаптации приложения к различным языкам и культурным требованиям. Это позволяет пользователям получить опыт, соответствующий...
Пользовательский скаляр GraphQL
Пользовательский скаляр GraphQL
Листовые узлы системы типов GraphQL называются скалярами. Достигнув скалярного типа, невозможно спуститься дальше по иерархии типов. Скалярный тип...
0
1
57
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

В большинстве случаев масштабирование функции означает, что:
1. Сделайте средние значения всех функций не слишком большими (скажем, 0)
2. Сделайте примерно одинаковую дисперсию всех характеристик (скажем, 1).

Так что ваш вопрос можно задать несколько иначе:
1) какие алгоритмы зависят от абсолютных значений, близких к нулю?
2) какие алгоритмы требуют сопоставимого распределения значений?
3) какие алгоритмы используют регуляризацию, которая наказывает чрезмерный вес функций?

Первая точка тесно связана с функциями активации в ИНС, которая имеет максимальные возможности обучения, близкие к нулю (сигмоид, tanh, relu) из-за производных.

2-й и 3-й баллы связаны с равенством весов различных характеристик.

В общем, из-за 2-го и 3-го пунктов вы всегда должны делать масштабирование. Исключением являются деревья решений, в которых не используются какие-либо совместные показатели с различными функциями или какие-либо предположения о среднем значении, и поэтому их можно использовать без масштабирования.

Эй, ты можешь сказать мне, как найти ответы на три вышеупомянутых вопроса?

Krissh 09.09.2018 13:28

Вы должны точно знать, что делаете. Что касается классификации или регрессии, используйте масштабирование во всех случаях, кроме деревьев решений. Для кластеризации думаю то же самое, но нужно проверить реализацию алгоритма. Вы можете просто сравнить результаты с масштабированием и без него - если они одинаковы, то вполне вероятно, что абсолютные значения и дисперсия не имеют значения, в другом случае используйте масштабирование.

Dmitry Mottl 09.09.2018 20:41

Другие вопросы по теме