Comments 20
Придирка к задаче про рост: вероятность одноточечного множества может быть и ненулевой, это зависит от распределения. Реально рост распределен более-менее нормально, но в формулировке это не сказано.
А ведь и правда, пропустил эту деталь. Добавил "нормально распределённая случайная переменная".
Спасибо!
Возможно я подзабыл курс универской математики, но разве дискретная переменная обязательно имеет конечное множество значений? Дискретность противопоставляется непрерывности, а не размерности множества.
Да и само по себе определение дискретности подразумевает в себе 'разделимость' значений, так что звучит для меня как тавтология.
Если быть точным, то значения дискретной переменной могут принадлежать конечному (finite) либо счётному (countable) множеству. Счётное множество — это, например, множество всех возможных строк из символов таблицы ASCII. В теории для них тоже можно построить распределение вероятностей, свойства которого будут чем-то средним между свойствами непрерывного и конечного дискретного распределения. На практике мне ещё не приходилось работать с бесконечным набором признаков объекта, да и окунать читателя в детали теории множеств не особо хотелось. Поэтому, я надеюсь, вы простите мне эту маленьку ложь.
(В статье, кстати, ещё много примеров маленькой лжи. Самая большая маленькая ложь, пожалуй, это определение вероятности, которую я сначала показываю на примере подсчёта встречаемости, потом обзываю функцией с шумом, а на самом деле это мера, да ещё и с несколькими возможными интерпретациями; а случайная переменная, соответсвенно, — это измеримая функция. Но последний раз, когда я пытался быть математически точным, люди начинали похрапывать минуте на 8й и выходили с полным отсутствием понимания).
Самый простой пример дискретной случайной величины с бесконечным множеством значений:
Подбрасывать монетку, пока не выпадет орел.
Результатом измерения случайной величины считать количество подбрасываний.
Хм, согласен. Наверное, распределение Пуассона сюда тоже попадёт, хотя я его плохо знаю. Убрал "конечное", спасибо за пример.
Годнота!
Вот такие статьи по ML хочу видеть на Хабре.
"кривой плотоности"
"органиченной точностью"
Применять алгоритмическую парадигму к полностью неалгоритмической, классической теории вероятностей как то вызывает настороженность и сомнения.
Это уже зависит от целей. Если цель — построить красивую теоретическую систему, то да, наверное это важно. Если же цель менее благородная, но более практическая, то обычно и наивного представление о вероятности хватает для любого практического применения.
Martin-Löf
Если строить алгоритмы, то нужно использовать такое определение как начало рассуждений.
Про вероятности