Pull to refresh

Comments 49

> соотношение неопределенностей в квантовой механике в математическом смысле есть прямое следствие свойств преобразования Фурье…

Странное какое-то утверждение. Вообще-то соотношение неопределенности имеет в своей основе то, что координата и импульс не являются независимыми переменными — и, как следствие, их операторы некоммутативны.
Применительно к квантовой механике сразу возникает вопрос, что же первично — математический факт или конкретная физическая особенность нашего мира. Аккуратнее надо, а то философы набегут (у меня-то кандидатский по ней на тройку едва сдан, так что не страшно).
Насколько мне удалось понять, в квантовой механике особый взгляд на природу времени, в рамках которого понятия первично и вторично теряют привычный смысл, поэтому вопрос будет некорректен :)
Нет в классической квантовой теории особого понимания времени. Оно есть в релятивистской теории, в том числе и в квантовой, но вроде бы не об этом речь.

А вопрос «что первично — теория или эксперимент» (как изначально ставилось) — очень философский, спорный и сложный, потому, что квантовые эксперименты всё равно все сейчас непрямые, а значит — обсчитываются через теорию. Но вообще «теория первична» — это идеалистический взгляд на мир, а «эксперимент первичен» — материалистический.
Тут нет смысла говорить о первичности. Присутствует и то, и другое. Физическая особенность мира проявляется в том, что частицы в квантовой механике описываются волнами вероятности, а для волн верен математический факт, численно выражающийся в соотношении неопределенностей.

Кстати, соотношение неопределенностей Гейзенберга легко иллюстрируется следующим рассуждением в предположении о волновой природе частиц.
1. Пусть у нас есть волновой цуг (фрагмент волны) длины L. Неопределенность положения частицы Δx совпадает с L.
2. На волновом цуге укладывается L/λ «горбов» и «впадин», где λ — длина волны (расстояние между соседними горбами). При этом мы можем посчитать количество горбов лишь с точностью до 1, то есть Δ(L/λ) ~ 1.
3. В квантовой механике длина волны связана с импульсом частицы: p = h/λ.
4. Из пунктов 2 и 3: Δ(Lp/h) = L Δp/h ~ 1, или Δx Δp ~ h.

Физика здесь в третьем пункте, математика осталась во втором.
Очень смущают на первом графике несколько точек квантования в отдельно взятую единицу времени. Мне казалось, что график должен выглядить примерно так, с одним измеренным значением в каждый отдельный момент: image
Спасибо! Вы абсолютно правы, иллюстрации брал из интернета и не обратил внимания на эту ошибку. Постараюсь исправить в ближайшее время.
Если вдуматься, то этот момент хорошо иллюстрирует теорему Котельникова-Найквиста-Шеннона, о том, что частота дискретизации должна быть не меньше максимальной удвоенной частоты сигнала…


Этот момент — нет. Этот момент хорошо иллюстрирует только свойства преобразования Фурье для входных данных являющихся действительными числами :)

Дискретное преобразование Фурье даёт нам дискретный спектр, где каждое значение амплитуды отстоит от соседних на равные промежутки по частоте. И если частота в сигнале кратна шагу равному (частота дискретизации)/(количество отсчётов), то мы получим выраженный остроконечный пик, но если частота сигнала лежит где-то между границами шага ближе к середине у нас выйдет пик со «срезанной» вершиной и нам будет затруднительно сказать, что же там за частота

Чтобы как-то обойти это ограничение иногда применяют аппроксимирующие функции, например, параболические.


Гораздо проще просто дописать нулей во входные данные (как собственно и упоминается выше по тексту). Это не оптимально по скорости, но часто удобно
А в целом метод определения центра гармоники очень интересный, спасибо за ссылочки :)
Работает конечно только для сигналов которые можно разложить в несколько сильно разнесенных по частоте синусоид, но зато быстро, эффективно и не зависит от выбора оконной функции
Существует ли более естественный путь для точного определения частоты?
Да, и скрыт он как раз-таки в использовании фазового спектра сигнала, которым часто пренебрегают.
Данный метод уточнения частоты сигнала, основан на вычислении задержки фаз у спектров двух кадров, наложенных друг на друга, но немного сдвинутых во времени.

То есть, использовать информацию из нескольких окон подряд? Практически то же самое, что и использовать окно большего размера.

Вообще очень хорошо понимать, что «принцип неопределённости» в данном случае звучит как «если имеем хорошее разрешение по частоте, то плохое разрешение по времени», и наоборот. Хорошо знаем момент времени (узкое окно) — плохо (грубо) знаем частоту. Хорошо знаем частоту — плохо знаем в какой момент времени это было (широкое окно).
Там идея в том что если есть чистая синусоида, то её спектр — это фактически просто спектр оконной функции (свернутый пару раз с собой, но при упоминающемся в исходных ссылках грамотном выборе оконной функции это не вносит существенных искажений). Точно определив этот спектр (а для этого достаточно и нескольких отсчетов поскольку функция параметризуется всего двумя параметрами) можно определить и исходный гармонический сигнал. Работает это естественно только для чистых синусоид или хотя бы синусоид разнесенных по частоте достаточно для того чтобы спектры их свертки с окном существенно не перекрывались. Ну а метод с перекрытием, собственно, просто позволяет удобно определять положение центральной частоты у спектра окна причем независимо от выбранной оконной функции просто за счет наблюдения что сдвиг окна не меняет его амплитудную характеристику, но по строго определенному закону зависящему от центральной частоты меняет фазовую.

Сам по себе этот метод идеологически не отличается от подхода «добить выборку кучей нулей, а затем найти максимум в спектре» — хотя сам спектр довольно широк, но если исходный сигнал чисто синусоидальный, то этот максимум тоже точно дает нужную частоту. Просто его вычислять куда быстрее, да и по-своему удобнее. Различить две синусоиды с близкими частотами он не позволит, а вот найти точную частоту одной синусоиды когда мы точно знаем что она одна — вполне.
Да, действительно. Вот это объяснение конечно не укладывается по стилю в статью, но там его не хватает.
То есть, использовать информацию из нескольких окон подряд? Практически то же самое, что и использовать окно большего размера.

Не совсем так. Как мне показалось, фазовый метод корректирует частоту точнее, чем простое увеличение размера окна в два раза, к тому же он не ограничен дискретной сеткой, а это важно, например, для тюнеров. Конечно, можно попробовать добавить ещё больше нулей, но анализ слишком больших кадров уже начинает сказываться на производительности, что заметно на мобильных устройствах.
Спасибо! Пока ещё детально не разобрался, но меня заинтересовал подход.
Я делал тюнер и так, и на быстром преобразовании Фурье. Думаю, большинство современных железных девайсов для настройки работают на триггере Шмитта (могу ошибаться, не изучал вопрос).
Большое спасибо за статью! Кажется, вы хорошо разбираетесь в теме.

У меня вопрос.

Я долгое время думаю вот над чем — классические алгоритмы во всех известных мне программах и устройствах (начиная от тюнеров/дисторшенов, заканчивая автотюнами, pitch'ами и shimmer'ами) оперируют набором буферов по «сколько то там» семплов. Если сравнить со, скажем, душевой, то сначала вода закачивается в какой-нибудь бойлер, там её, скажем подогревают, потом расходуют, и затем повторяют процесс заново. Вопрос в том, существуют ли алгоритмы (может, на базе функционального программирования), которые ориентируются на «буфер» размером в 1 (ОДИН) семпл и, скажем, хранение какого-нибудь предшествующего состояния? Чтобы как проточный водонагреватель работало?

Зачем это нужно? Например, чтобы добиться 0-latency в аудио-плагинах/приборах. Например, алгоритм питчера или дилея, который получает семпл на вход, выполняет алгоритм (который может динамически перестраиваться, в зависимости от времени/некоего количества предыдущих семплов) и тут же рисует сэмпл на выходе, ориентируясь только на этот входящий семпл и хранение некоего вычисленного предыдущего состояния. Чтобы можно было весь алгоритм сократить до функции с «памятью», когда на вход подаётся сэмпл и, скажем, временная отметка, а на выходе имеем обработанный сэмпл, который получился бы и с помощью «классической» offline-обработки. На самом деле, профита намного больше, но хотел бы узнать, существуют ли такие наработки? И есть ли такие наработки для подобия FFT, чтобы каждый раз получая новый семпл, уточнять «мгновенный» спектр сигнала, а не вычислять его из буфера (что актуально, скажем, для 0-latency питчеров для бас-гитар, т.к. там период ноты может быть до 50ms)?
Вы в общем-то описали импульсные фильтры. Именно так, как вы описали, и устроены всевозможные цифровые эквалайзеры, дилеи/реверы, ресемплеры и тому подобное. Чаще всего используются фильтры с конечным откликом, т.к. с ними проще, нет проблем с устойчивостью (КИХ, FIR-фильтры), но иногда используются фильтры с бесконечным откликом за счёт обратной связи — у них сложнее с устойчивостью, но они быстрее потому, что «буфер» меньше (БИХ, IIR-фильтры).

А анализ данных с использованием FIR-фильтров называется polyphase filter bank.

А размеры буферов в программах ограничены снизу скорее производительностью и непредсказуемостью x86-архитектры.
Такие методы есть. Но все они имеют конечную задержку математической природы. Образно говоря, чем точнее нужно измерить частоту — тем больше на это требуется времени.

Скажем, если вы возьмете простой резонансный фильтр второго порядка H(z)=1/(1 + a1*z^(-1) + a2*z^(-2)) — подбирая значения a1 и a2, можно получить пик на АЧХ такого фильтра, т.е. настроить этот фильтр на конкретную частоту, чтобы он как бы детектировал ее во входном сигнале. Чем у'же пик АЧХ — тем более точно ваш фильтр будет детектировать в сигнале нужную частоту. Но если построить частотную характеристику группового времени задержки такого фильтра — то окажется, что чем острее пик АЧХ — тем острее будет пик и на ГВЗ, то есть фильтр будет быстро пропускать волновые пакеты далеко от своей резонансной частоты (он как бы может быстро определить, что сигнал находится вдали от резонанса), но задерживать сигналы вблизи частоты резонанса (ведь там фильтр должен точно измерить частоту сигнала чтобы определить, должен он ее пропускать или нет).
Да, методы такого рода есть. И не только различные линейные фильтры, о которых написали вам выше, но и разнообразные (нелинейные) адаптивные методы и методы идентификации. Упрощенно, исходному сигналу ставится в соответствие некоторая математическая модель генератора с неизвестными и переменными параметрами, определяющими частоты. С получением каждого нового отсчета оценки этих параметров (частот) адаптивно подстраиваются и, если все хорошо, то оценки сходятся к истинным значениям.
Такие адаптивные методы очень широко применяются в подавлении механических возмущений и вибраций, в акустике для устранении шумов и эха, и вообще во всей широкой области Adaptice Regulation/ Adaptive Disturbance Attenuation. Применяются они, например, и в морских задачах, для определения параметров качки.

Вообще, адаптивное подавление возмущений — моя профессиональная область, так что если интересно, то могу ответить на вопросы или написать подробнее. :)
Нотный анализ музыкальных произведений открывает ряд интересных возможностей. Ведь имея в наличии готовый нотный рисунок, можно осуществлять поиск других музыкальных композиций со схожим рисунком.


Я бы посмотрел на алгоритм, который бы бы родил сносное midi, например, к этому:

(Я прекрасно понимаю, что midi к аппассионате найти вообще не составляет проблем, но есть куча потрясной музыки, к которой не то, что миди — нот-то не найдёшь… Я вот, например, один квартет у Риса уже остыл искать)

С простыми-то вещами даже тот же chordify справлялся неплохо (кстати, на чём он?) — но мы-то тут про готовый нотный рисунок?
Кстати, раз уж про нотные рисунки – есть ли какие-то подвижки в области непосредственно анализа музыки с применением описанных алгоритмов? Планируются ли? Будет ли это утилитка, сайт вроде chordify, или оба сразу?

Если были эксперименты – с удовольствием прочел бы детали — насколько хорошо проходит анализ, скажем, чижика-пыжика, чижика-пыжика с фоном, смогли ли отличить трезвучие Am от септаккорда A7?
А в чём проблема отличить Am от A7? Интервальные структуры [1 3- 5] и [1 3 5 7] заметно отличаются друг от друга. Уже давно есть софт, который мажорный аккорд может минорным сделать, тот же melodyne в режиме polyphonic/DNA: www.youtube.com/watch?v=I4YEebBN2ok#t=110 (со второй минуты).
Кстати, тот же melodyne умеет midi рисовать по композиции: www.youtube.com/watch?v=-ojHdfhl_iw
И делает это неплохо, даже с фоном: www.youtube.com/watch?v=9FScFKuXXM0#t=49
Обалдел от melodyne. С ума сойти. Я, впрочем, имел в виду, что именно fft ли тут для этого?
Посмотрел обучающие видеозаписи по Melodyne, и меня они очень впечатлили, вот что значит профессиональный инструмент обработки аудио. Думаю, он стоит своих денег. Предполагаю, что тут как раз таки активно используются фазовые методы коррекции аудиосигналов, как, например, по этой ссылке www.guitarpitchshifter.com/algorithm.html.
В общем, натравил я мелодайн на фортепианный квартет Риса (Fm, ор.13), т.к. очень давно и совсем безрезультатно ищу к нему ноты. Не, он, конечно, кое-что распознал… но далеко не всё. -_-. Видимо, я слишком многого хочу.
На текущий момент у меня подобных наработок нету, хотя, возможно, кто-то этим уже занимается. Разработка подобных алгоритмов требует огромного труда и ресурсов, а эта статья, как и мобильное приложение к ней, написаны на энтузиазме :)

Не знаю точно, получится ли дальнейшее развитие в этом направлении. Увидим…
Проблема хорошего распознавания midi, а уж тем более нотных записей также как и распознавание текста, речи, предметов решится после того, как разработают сильный ИИ. Потому как для того, чтобы распознать вышеупомянутую композицию, нужно использовать не только простое определение частот (этого будет недостаточно из-за неидельного звучания), но и теорию музыки, гармонию, шаблоны и, возможно, инструменты, имеющие к музыке очень косвенное отношение.
когда я пытался подобрать мелодию, использовал научный спектрометр, но вот по пикам частот выявлял ноты сам.
image
Существует также хорошая программа для подбора нот — Transcribe!.
Только она работает не в реальном времени с потоковым аудиосигналом, а с готовым треком.

image

image
спасибо, правда с набега разобраться в ней что-то не получилось
Кстати, ещё один очень простой способ точно определить частоту сигнала, если известно, что он состоит из небольшого числа гармоник: сначала вычисляем FFT с низким разрешением, находим два соседних отсчета с высоким уровнем амплитуды, скажем f1 и f2. Искомый сигнал где-то между ними. Теперь просто сворачиваем сигнал с десятком sin и cos с частотами, распределенными от f1 до f2 и опять находим максимум. Тем самым повышаем разрешение в 10 раз. Можно применить технику бинарного поиска, чтобы оптимизировать процесс. Но смысл думаю понятен.
Спасибо за статью, возник один вопрос. А что насчет извлечения партии отдельного инструмента из записи? Например, насколько реально, с технической точки зрения, извлечь партию альта или, скажем, барабанов из Sing, Sing, Sing Бенни Гудмэна? Я понимаю, что спектры частот некоторых инструментов существенно пересекаются, но все же.
Хороший вопрос.

Извлечь партии инструментов, слабо пересекающихся спектрально, технически можно уже сейчас. Нужно просто применить эквалайзер и заглушить ненужные частоты. Однако на практике как раз таки сложнее всего раскладывать по нотам низкочастотные звуки, поскольку в области басов ноты расположены ближе друг к другу по частоте, поэтому нужно применять более длинные кадры, что ведёт к низкому временному разрешению.

С инструментами, имеющими близкие спектры, дело обстоит намного интереснее. Ведь их мы распознаём именно по тембральной окраске, восприятие которой во многом имеет псюхо-аккустическую природу. Поскольку человек с помощью своего слухового аппарата может выполнить эту задачу, то, теоретически, это доступно и компьютеру… Но для этого нужна, как минимум, специально обученная нейронная сеть. Обучением этой сети, как раз-таки и занимаются люди слушая звуки мира, различную музыку, музицируя…

Одному человеку, как говорят, медведь на ухо наступил, а другой способен различить разницу в неколько герц. И дело здесь скорее не в особенностях строения уха, а именно в обученности нейронной сети, котороя, к слову, начинает закладываться в раннем детстве, вероятно даже, ещё в утробе матери… Учёные проводили эксперимент, только что родившемуся котёнку, заклеивали один глаз, а спустя пару недель повязку снимали, но котёнок на всю жизнь оставался слеп на этот один глаз, хотя физиологически всё было здорово… То есть способность к зрению закладывается именно в самом раннем детстве, а потом её уже так просто не восстановишь. Поэтому, когда мама и папа поют или разговаривает с ещё не родившимся малышом, то это совершенно не пустое занятие, как может показаться прагматичному человеку.

Вспомните, как звучит для вас иностранный язык, которого вы не знаете. Это просто набор слитных звуков, непонятная аброкадабра. Но когда вы начали его изучать, вдруг, вы обнаруживаете способность выхватывать отдельные слова, сочетания, предложения… А если овладели языком в совершенстве, то даже в шумной обстановке по обрывкам фраз можете восстановить то, что сказал собеседник.

То же самое и с музыкой, когда вы слушаете её много, то начинаете различать оттенки, вибрато, вдруг в старых композициях находите для себя новые звуки, которые почему-то раньше не замечали.
Поскольку человек с помощью своего слухового аппарата может выполнить эту задачу, то, теоретически, это доступно и компьютеру… Но для этого нужна, как минимум, специально обученная нейронная сеть. Обучением этой сети, как раз-таки и занимаются люди слушая звуки мира, различную музыку, музицируя…


А вы не знаете, задействован кто-либо в этой области, есть ли какие наработки?
Думаю, что в области разработки ИИ и компьютерного слуха в мире задействовано много учёных, но, к сожалению, ничего более конкретного рассказать не могу, и на данный момент у меня таких наработок нет.

По сути, на предварительном этапе слуховая система преобразует акустический сигнал в спектральную форму. Причём, согласно недавним исследованиям, учитывается не только амплитуда, но и фаза сигнала(!), благодаря чему мозг по разности фаз и амплитуд между обоими ушами способен точнее определять направление источника звука.
Стоит отметить, что для определения частоты основного тона (ЧОТ) сигнала можно использовать не только методы, работающие в частотном пространстве (преобразование Фурье), но и методы, работающие во временном пространстве (автокорреляция). Однако и те и другие обладают своими достоинствами и недостатками. Автокорреляция, например, довольно медленная и неточная для высоких частот.

Под .NET есть следующая либа для определения ЧОТ в реальном времени: pitchtracker.codeplex.com
Как пишет автор, его алгоритм, основанный на автокорреляции, обладает следующими достоинствами:
  • Быстрота. Возможность определять до 3000 частот в секунду.
  • Точность. Отклонение от правильной частоты в пределах +-0.02%
  • Высокая точность для сигналов любой громкости (от -40db до 0dB)
  • Высокая точность для широкого диапазона частот (от 50 Hz до 1.6 kHz)
  • Высокая точность для сигнала любой формы. Возможность определять ЧОТ для женского, мужского голосов и всеразличных инструментов.
  • Независимость от предыдущих результатов.

Более подробно об алгоритме написано в документации.
Оу, большое спасибо за ссылку! Проверил, алгоритм работает!
Бьюсь об заклад, что многие гитарные тюнеры, виденные мной, используют именно его.
Отклик быстрее, чем у преобразования Фурье с окном 2048 при сравнимой точности.
Но алгоритм распознаёт лишь один пик, поэтому применение его ограничено, однако если использовать в связке с преобразованием Фурье, то, вероятно, можно достичь весьма интересных результатов…

Чтобы пример по ссылке заработал с реальным сигналом с микрофона, добавьте в проект ссылку Microsoft.Xna.Framework, затем закомментируйте строчки
            m_timer = new DispatcherTimer();
            m_timer.Interval = TimeSpan.FromMilliseconds(m_timeInterval);
            m_timer.Tick += OnTimerTick;
            m_timer.Start();

и вместо них допишите
            var timer = new DispatcherTimer();
            timer.Tick += (sender, args) => FrameworkDispatcher.Update();
            timer.Start();

            var device = Microphone.Default;
            device.BufferDuration = TimeSpan.FromMilliseconds(100);
            var bufferSize = device.GetSampleSizeInBytes(device.BufferDuration) / 2;
            var sampleBytes = new byte[2 * bufferSize];

            device.BufferReady += (sender, args) =>
            {
                var sampleSizeInBytes = device.GetData(sampleBytes);
                var sampleSize = sampleSizeInBytes / 2;
                var sample = new double[sampleSize];
                for (var i = 0; i < sampleSize; i++)
                {
                    sample[i] = Convert.ToDouble(BitConverter.ToInt16(sampleBytes, 2 * i));
                }
                m_pitchTracker.ProcessBuffer(sample.Select(t=>(float)t).ToArray());

                UpdateDisplay();
            };

            FrameworkDispatcher.Update();
            device.Start();

Скомпилируйте.

А теперь настраивайте гитару!
Для захвата звука с микрофона лучше все же использовать библиотеку NAudio, потому что она специально предназначена для обработки звука и не имеет зависимостей. NAudio поддерживает работу с разными форматами, потоки в реальном времени, преобразование Фурье и другие вещи. На сайте есть множество демонстрационных приложений, в том числе и для захвата звука. А XNA не у каждого установлен, да и это игровой фреймворк.

Но это так, технические моменты :)
Есть опыт работы с обоими библиотеками. XNA-фреймворк установлен по умолчанию со студией, а NAudio нужно доплнительно загружать, хотя это не проблема. XNA родной и мультиплатформенный (Win Desktop, Win RT, Win Phone), а также проще в освоении и использовании, по крайней мере, что касается звука. NAudio не мультиплатформенный и более сложный, но охватывает круг аудиозадач более широкий нежели первый собрат.

Думаю, для простого захвата сигнала с микрофона и его анализа, всё-таки легче использовать первый вариант.
XNA-фреймворк установлен по умолчанию со студией

Странно, у меня не установился.
Кстати, насчет тюнеров. Есть еще такая реализация, с БПФ: FFT-Guitar-Tuner. Здесь захват данных уже реализован с помощью Microsoft.DirectX.DirectSound.

В ней, насколько я понял, алгоритмом ищутся максимумы в спектре, а затем, на основе индексов максимумов, анализируется сигнал во временной области с помощью разновидности корреляции.
Наткнулся на интервью с создателем программы Melodyne, о которой упоминалось выше в комментариях.
Видео получасовое и на английском, но понять кое-что можно, даже если смотреть перематывая.
Возможно, кто-то отыщет для себя новое…

Учась на 4 курсе, в качестве диплома написал спектральный анализатор «певческого таланта» для Новосибирского фониатрического центра. Моя только реализация, сама теория резонанса пения создана В. Морозовым. Вкратце, суть такова: в спектре находим 3-ю форманту, берем от нее интеграл, и делим на интеграл от всего спектра. Получается коэффициент (чаще выражаемый в процентах), характеризующий долю голосовой энергии, сосредоточенной в 3-й форманте (той части спектра, которая является своего рода референтом резонансных процессов). Чем выше коэффициент, тем более звучащим, живым, объемным мы воспринимаем голос певца, это своего рода математическое выражение красоты пения.

Было любопытно, что этот самый процент у «попсовых» певцов был около 10 (примерно, пишу по памяти), у хороших певцов ближе к 20, у великих оперных певцов за 30. Самое любопытное, кому принадлежал наивысший (по моим данным) процент, т.е. кто владел техникой резонансного пения в совершенстве, оставив далеко позади величайших теноров мирового класса. Этот человек не поет на сцене, а помогает тысячам людей восстановить (после операций и пр.) или развить голос, пожилой врач фониатрического центра, выдающийся специалист в этой области.

Ах да, я вот о чем: у меня в спектре первым отсчетом шло очень большой значение (постоянная составляющая сигнала). Не помню уже подробностей, как правильно с этим бороться (она сильно растягивала график по вертикали), я просто ее занулял за ненадобностью.
UFO just landed and posted this here
Sign up to leave a comment.

Articles