Pull to refresh

Comments 35

А можете посчитать какой телескоп нужен, чтобы рассмотреть с Земли Аполлоны на Луне? Ну или с околоземной орбиты, чтобы на атмосферу не отвлекаться. :)
Для этого zemax излишен :-)
1м на Луне с 400тыс. км это примерно 0.0005", итого примерно 250м диаметр входной аппертуры для видимого света без атмосферы.
На приемник с 10мкм пикселом нада примерно 4км фокусного :-)
Если представить, что наблюдать вы будете своим глазом с ГСО, то у меня получилось так:

— Разрешение глаза 1', что соответствует примерно 30 см предмета на каждый 1 км удаленности. Таким образом глазом с ГСО на расстоянии примерно 342 000 км глаз разрешает, опять же примерно, участок 102 км.

— Чтобы увидеть Апполоны размером 5 м (мой выдуманный размер, поправьте меня если что :-) необходима телескопическая труба с видимым увеличением 102 000 / 5 = 20 400 раз.

— При фокусе окуляра порядка 16 см, фокус объектива трубы должен быть порядка 16 х 20 400 = 326 400 см ( 3,3 км )

Zemax может и в киллометрах считать, но… можно попробовать подлететь поближе :-)
Очень интересная и необычная тема. Заказ на продолжение — расчет оптики для фонарика
На деле однолинзовый объектив годится только бумажки от солнца поджигать. Причина — сферическая аберрация, то есть изображение выпуклое. Чем дальше рассматриваемый объект от центра линзы, тем он больше искажён. Даже в лупах обычно используются 2 склеенные линзы из разных стёкол, которые частично компенсируют недостатки друг друга. Разве что в очках линза одна, но её форма сложнее, что позволяет минимизировать аберрации, и оптическая сила обычно меньше, чем в объективах.
Вообще видов аберраций довольно много, поэтому реальные объективы содержат множество линз (минимум 3), чтобы всё это компенсировать.

Одну сферическую линзу в вакууме можно рассчитать и без всякого софта по простой формуле, но ещё одна особенность в том, что технология производства предполагает использование стандартных радиусов кривизны, поэтому и фокус получается неточным, и часто проще изменить другие части системы (в данном случае можно допустить, что изображение немного вылезет за границы матрицы), чем изготавливать сильно нестандартные линзы.

Кстати, когда я в ИТМО учился, у нас Zemax не преподавали, все сидели в DOS-приложении собственного производства ОПАЛ.
Правильно говорите, но немного не согласен:

— Если в однолинзовом объективе применить одну из поверхностей высших порядков, то можно свести к минимуму сферическую аберрацию. А с современными станками с ЧПУ выточить такую поверхность не сложнее чем обычную сферическую. Другое дело, если необходим широкий спектральный диапазон, тогда уже появляется хроматизм. В этом случае одним компонентом не обойтись :-)

— Есть вполне хорошие варианты двухлинзовых объективов. Все конечно зависит от конкретной задачи. В некоторых задачах необходимо получить максимальную энергетику с минимальными габаритами, где пренебрегают всеми аберрациями, кроме, может быть комы.

— Кстати, в ZEMAXe есть нормальный ряд размеров инструментов. Что тоже весьма удобно. А у меня было такое, что отдаешь на производство, а на производстве рядом с твоими радиусами есть инструмент «от сих до сих» (с). Приходится подгонять :-)

— У нас в институте тоже была самопальная программа — RAYS. Zemax только в теории слышали. Эх! А как бы он в то время пригодился :-)
Причина — сферическая аберрация, то есть изображение выпуклое. Чем дальше рассматриваемый объект от центра линзы, тем он больше искажён.

Здесь Вы перепутали: эта аберрация называется «кривизна поля». Сферическая аберрация — по зрачку, т.е. изображение одной точки размазывается в зависимости от размера диафрагмы
А бы сюда еще кому добавил, так как на коротком фокусе ее влияние значительно.
А вот ламерский вопрос — а что будет если снимать без объектива? :))
Ну, то есть лучи как есть чтобы падали на светочуствительную матрицу.
Будет ли в таком случае изображение запечетлено 1:1 (1см поверхности луны на 1 см матрицы), и с отсутствием перспективы (перспективу как я понял именно фокусирующяя линза и дает — в глазе в том числе).
Либо же вообще ничего не получится. И почему. Вопрос вроде не серьёзный. Но больно интересно.
Будет один пиксель размером во всю матрицу
Без объектива лучи от каждой точки объекта попадают в каждый пиксель матрицы, в итоге каждый пиксель регистрирует усреднённое значение яркости объекта. Объектив же все лучи из определённой точки проецирует на определённый пиксель.
В некоторых случаях можно получить изображение без объектива, например, прислонив матрицу к дисплею (пиксели будут размытыми из-за зазора от защитного стекла) или послав на неё узконаправленный пучок (мы так на лабах форму и координаты лазерного луча определяли).
А разве на поверхность линзы попадают не те же лучи:

«от каждой точки объекта попадают в каждый пиксель матрицы, в итоге каждый пиксель регистрирует усреднённое значение яркости объекта. „

?
А разве на поверхность линзы попадают не те же лучи

Да, попадают те же лучи. Но далее они распространяются по законам оптики. Так все лучи вышедшие из одной точки области предмета минуя оптическую систему (в нашем случае) соберутся в одной точке в области изображений.
А где можно про конкретный случай почитать (желательно с картинками :) )?

Мне честно говоря так не понятны причины по которым они должны в одном случае собраться в одном месте, а в другом нет.

Линза меняет вектор движения фотонов определённой частоты… Но что из этого следует в оптической системе? Она их как то «сортирует» что ли? Ну — тоесть вот в линзе в одной точке собралось несколько фотонов разных частот с разными векторами. А дальше что?

Мне наверное нужно это где то в виде илюстрации увидеть…

P.S. Наверное все дело в матрице. Если бы матрица могла также улавливать вектор фотона попавшего в ячейку (как у мухи) наверное сработала бы такая система. Или я снова заблуждаюсь?

P.P.S Можете просто дать название авторитетного учебника по оптике где это описано :))
P.S. Наверное все дело в матрице. Если бы матрица могла также улавливать вектор фотона попавшего в ячейку (как у мухи) наверное сработала бы такая система. Или я снова заблуждаюсь?

А где можно про конкретный случай почитать (желательно с картинками :) )? ))))
ru.wikipedia.org/wiki/%D0%A4%D0%B0%D1%81%D0%B5%D1%82%D0%BE%D1%87%D0%BD%D1%8B%D0%B5_%D0%B3%D0%BB%D0%B0%D0%B7%D0%B0
Апозиционные (фотопические) фасеточные глаза

На хабре была недавно (пару мес. назад) статья про робота который по полу ездил и ему в новшество ставили, что использует какуюто нестандартную матрицу как у насекомых, у которой очень плохая разрешающяя способность и чуствительность, но позволяет определять угол/вектор под которым свет попал.
Но найти пока не могу. Я ещё поищю.

P.S. Я не специалист и не умничаю, просто люблю глупые вопросы :)
CurvACE (CURVed Artificial Compound Eyes), состоит из 630 «омматидиев», каждый из которых представляет собой светочувствительный элемент и микролинзу, фокусирующую на него узкий пучок света

Не интересовался данной тематикой. Но я так понял, что картинка здесь создается из-за расположения отдельных каналов по сфере, в результате чего мы видим плоскую проекцию.

Тут я прикинул, что с той же ГСО :-), угловой размер Луны порядка 0,01 угловых градусов. Т.е. в данном робо-глазе будет засвечена только одна ячейка.

А вот тут…
Будет ли в таком случае изображение запечетлено 1:1 (1см поверхности луны на 1 см матрицы)

… работает так, если рассматривать, как пример, в качестве источника параллельный пучок от предмета. Или как предлагает darkdaskin лазер.
Тут я прикинул, что с той же ГСО :-), угловой размер Луны порядка 0,01 угловых градусов. Т.е. в данном робо-глазе будет засвечена только одна ячейка.


Если взять например спутник висящий на орбите. Расположить на нем матрицу (CurvACE) плоско (у зверюг она как видете полусферой), и по направлению к Земле (паралельно поверхности). Тогда понятие углового расстояния пропадет, будет 1:1 и ортогональная проекция.

Но ловить будет исключительно фотоны которые отразились перпендикулярно (из-за того что все омматидии смотрят вниз на Землю, и ловят все фотоны под одним углом). Что вроде как уже было бы неплохо…

P.S. С луной аналогично. Берем CurvACE расположенный «пластинкой» и направляем на Луну (главное чтоб руки не дрожжали). Тогда все фотоны у которых вектор движения будет совпадать (прямо противоположный) с направлением омматидиев попадут на нашу матрицу. И вуаля…

Или нет?

P.P.S. Могу картинку намалевать, если непонятно :)
Но и тут угол обзора системы не станет меньше угла обзора одной ячейки…
*минимальный. Т.е. два близких объекта Вы не различите.
Ну т.е. «математически» наверное возможно, решить обратную задачу, т.к. области обозрения сдвинуты, но физически это нереально.
Нарисовал схемку и стало понятно. Все равно будут попадать «паразитные» фотоны, из за того что у каждой омматидии все равно свой допуск по углу в котором она принемает свет.

Но мне кажется технически уменьшить угол допуска каждой омитадии проще (чем длиннее омитадия тем легче контролировать) чем в линзе. Плюс матрицу можно выгнуть обратной полусферой, и фильтровать паразитные фотоны попавшие в обе ячейки.

Хотя наверное получится вторая линза опуклая, а мож и нет…

В общем, спасибо за разъяснения.
Фотон как бы в одну ячейку только может попасть.
Про удлинение, то что Вы предлагаете — это соединить пучком оптоволокна сетчатку и объект.
А в общем случае не забывайте про ограничения волновой оптики…
Все сработает — нужно только попросить чтобы на время выключили свет во всей Вселенной и подсвечивать лазером — тогда скорее всего «лишних» фотонов не заснимем :))).

К стати — а если подсвечивать лазером — с частотой волны которой нет в исследуемой среде (допустим). Тогда… тогда наверное лидар получим…
а лазер где расположен? В нём линзы или зеркала использовать будем?
И зачем собственно лазер?
Лазер дает строго направленный свет. Светим на поверхность и получаем строго отраженный свет :) Ловим его — и линза получается не нужна, так как в одной точке свет только от одного объекта. пиксель к пиксеклю:) [Не забываем что свет во вселенной на время съемки выключеный]

Вроде как то так ru.wikipedia.org/wiki/%D0%9B%D0%B8%D0%B4%D0%B0%D1%80 работает
1) У лазерного луча есть расходимость.
2) Получим диффузное рассеяние света.
3) Для лидара хватит одного приёмника.
1) Но мы же как то выключили свет во Вселенной, что нам тяжело лазер сфокусировать?
2) Из-за чего? Из -за того что большинство поверхностей дают диффузное отражение?
3) Так то для лидара
1) Нужна большая линза/зеркало, чтобы сфокусировать. (проще светить прямо на Луне)
2) Да.

для того, чтобы по результатам измерений отражений от подсвеченной лазером с 2D развёрткой поверхности, получить изображение, нужен всего один очень чувствительный приёмник, можно без линз, да.
Учебник физики за 10 класс.
Пожете почитать про пинхол, это немного не то о чем вы говорите (там нет линз и объектива, но зато есть «диафрагма»).
UFO just landed and posted this here
Не могу вам точно ответить на этот вопрос.

Лично я работаю на ОАО (бывшее НИИ) входящее в структуру Роскосмоса и на 100% принадлежащее Росимуществу. Выходит госконтора.

А что с4ажете про про6рамму Oslo?

Как расчитать простейший вариофокальный обьектив?

Sign up to leave a comment.

Articles