Pull to refresh
75
39

Пользователь

Send message

Приветствуем!

Да, в этом направлении мы тоже работаем. Однако несмотря на то, что графические ускорители есть практически везде, там тот еще зоопарк. Нужно поддерживать как минимум ветку для устройств Apple и OpenCL для всех остальных, но на практике оказывается, что не на всех мобильных GPU OpenCL работает одинаково хорошо.

Про реконструкцию поверхностей: пока нет, но есть в планах. Следите за нашими новостями)

Vulkan позволяет гораздо эффективнее общаться с видеокартой по сравнению с OpenGL, когда требуется отправлять большое количество команд или работать с несколькими видеокартами одновременно. Однако в нашем случае переход на Vulkan не принесет никаких преимуществ. Мы не сможем воспользоваться его возможностями, поскольку отправляем на видеокарту лишь небольшое количество несложных команд в процессе отрисовки. С другой стороны, OpenGL очень широко распространен, что для нас крайне важно.

Приветствуем! Благодарим за интерес к статье.

Про воксельный редактор: такой редактор — отдельный непростой продукт, и пока в наши планы его создание не входит. Нам кажется, что распыляться и делать кое-как — это неправильно. Мы будем делать свое и прекрасно, а другое сделает прекрасно кто-нибудь еще.

Про ОКТ: это может быть интересным направлением развития. Спасибо за идею. Но пока мы еще не начали экспансию за пределы области рентгеновских методов.

Также сравнились с 4 битами, для которых есть быстрая ЦПУ имплементация (дальше только тернарные, тернарно-бинарные и бинарные сети, которые заметно хуже по качеству), и 4.6-битное квантование лучше по качеству и всего на 4% медленнее.

fp8/bf8 принципиально отличаются от нашей схемы квантования, так как это типы данных с плавающей точкой и для работы с ними нужны отдельные арифметико-логические устройства, которые есть не на всех центральных процессорах. Наш же тип использует линейную схему квантования и работает полностью в целых числах, скоро напишем подробную статью.

Для llama моделей схемы квантования qn_* устроены следующим образом: веса делятся на блоки и в каждом блоке квантуются независимо до n разрядов. То есть на каждый блок еще приходится несколько параметров схемы квантования (например, scale и bias, которые также могут иметь разную разрядность). В результате усреднения по сети получаются дробные значения bits per weight, которые можно, например, видеть в таблице. При этом на один вес приходится 2^n возможных значений.

Вычисление квантованных llama моделей, разумеется, использует AVX на CPU. Сначала квантованные веса загружаются в векторные регистры, чем сильнее квантована сеть, тем больше весов можно загрузить за один load. Далее эти веса распаковываются непосредственно на регистрах и вычисляется скалярное произведение с помощью AVX-инструкций. Проверили сейчас, непосредственно в llama.cpp для типов q4_0 и q8_0 выполняется распаковка в int8 для весов и fp16 для скейлов (сравните функции ggml_vec_dot_q4_0_q8_0 для типа q4_0 и ggml_vec_dot_q8_0_q8_0 для типа q8_0 тут) и скалярное произведение вычисляется умножением значений int8 c аккумулированием во float. То есть, разница в скорости для двух этих типов возникает за счет загрузки и распаковки весов, не самого вычисления скалярного прозведения.

В нашем случае диапазон значений веса не является степенью двойки и позволяет представить больше, чем 16 значений, однако позволяет нам имплементировать матричное умножение более эффективно, чем для 8-битных сетей.

В результате мы достигаем скорости практически как у 4-битных моделей, но 4.6-битные сети работают точнее.

В случае больших языковых моделей основным ограничивающим фактором является пропускная способность памяти. GGUF является форматом хранения, при котором коэффициенты квантуются, и модель начинает занимать меньше места, а уже в оперативной памяти по частям преобразуется в fp16 или bf16 для вычислений.

Мы же работаем с моделями существенно меньшего размера и квантуем не для эффективного сжатия в памяти в первую очередь, а для вычислений. В результате, у нас отличается и сама схема квантования, и подход к ее вычислению: мы квантуем веса, входные сигналы и вычисляем свертки полностью в целых числах, оптимизируя все методы для центральных процессоров.

Здравствуйте! Спасибо за ваш отзыв, очень рады, что статья показалась вам интересной.

Разработка подобных инструментов визуализации относится к области компьютерной графики и требует знаний в программировании GPU, так и понимания алгоритмов трассировки лучей, методов объемного рендеринга.

Порог входа достаточно высокий, особенно если целью является создание высокопроизводительных интерактивных инструментов. Необходимо хорошо разбираться в низкоуровневом программировании не только GPU, но и хорошо знать способы оптимизации CPU, а также иметь хорошие знания в оптимизации алгоритмов и работе с большими объемами данных. 

Если будут еще вопросы - обращайтесь, будем рады помочь!

Рентгеновская и механическая части производства российской компании ЭЛТЕХ-Мед, вся вычислительная часть (реконструкция, коррекция, сегментация и визуализация) - Smart Engines.

Основные параметры: 
Диапазон тока: 0.05-0.15 мкА
Диапазон напряжений: 35-130 кВ
Размер пикселя детектора: 140х140 мкм
Предельное разрешение: ~30-35мкм

Характерные размеры загрузочной камеры на картинке.

Исследование драгоценных камней проводилось в рамках научной работы. Пока мы не планируем делать бизнес на проверках, наш бизнес – это софт. Чтобы делать такие исследования необходимы рентгеновская часть и софт, с вопросами по их покупке пишите нам через форму на сайте https://smartengines.ru/smart-tomo-engine/.

Добрый день!

Ничего не знаем насчет всех остальных, но мы умеем и делаем)

Положив в КТ, мы узнаем, что внутри.

Когда речь идет о распознавании выполненных по стандарту QR в хороших условиях распознавания - тут вы правы. Более того, даже десятки бесплатных библиотек, написанных студентами старших курсов, справятся с такой задачей.

Но когда речь о живых кейсах, включающих отклонения от стандартов, плохие условия освещенности, существенные повреждения баркода, наличие глубокой проективности и т.д. - требуется полноценное промышленное решение, которое не зависит от платформы.

Спасибо! Благодарим за интерес к нашим технологиям.

Дорогие друзья! 19 января заканчивается марафон новогодних праздников. Поэтому еще три дня очень ждем ваши комментарии, после чего выберем победителя и направим ему наш календарик! 

Добрый вечер!

Алгоритмы сами по себе не накладывают ограничений, все зависит от системы технического зрения, которую вы будете использовать. Параметры оптики и матрицы, расстояние от объекта — все это будет влиять, более того, для таких точностей будет влиять еще и стабильность их характеристик.

Будем рады быть полезными, за деталями — уже в 2024 году) С наступающими праздниками!

Добрый день!

Национальные патенты РФ не признаются в США. Поэтому мы и патентуем наши разработки как в России, так и в США.

С наступающим Новым годом!

Добрый день!

Речь идет о QR-кодах, использующихся для платежей, 7 поколения и позже

1
23 ...

Information

Rating
Does not participate
Works in
Registered
Activity