Pull to refresh

Comments 4

Касательно монте-карло, интересно, откуда такой прирост скорости? Мне приходилось работать с методом монте-карло с применением распределенных вычислений, и как раз, там идеальная масштабируемость потому, что каждый поток симуляций независим. Грубо говоря, делаем map на параллельных машинах абсолютно независимо, потом редьюсим (что, в принципе, довольно быстро, + можно редьюсить деревом).

В принципе, можно иметь что-то вроде гигантских массивов прерасчитанных семплов для различных распределений… Все таки, интересно, где именно удалось боттлнек найти, и устранить
Глубокий ответ на Ваш вопрос подразумевает более подробный рассказ о тех технических разработках, которые были сделаны у нас в HPE Labs. Сейчас такой рассказ мы считаем преждевременным. Тем не менее, этот хороший вопрос для популяризации проекта было бы неправильно оставлять без ответа.

Наш прототип не является высокопроизводительным вычислительным кластером в классическом понимании этого слова, а представляет собой, скорее, «машину с общей памятью», где в качестве «интерконнекта» применяется оптическая технология нового поколения. За счёт «памятицентричной» (memory-centric) организации системы с побайтной адресацией общей памяти и вычислений в памяти (in-memory computing), когда вся задача помещается в памяти целиком, применения оптических технологий следующего поколения удалось получить такой замечательный результат, который наглядно продемонстрировал преимущества разрабатываемой вычислительной архитектуры.
Я правильно понимаю, что вместо множества вычислительных модулей, связанных сетью, у вас сконструирована система, эквивалентная одному большому компьютеру с множеством процессоров и одним массивом оперативной памяти?
Не совсем. Эквивалентов такой системе нет. Скорее, это несколько разных компьютеров с одним массивом памяти.
Sign up to leave a comment.