Pull to refresh
196
0
Михаил Бахтерев @mikhanoid

ИММ УрО РАН

Send message
мы используем redhat linux. Никакого ощутимиго эффекта от этого не чувствуется. Они же не для вычислительных задач настраивают дистрибутивы, а для серверов, баз данных, хранилищ. А у этого всего сценарии работы сильно отличаются от того, с чем нам приходится иметь дело.
Ну а где именно тут параметр: максимальный объём памяти для процессов пользователя?

A - это размер адресного пространства. для каждого процесса.
D - это размер сегмента данных, который при загрузке бинарника формируется для каждого процесса.
M - это залоченные в памяти страницы
S - размер стека

Чем именно мне воспользоваться?
Написано pages:[pages], а в примерах на сайте указаны мегабайты или килобайты, так что, не разобрать без wiki, потому что всякое бывает.
Хм. А это разве не для ulimit'а установки? Кроме того, там нет устанвки, ограничивающей объём физически используемой памяти.
А вы знаете коммерческие решения, лучше, чем linux поддерживающие работу на кластерах? У Windows с этим гораздо большие проблемы, а AIX или Irix не поставить на наше оборудование. Так что... Буду ругаться.
Вот ещё бы это было написано где-нибудь ещё, а не только в дебрях wiki, может быть и попробовал бы поумножать : ) Спасибо за информацию.
Там - это где? И если есть, как их активизировать?
Обязательно прочитаю, как только найду что-нибудь кроме устаревших man'ов. А пока такой вопрос, из VE0 можно напрямую все процессы видеть через /proc?
Различные вычисления: от моделирования физических процессов до задач распознавания образов.
Там все ограничения по памяти на процессы, а не на группы. По крайней мере, запуск сотни процессов, каждый из которых выделяет по гигабайту памяти, при ограничении -m и -v на два гигабайта происходит нормально, память выделяется без ошибок.

Сейчас ещё раз это проверил, всё запускается и выделяется, ядро 2.6.16.19.
Кроме этого смущают фразы из man vzctl

--vmguarpages pages[:pages]
Memory allocation guarantee. This parameter controls how much memory is available to a VE. The barrier is the amount of memory that VE's applications are guaranteed to be able to allocate. The meaning of the limit is currently unspecified; it should be set to 2,147,483,647.

--oomguarpages pages[:pages]
Guarantees against OOM kill. Under this beancounter the kernel accounts the total amount of memory and swap space used by the VE processes. The barrier of this parameter is the out-of-memory guarantee. If the oomguarpages usage is below the barrier, processes of this VE are guaranteed not to be killed in out-of-memory situations. The meaning of limit is currently unspecified; it should be set to 2,147,483,647.

--physpages pages[:pages]
This is currently an accounting-only parameter. It shows the usage of RAM by this VE. Barrier should be set to 0, and limit should be set to 2,147,483,647.



ahould be set, unspecified и так далее. И почему только до 2147483647 - 2Gb, если я правильно понял.
Вобщем-то я нисколько не админ. VZ ничего нет. Потому что мне не нужно делать виртуальный компьютер, для расчётных задач нужны демоны, которые следят за их работой и они должны работать в одной виртуальной машине. Нужно ограничивать по памяти пользователя или процессы.
Эх. Полезли вот точно такие же баги.

http://www.redhat.com/archives/fedora-de…

Много утилит написано с учётом ленивого выделения памяти, что опять же стимулирует желание оторвать. Хых. Придётся делать огромный swap.
Угу, очень информативно
Хых. После возни и гугленья на предмет поиска опций\флажков\настроек\решений, которые позволяют справиться с проблемой, и возникает такое желание. Потому что время же расходуется, а его и так мало. Тем более, проблема решена и её решение очень просто, проблема признана багом, так почему же её решение не используется по умолчанию?

Эх... Это же ещё догадаться надо, что надо man malloc читать, а не перерывать документацию по ядру. А если её перерывать, то надо искать не слово overflow, а слово overcommit.

Нет, ну, я, конечно, сам дурак в этой ситуации, буду отрывать руки самому себе.
Какой именно флаг? Был бы признателен за указание.
В меру своих сил показываем, но знаете ли, ядра ОС писать так, чтобы всё хорошо было - это не пальцем в носу ковыряться, сложно, поэтому показ идёт в темпе медленного танца.
Если верить man'ам , то настройка памяти ещё не реализована. И настораживают лимиты в 2Gb, оно для 64 битов работает?
Полноценное моделирование? Это должно быть безумно сложно. И за 10 или 20 лет компьютеры (или какое моделирование вы имеете в виду?) вряд ли дадут нужную производительность. Человек - это офигительно сложная система, которая развивается к тому же во взаимодействии со внешним миром. Как введение нового энзима повлияет на развитие дальнейшее? Как предсказать? На одного человека влияние будет одним, а на другого таким же? Где гарантия?

Гены - хороший инструмент для естественного отбора, или искусственного. Даже вычисления на генетическом компьютере устраиваются именно по этому принципу. Поэтому, скорее всего, знания о генетике будут использоваться для отбора какого-то и тестов. Среди эмбрионов или ещё чего, а не для целенаправленного конструирования организмов. Слишком уж сложно и непредсказуемо это. Пример с компьютером не совсем корректный. Компьютер - штука по логической организации и предсказумости явно превосходящая живой организм.

Так что, скорее всего, импланты будут магистральным развитием этого дела, если, конечно, у него будет какое-то развитие. Организм достаточно эффективно использует отведённый ему объём, и чего-то засунуть в него полезное довольно сложно. Нужно иметь технологии, которые позволят гораздо деликатнее оперировать материей, чем мы можем это сделать сейчас. Или нужны организмы, которые всё это смогут просто физически выдержать.

Единственное, что сейчас реально доступно, как я понимаю - это засовывание электродов в нервную систему. И есть такое подозрение, что в ближайшие 10 или 20 лет будет совершенствоваться именно эта технология.
Ну. У искусственного есть пара логических приемуществ: его можно на время отключить, скопировать и, вполне возможно, оно может жить вечно. Можно предположить гипотетические возможности взаимодействовать более эффективно с себе подобными. И, наконец, масштабирование тоже непонятно, к чему приведёт.

А вообще. Интеллект давно искусственный, даже если он биологический. Хороший учёный с компьютером эффективнее хорошего учёного без компьютера в интеллектуальной деятельности.

Information

Rating
Does not participate
Location
Екатеринбург, Свердловская обл., Россия
Registered
Activity

Specialization

Backend Developer, Научный сотрудник
Applied math
System Programming
Machine learning
Compilers
Scheme
C
Assembler
Linux
Clojure
Haskell