Pull to refresh
-5
0
Send message
Классно. А теперь давайте скажем, что emii не зависит от техпроцесса. Чем он ниже, тем ниже энергии требуется, для переключения состояния (собственно, в этом и суть перехода на меньший техпроцесс окромя увеличения числа транзисторов на ед. площади). Соответственно любая наводка может переключить состояние. Защита не просто на уровне схемотехники обеспечивается, она закладывается на уровне проектирования всюду, и в том числе в логику. И хотя эффективность не то, чтобы очень высокая, большой производительности в fps шутерах для военной техники не надо, за это отвечают мозги пушечного мяса, а вот потребность в любой защите критическая. Так что на вопрос, почему военка не освоила 8мм техпроцесс простой — надо было бы — освоила бы ещё в СССР.

С космосом отдельный разговор. Там всё и сложнее и проще одновременно. Например, тепловыделения хрен знает куда скидывать.
И не будут. Блджад, физика не позволит. Тут не то, чтобы какой-то защиты от термоядерного взрыва хотя бы сотне километров нет, тут блджад нет банальной защиты от наводок. Они и не нужны в 99% случаях, в TCP/IP это просто замедление производительности на пол процента, в UDP раз в тысячу потерянный пакет. Но любая диверсия с использованием ЭМИ-устройств и потери будут 100%, а устройство только в музей. Наши, настоящие наши CPU (были даже экземпляры на ферромагнитной логике) могут работать в условиях реакции ядерного синтеза прямо над собой… Ну, утрируя, конечно, но дополнительный экран и простой код, восстанавливающий ошибки и какая-то работа будет. Не 100%, но в тех условиях любая потреблядская модель случайно расплавилась бы.

На самом деле деньги рекой текут в мин. обр. не просто так. И всё разворовывать никто не позволяет. Да, бывают косяки, бывают везде косяки. Но проблема не в том, что деньги воруют, воруют везде, здесь либо всех нахуй расстреливать, но замены нет, либо каким-то раком контролировать. А в США научились делать это хитро, легально, ну да ладно. Проблема в том, что наша ПРО до сих пор работает на советских машинах. Блджад! Да не просто советских, а прямиком из шестидесятых! Товарищи, писец не там, где вы думаете. Наша обороноспособность зависит от надёжности систем той страны, которой уже нет.… Слов нет, одни буквы.

Простите, выговорился.
Какие, чёрт побери, военные приборы на двадцати восьми нанометрах? Что?! Это банальное импортозамещение. в каждом втором роутере китайский MIPS, в каждом втором смартфоне американский Ax, нехорошо это для нашего ВВП, вот и всё. Военка как была в основном на нашей рассыпухе, так и осталась. Дорого, долго, морально устаревшее, но это, блджад, вопрос нац. безопасности. И техпроцессы там 100нм в самом энергонезависимом варианте.
Ну пожалуйста, ну товарищи. Ну UTF-8 же.
Я не говорю, что задержки большие, даже наборот, доступ ядра к «своей» RAM памяти намного быстрее, чем доступ CPU к RAM. Проблема в том, что на эту память наложены просто огромные ограничения. Есть ещё Read-Only, она такая же по скорости (или даже быстрее, тут луна), но она Read-Only. Есть, как я понял, что-то вроде памяти вывода, она, как можно догадаться, на вывод. Конечно, всю память можно в Shared захерачить, но производительность конвейра сойдёт в нуль в таком случае и вся прелесть высокой производительности улетучится словно спирт в бане.

За 13 лет в архитектурах изменилось много, да ничего. Вообще говоря, GPU — это полноценная печка со своей ОСью, BIOS и прочей мишурой. Только вот дохрена ограниченная. Бранчинг никогда не появлялся, и никогда его не будет. «Нормальный» он как кажется, потому что перфомансом задавили, сейчас обе ветки посчитать как нехрен для CPU… Один раз, ну два раза. А вот попробуй рекурсию и умри — не могёт GPU в рекурсию. Те же циклы разворачиваются компилятором в набор простых вызвов если условие тривиальное. Потому что Read-only памяти хоть лопатой греби, а вот ядра супер-урезанные в бранчинг не особо умеют.

На самом деле это и понятно почему так. На GPU ооооочень глубокий конвейр. Как бы ядра вроде бы и ядра, но контроля за ними нет. Вообще никакого. Снова луна. Тут нет полностью подконтрольных потоков Linux или Windows, тут нет процессов erlang, тут есть параллелизм на уровне параметров, но этого для ворошения текстур или вершин более чем достаточно. Зато теперь можно как угодно пытать код, чтобы запускать его на ядрах, хоть каждое ядро по инструкции обрабатывает, хоть каждому ядру свой параметр. В этом и заключается сила конвейра, поэтому GPU так быстры на однотипных операциях. Но вот попробуй сделать на нём поиск в глубину, nvidia и amd расчехлят их большой жирных #$%. Производительность будет хотя бы такая же, как и на CPU. При этом нефти сгорит несравнимо больше. Всё таки TDP i7 6700K в два раза меньше, чем у GTX 1080.

И на самом деле я бы не писал, что у каждого ядра свой диспетчер инструкций, блоки загрузки-выгрузи и прочее-подобное. Ядро на GPU суть очень простая, это просто часть конвейра. В некотором роде унифицированная, но всё таки, банальная дробилка простейших инструкций. На GPU надо смотреть как на очень прожорливое нечто, стоящее между CPU и FGPA. Хотя, всё таки спасибо nVidia, прожорливость резко меняется в лучшую сторону. Ещё помню времена, когда на 275 с Марса можно было хоть чайник кипятить. Вполне успешно.
У меня Quadro мобильная, кстати говоря. Слабая, но что-то. Может у неё какие-то преимущества в GPGPU, не? Попробовать можно. Могу ещё на 1060 запустить, но это не так интересно.
Я бы не был настолько категоричным, архитектура GPU подразумевает RISC, правда не который у каждого в кармане, а настоящий, лишённый всех утех, вроде настоящего бранчинга http://http.developer.nvidia.com/GPUGems2/gpugems2_chapter34.html

В каких-то смыслах GPU и правда быстрее. На самом деле, даже в очень многих, но работа с памятью очень… Специфичная, любой тяжёлый поток может практически убить производительность, сведя её до нуля. Тогда как Skylake сожрёт его и не нагреется.

Что действительно будет быстрее, так это некий NoC из FGPA, но он пока так и остался в концептах. Вроде что-то говорили про NoC, что-то про FGPA в Core iX, но ничего не видно. Но эти вещи вместе могут избавить нас от такого рудимента как GPU за раз.
Про энтропию я имею в виду, что сжимать текстуры проще, тем более с потерями, чем любую информацию. И нет, не 16-разрядный PCI Express является горлышком. А высокая стоимость hispeed памяти неоправданно дорогой. Топовые карточки и без сжатия хорошо играются, а вот middle сегмент очень ограничен в пропускных возможностях.

У малинки есть классный видеоускоритель, который можно использовать для быстрой работы с изображениями. Ясное дело, feh такого не умеет.

Тут надо уточнить, что свапуется всё подряд, и отправить конкретно хром в свап не так то просто. Но в целом, хотя бы 40%-60% сжатие стабильно присутствует, что по сути как минимум удваивает количество RAM. А в случае интенсивного использования хрома, zram вероятнее утраивает, а порой даже удесятеряет. Меня порой удивляет, почему сами разработчики chromium не могут сами сжимать память различными методами, более эффективными.
Ни чё се медленно. Очень даже быстро, компрессия к слову используется в графических платах для увеличения пропускной способности. А там гигабиты в секунду, пуская и энтропия чрезвычайно невелика. У самого archlinux и 8 гигов RAM, так половину в zram отправил, компрессия хрома достигает 10%, что практически снимает вопрос о его прожорливости.
Равно как ни разу не слышал про прямые в матане. Тов., суть слов в том, чтобы доносить информацию, и если мы вносим один и тот же смысл в эти слова, нет никаких проблем, чтобы использовать удобные слова. Полуось это та же полупрямая, которая является ничем иным, как лучом.
Неотрицательных вещественных (или положительных вещественных, если без нуля). А полупрямая и вовсе лучом называется.
В США спасибо надо сказать Илону. Иначе бы Локхид с Боингом продолжали бы закупать морально устаревшие двигатели в РФ.
При чём тут кремний? Я говорю про фундаментальную невозможность сделать наверняка, вы говорите кремний самый надёжный. Вы говорите Гёдель доказал, что математика не может ошибаться если, я хочу заметить, что при этом в ней будут нерешённые задачи, априори. Да и банальные ошибки в доказательствах возможны, в комбинаторике постоянно опровергают доказательства.
О, давайте! Спустимся в процессор и будем физически доказывать его непоколебимость? Свободу от наводок палящего излучения и физической невозможностью «забыть» какой либо бит? Давайте! Спустимся в физику и будем доказывать её непоколебимость? Докажем работоспособность p-n переходов в любых условиях и приручим заведомо случайную, почему нет? Давайте! А сверху ещё останутся виртуальные машины, операционные системы реального времени и различные архитектуры процессоров, от велосипедов на ферромагинитах до 64-битных ARM Cortex A72. А ещё можно продолжить быдлокодить где быдлокодили и не лезть к серьёзным людям, занимающимся настоящей работой, навроде проектирования радиоаппаратуры и интегральных схем. Потому что душа без тела никому не нужна, а вот тело с кривой душой вполне работоспособно. Всегда есть риски, нельзя взять и уйти от них.

В любом случае, математика не идеальна. Это ещё тов. Гёдель показал, а вот что с этим делать другой вопрос. И да, она может ошибаться, теоремы могут быть ошибочны, а их предпосылки логически неверны.

Ко всему прочему, мы до сих пор не могём разрешить нелинейных дифференциальных уравнений в системе с парой десятков неизвестных (читай, энергетически оптимальный запуск ракеты), что уж говорить про тензорную и топологическую ересь.
Товарищ, не подскажете откуда полотно и стоит ли вызывать скорую покуда подхожу под всё?
Ну отлично. Давайте из одной в крайности — другую. Но начнём с другого, товарищ удобный интерфейс. Потому что то, что вы описали не совсем-то интерфейс. И хотя возможность задавать компаратор и является интерфейсом, товарищ, любая сортировка используя механизм сравнения пар по умолчанию должна иметь некий компаратор. Пускай он будет стандартный, пускай он будет задаваться — это не то, чтобы интерфейс, это здравый смысл.
Продолжим тем, что когда любому методу задаётся на вход контейнер, где-то сразу в тесте после подачи нулей и нулов проверяется работа с чётным-нечётным. Это такая галочка есть у опытных писателей тестов.
Было бы куда более убедительно, если бы вы взяли, например, некий специфичный процессор, у которого, например, 7 битовые слова с каким-нибудь особенным управляющим сигналом. Чёрт его знает, что это за зверь, но не имея представления о реализации сигнала или о доступных машинных словах — довольно тяжело делать тесты. Но признаемся сами себе — это, как говорят американцы, булшит. Не представляю, кто доверил бы написание тестов такому специфичному процессору не удостоверившись в вашей компетенции хотя бы по чтению даташитов.
И, наконец, покуда вы знаете узкие места вашей реализации, в чём проблема включить грёбанный котелок и громко вслух проговорить узкие места алгоритма? Совесть за слух окружающих скорбит? Гордость за чувства окружающих теребит? Или банальное неумение читать собственный код? Ну, тут уж кто во что горазд, товарищ универсальная реализация.
Не всё можно улучшить в том плане, что стоимость улучшения будет много-много выше значимости. Про «не работать» — это вы лихо завернули. Лет через 100 — может быть, но на пособие мало кто будет мечтать жить. А придётся многим. Так что, ничего хорошего не будет.
Товарищи, не хочу никого пугать, но…

Что есть способность к анализу? Интуиция и мышление? Сознание? Самосознание? Философия? Почему мы не можем ответить на этот вопрос? Почему мы его избегаем и лучшие умы нашего времени либо переводят стрелки на философов, либо скупо отвечают про какие-то митохондрии и квантовые суперпозиции, либо банально заявляют, что понятия не имеют. Так почему? Грёбанная рефлексия! Как вообще так произошло, что мозг в черепной коробке спрашивает, почему он мозг в черепной коробке?

Есть у меня *смутное* подозрение, что всё намного проще. Да, процессы сложны и на взвешенный сумматор они явно не претендуют. Но… Что, если добавить нелинейных процессов? Что, если вывести объёмы до овер девять тысяч? Что, если прикрутить этому руки-ноги? Что, если всё просто, но мы не хотим, не можем или банально боимся это понять? Что, если вся эта тягомотина со свободой разума есть не более чем миф, иллюзия?

Не так давно искусственный интеллект обыграл общепризнанно одного из сильнейших игроков го. Замечу, что эта игра требует принятия решений в условиях недостаточных данных. Программисты наколдовали? Не думаю. Нейросети лишь инструмент, да. Но мы им пользуемся ежедневно, с незапамятных времён. Наши предки ими пользовались, предки наших предков ими пользовались.
Собственно. На секунду представьте такую картину. Берём одну нейросеть. Допустим, она будет обрабатывать изображения. Что на выходе? Да невесть что, что-нибудь поскромнее пары гигабит в секунду. Она хранит текущее состояние — кратковременную память. Вывод отправляем дальше по дорсальным и вентральным путям, которые проходят по коре нашей нейросети постепенно растворяясь в ней. Таким образом поступаем со всеми органами чувств. Кору нейросети выделяем как некий имитатор «самосознания», которая будет принимать «решения». В неё проецируются все органы чувств, вся память, весь опыт, вся жизнь, вся суть. Зашиваем «стандартные» веса, получая инстинкты. И готово.

Сколько видеокарт должны поистине гореть, чтобы это всё заработало? Мы тут недавно научились строить рекурсивные слои, у нас такое само собой повсюду и везде. Так что овер 9000 думаю весьма оптимистичная оценка. Но на мой взгляд, даже сегодня такое теоретически возможно. Может, потребуется пара десятков лет на то, чтобы подобрать научить такую нейросеть «инстинктам», но на нашей планете достаточно видеокарт, чтобы она хоть как-то работала.

К слову, про «хоть как-то». Наш мозг потребляет 20% всего энергетического метаболизма. Это пол киловат*часа в сутки. Чёрт, да одна моя видеокарта за одну игровую сессию больше сжигает. Так что с энергетической точки зрения это вряд ли будет быстро. По поводу быстродействия, здесь много зависит, конечно, от реализации. Но большое количество видеокарт, которые скорее всего будут ещё в разных слейвах, потребует огромных накладных расходов на мемори шаринг. Так тут ещё и состояние скорее всего придётся распределять. А информационные массивы колоссальны, они поистине огромны. Так что придётся недюже потрудиться, чтобы каким-то раком заставить это хотя бы работать. Быстродействие будет далеко не в приоритете. И оно будет печально. Пара гигабит в секунду (если не пара десятков) с каждого органа чувств, ещё столько же на внутренние процессы, ещё столько же на хранение данных (у нас память, по всей видимости, темпоральная, то есть она существует во времени), если не на порядок больше. В общем, скорее всего мы обосрёмся не в вычислительных ресурсах, а в пропускных способностях. Дробить умеем много, подавать столько не получается. Как всегда, в общем. Так что придётся использовать простаивающие вычислительные мощности для пережатия данных. Может бесполезно, а может и не очень, всё равно простаивают. Но одно точно — такая система будет работать. Может хорошо, может не очень, но она будет работать и мы сможем её реализовать.

А теперь, вопрос на миллион — ну на кой чёрт она (эта система) тут сдалась? Какому сумрачному гению потребуется переводить тонны нефти (в прямом смысле) на то, чтобы родить бесполезного ребёнка, который ещё пару веков (вспоминаем производительность) будет только обучаться? Да и чему? Если он будет мыслить и рассуждать подобно нам, зачем нам ещё один из нас, если можно, простите, просто потрахаться? Чем многие из нас и так увлекаются без весомых на то причин не сильно утруждая себя контрацепцией. У нас и без того сложная ситуация с трудоустройством, зачем ещё одни лишние руки? Кому надо вкладывать многие миллионы на то, чтобы через десяток лет (может чуть быстрее, а может дольше, тут зависит от нас и истинного состояния сферы) получить наглядное подтверждение возможности создания ИИ.

Ответ, почему «до сих пор не изобрели ИИ» очень и очень прозаичен — он никому за даром не сдался. А тут ещё надо взять, да выложить пару чемоданов. Нет, гугл делает небольшие узкоспециализированные подобия нас потому, что они лишены наших недостатков — они отлично делают то, ради чего созданы и совсем не делают другое. Но теоретическая возможность сшить несколько сотен таких узкоспециализированных подобий в одно — существует. И странно, некоторых удивляет тот факт, что это действительно будет очень похоже на нас.

Впрочем, если закон Мура не перестанет радовать, то через пол века мозг должен будет умещаться в одном SoC. Но это лирика. И прошу прощения, что выдал сей опус. Не удержался. И да, есть вероятность, что я не прав. Но она мала.
Ну вот в этом и вопрос. Скорее всего не сможет. А если сможет, есть scrypt, там это в принципе нереально, слишком много сложных операций с памятью.
Ну её более менее легко заменить на того же McElice, сами майнинг и идея в целом не пострадают. Вопрос, как быть со старыми транзакциями, но сдаётся мне они пойдут прахом.

Information

Rating
Does not participate
Registered
Activity