Pull to refresh
231
0.5
ainu @ainu

Пользователь

Send message

Поэтому система ценообразования на программное обеспечение на момент его разработки может быть высокой, но в момент, когда соответствующий разработчик и поставщик уже вернул вложенные инвестиции, цена должна снижаться

Выпустили "Система Ромашка 1.0", продали, прошел год, уже нельзя дорого продавать, переименовали в Роза 1.0, продали, дальше по кругу. Делать Ромашка 1.1 или Ромашка 2 невыгодно.

Кмк, если отказываться от магнитов в пользу "контакты на дощечках с элементами", более логично было бы сделать туда бредбордовые "мамы", в которые втыкать такие вот перемычки:

Во-первых, это проще чем закручивать гайкой, их проще докупить, а в качестве бонуса можно будет вырасти в бредборды и даже микроконтроллеры.

Когда появились фреймворки, программисты занимались тем, что делали низкоуровные чтения тех же параметров запроса. Фреймворки теперь делают эту задачу за них, программисты не уволены, просто подняли уровень абстракции.

Ничего не поменяется, ИИ - это тот же инструмент, и если он позволяет работать со скоростью одного джуна, программист будет просто управлять десятком виртуальных джунов и работать на уровень выше.

Когда то программисты забыли ассемблер (вернее он стал менее популярным в рабочих задачах), затем забыли языки низкого уровня, перейдя на фреймворки, после качественного развития нейронок забудут и языки, перейдя на язык задач. Но работа все равно останется, никуда не денется, как не пропала работа для заводчан с появлением ЧПУ-станков (зато появилась профессия ЧПУ оператора).

Кмк, без носителя языка можно оценить "похожесть" подхода, сделав тот же процесс для русского. Желательно чтобы нарезал тот, кто язык не знает (индус на фрилансе например). И посмотреть уже.

Похоже знание языка все таки нужно. Я немного баловался играми на LÖVE, и делал скриптики на луа простые, но вот тут

game.Players:GetPlayerFromCharacter(hit.Parent)

меня смутило двоеточие.

Хватит насиловать 3.5, дайте ему уже умереть спокойно. Есть куча альтернатив на голову выше, даже локальный ллама 3 (да и доступный онлайн если поискать)

В точку. Совет "Не давайте команде готовые решения" без примера, его поясняющего, может даже навредить. Иначе тимлид может начать играть в угадайку, мол "я помню ту самую либу которая за пять сек решит задачу, но вам ее не скажу, ищите. Первая буква "s", созвучно с названием греческой богини, шесть букв"

Процессор с 64 потоками судя по результатам, более эффективен, чем процессор с 36. Неожиданно.

Вообще-то программа для работы с фотографиями это Adobe Lightroom

В центр надо поместить ядро из свертяжелого антиграфена. Это будет анодом батарейки, которая будет плавать в жидком вакууме. Так как в вакууме нет материи, это защитит антиматерию от разрушения, а так как тёмная материя энергична, сверхбыстрые электроны попадают на натиграфен, но так как это антивещество, и на границах его молекул - позитроны, они падают на них, нейтрализуют, и остаются свободные ядра, отрицательно заряженные. Электроны из темной материи тут же отодвигаются в сторону чугуния, там мы и ловим их и получаем электричество.

Хабр — торт

которая превосходит Claude 3 Opus... и дышит в спину GPT-4

Это не совсем так (вернее совсем не так). К тому же это GPT-4 дышит в спину Опусу.

Вот так выглядело с F16 версией. Примерно 4-6 секунд на один токен уходило.

По поводу сравнения с mixtral, я запускал, ещё раз, 16бит и Q8_0, и обе работают на голову выше по качеству, чем mixtral/mistral, просто несравненно лучше.
16 гигабайт не хватит, возможно какие то сильно квантованные может и влезут, но надо понимать, что такого рода чудес не бывает, как бы сила модели в количестве и точности связей.

То же самое делает ML studio, можно даже указать, какой процент видеопамяти мы готовы дать.

На полной версии gguf без квантования (вернее 16 bit, вроде как не квантованная) у меня запустилось на 12 гигабайт видео + 96 обычной ОЗУ, лагало но работало, всё сожралось в пол.
На квантованной влезло в 46 гигабайт:

:
:

Я бы добавил в список command r (а остальные из списка убрал). Ну, и кроме квантизации есть такие штуки, как LM Studio и GGUF, позволяющие держать модель в оперативке, а не видеопамяти. А 96 гигов оперативки несравненно дешевле, чем 96 гигов видеопамяти.

UPD: на картинке рейтинга в посте command r присутствует, и находится выше всех открытых, и даже выше, чем два ChatGPT 4

Там 3,2 гигапикселя на самом деле. И эти объёмы считаются самой сложной частью проекта, это все надо где-то хранить, а люди обработать не успеют, поэтому будут смотреть роботы

1
23 ...

Information

Rating
1,506-th
Date of birth
Registered
Activity