Вот вам конкретный пример. Нужно сделать промо постер для помета собак. Обычно дизайнеры гуглят почтовый фон, поверх которого накладывают собак с градиентной альфа маской и с полупрозрачными прямоугольниками текстов. Весь постер - распадающийся винегрет элементов.
А с помощью SD можно бесшовно вписать собак прямо в пейзаж. Возможно статью мне стоит написать с описанием процесса, если интересно.
Синхросигналом выступает солнечная система. С учётом известных релятивистских эффектов от разных скоростей движения и гравитационного поля можно скорректировать достаточно точно и лишь изредка подводить если вдруг разойдутся.
С синхронизацией то проблем меньше. Уже предложено решение синхронизации часов в солнечной системе с коррекцией через приведение к центру масс системы. А вот по поводу восстановления состояния запутанности вопрос вроде бы открытый.
А мне вот не понятен один момент. В "еньтих ваших тырнетах" восторгаются перфомансом и эффективностью таких сетей. И при этом обходят стороной тему количества параметров модели. Я ещё не углубился в тему KAN, но мне видится такое сравнение.
Традиционная модель со скалярным весами на рёбрах (например, Stable Diffusion) мы имеем одномчисло FP16 на ребро, видимо. При этом все нейроны в слое имеют одну функцию активации всегда. Т.е. не отличаются между разными чекпоинтами.
А тут получается мы на каждое ребро должны указать класс функции активации, плюс у каждой функции активации свой набор числовых параметров, наверное. Таким образом, одно ребро уже кодируется целым числом класса функции и как минимум одним параметром функции (масштабный коэффициент). И на самом деле коэффициентов должно быть несколько (масштабный и напр. наклон какой-нибудь). Логично предположить что длину параметров сделают фиксированной по максимальному количеству. Объем чекпоинта будет в несколько раз больше. Значит эта сетка должна кратно лучше справляться с задачей просто чтобы сравняться со стандартной архитектурой сетки.
А ещё не понятно как это все будет превращаться в тензор для GPU. Оператор IF или SWITCH для GPU завезли? Видеокарта же должна налёту при операциях "тензор-тензор" менять функцию активации для миллиардов связей между нейронами.
Я не понял зачем предлагается получать карту нормалей по отрендеренному в SD изображению. Для детализации?
Как бы то ни было, мне кажется лучше сначала взять оде карты глубины и нормалей из блендер, потом применить две ControlNet для SD (depth, normal map), а потом уже все остальное
Неправду пишете. На 3060 с 12ГБ можно очен сложные ComfyUI workflow выполнять. На Tesla P40 можно тренить даже SDXL. Тренировка занимает меньше или столько же времени что и разметка данных.
Личная ответственность пока не появится, гос учреждения не будут париться. И под личной ответственностью я имею в виду ответ с топ менеджмента, отвечающего за процесс обработки ПД.
Я на этом триггернулся. Ведь нам же говорили, что по закону кампания не имеет право требовать наши ПД, если не реализовали безопасный процесс их обработки. А теперь намекают, что не со всех требовали безопасность в полной мере?
"Знаю что обманываете но не могу понять где конкретно"
Вот вам конкретный пример. Нужно сделать промо постер для помета собак. Обычно дизайнеры гуглят почтовый фон, поверх которого накладывают собак с градиентной альфа маской и с полупрозрачными прямоугольниками текстов. Весь постер - распадающийся винегрет элементов.
А с помощью SD можно бесшовно вписать собак прямо в пейзаж. Возможно статью мне стоит написать с описанием процесса, если интересно.
У меня была статья про концепцию коммуникации с восстановлением состояния запутанности. Ожидаемо заплеванная.
Если сейчас скажут что проверку спина можно сделать без коллапса запутанности, то можно поступить тупым способом.
Измерять на своей стороне C до тех пор пока не выпадет нужная сторона монетки. Как только выпала, перестать подбрасывать монетку и ждать таймаута.
Нужен лишь договор об окне измерений, за которое успеется гарантированно получить нужное состояние.
Ну и масштабировать коммуникацию количеством запутанных троек.
Синхросигналом выступает солнечная система. С учётом известных релятивистских эффектов от разных скоростей движения и гравитационного поля можно скорректировать достаточно точно и лишь изредка подводить если вдруг разойдутся.
С синхронизацией то проблем меньше. Уже предложено решение синхронизации часов в солнечной системе с коррекцией через приведение к центру масс системы. А вот по поводу восстановления состояния запутанности вопрос вроде бы открытый.
Есть кто разбирающийся в "слабых измерениях"?
А мне вот не понятен один момент. В "еньтих ваших тырнетах" восторгаются перфомансом и эффективностью таких сетей. И при этом обходят стороной тему количества параметров модели. Я ещё не углубился в тему KAN, но мне видится такое сравнение.
Традиционная модель со скалярным весами на рёбрах (например, Stable Diffusion) мы имеем одномчисло FP16 на ребро, видимо. При этом все нейроны в слое имеют одну функцию активации всегда. Т.е. не отличаются между разными чекпоинтами.
А тут получается мы на каждое ребро должны указать класс функции активации, плюс у каждой функции активации свой набор числовых параметров, наверное. Таким образом, одно ребро уже кодируется целым числом класса функции и как минимум одним параметром функции (масштабный коэффициент). И на самом деле коэффициентов должно быть несколько (масштабный и напр. наклон какой-нибудь). Логично предположить что длину параметров сделают фиксированной по максимальному количеству. Объем чекпоинта будет в несколько раз больше. Значит эта сетка должна кратно лучше справляться с задачей просто чтобы сравняться со стандартной архитектурой сетки.
А ещё не понятно как это все будет превращаться в тензор для GPU. Оператор IF или SWITCH для GPU завезли? Видеокарта же должна налёту при операциях "тензор-тензор" менять функцию активации для миллиардов связей между нейронами.
Автоматизировать через A1111 плохая затея имхо. Особенно с SDXL. У этого бэкенда память утекает быстро и нужно перезапускать.
Лучше ComfyUI
Я не понял зачем предлагается получать карту нормалей по отрендеренному в SD изображению. Для детализации?
Как бы то ни было, мне кажется лучше сначала взять оде карты глубины и нормалей из блендер, потом применить две ControlNet для SD (depth, normal map), а потом уже все остальное
Я зашёл на хабрапост по кликбейтному заголовку и вот что произошло...
Hidden text
У поста появился дополнительный минус.
Врёт или просто начитался некомпетентных форумчан.
Бессмысленно. Тренировать на такой вы сможете только lora. А для генерации слишком много памяти. Tesla P40 сильно дешевле, хотя и проц там медленнее.
Только тренить с шареной системной будет медленно
ComfyUI на 1050 ti даже SDXL может. И не забываем что новые драйвера от Nvidia позволяют шарить с GPU системную память
Хватит если в ComfyUI умеете
Неправду пишете. На 3060 с 12ГБ можно очен сложные ComfyUI workflow выполнять. На Tesla P40 можно тренить даже SDXL. Тренировка занимает меньше или столько же времени что и разметка данных.
Tesla P40 стоила 15 на адишке. + Охлаждение 4к
SDXL в ComfyUI работает и на 4ГБ 1050ti - если речь про генерацию картинок. Для тренировки LoRa достаточно 12ГБ GTX 3060.
А вот для полноценной тренировки SDXL CKPT уже нужно покупать Tesla P40 за 15 тыр.
Личная ответственность пока не появится, гос учреждения не будут париться. И под личной ответственностью я имею в виду ответ с топ менеджмента, отвечающего за процесс обработки ПД.
Я на этом триггернулся. Ведь нам же говорили, что по закону кампания не имеет право требовать наши ПД, если не реализовали безопасный процесс их обработки. А теперь намекают, что не со всех требовали безопасность в полной мере?
"Знаю что обманываете но не могу понять где конкретно"
Сотрудник полиции в рапорте: с расстояния 2м мне удалось НЕ увидеть номер.