Может кто знает, был подобный сервис, но только там вместо тайлов были буквы. И можно было в реальном времени перемещаться по довольно большому полю, состоящему целиком из текста и менять его. И видеть, как его кто-то меняет.
Помню был один с бесконечным канвасом, но он быстро умер по этой же причине, сложно было найти где кто рисует.
Имя тому сайту www.yourworldoftext.com. Но кроме мусора я ничего не видел, по сравнению с тем Reddit хоть что-то интересное нарисовали.
И клон на коленке https://josephg.com/blog/rplace-in-a-weekend/
Вспомнилась история про Алекса Тью https://ru.wikipedia.org/wiki/The_Million_Dollar_Homepage
Нельзя ли было присылать только diff доски или так и было, я не уловил?
Так и было. После изначальной «загрузки».

А могли бы на Центрифуге сделать…

есть где то видео эволюции всей этой картины?
видел отдельные снимки в разно время и короткую гифку
а хотелось бы увидеть все от начала до конца
https://www.youtube.com/watch?v=RCAsY8kjE3w
Я конечно не вебдев, но почему бы не передать юзеру доску, а затем обновлять только измененные тайлы?
На Гит-хаб есть еще https://github.com/xSke/Pxls, подскажите, как они связаны?
А там в описании сказано что это «клон». Таких клонов энтузиасты сделали несколько штук просто чтобы попрактиковаться в построении таких штук.
Спасибо за перевод!
Вам спасибо! Рад что понравилось
По поводу баз данных хочется плакать. Шаренный битмэп на 2Мб — и это Приключение, с которым Не Всякая База Данных Справится.

Тьфу да и только.

Почему-то для современного софта сожрать 20Мб памяти «просто потому что захотелось» — это нормально, а обработать миллион элементов в двухмерном массиве — Это Же Хайлоад.
Как связаны размер данных и хайлоад/не хайлоад?
Если бы вы прочитали статью, то увидели бы что основной челендж был связан с синхронизацией, кол-вом коннекшенов и трафиком (хоть решили они эти проблемы и в лоб).
Прочитал. Потрясающая проблема по синхронизации 2Мб объекта между 10000 коннектов. Если у каждого хранить дифф и пересчитытвать его — будет 20Гб. Современный сервер обрабатывает около 400Гб/с. Где проблема-то? Ах, они это всё в json кодируют перед запросом… ну, бывает.

Можно краткий ликбез? В чём суть доски?

спасибо

Только полноправные пользователи могут оставлять комментарии.
Войдите, пожалуйста.