Comments 2
Спасибо за отличную статью. Собирался как раз изучить вопрос, а тут такой подарок.
Очень жаль, конечно, что политики дефолтного шедулера не описаны yaml'ом.
Вопрос: а нет подозрений какие политики кастомного шедулера привели к нормальному поведению?
Побежал накручивать мониторинг распределения подов в кластере :)
Очень жаль, конечно, что политики дефолтного шедулера не описаны yaml'ом.
Вопрос: а нет подозрений какие политики кастомного шедулера привели к нормальному поведению?
Побежал накручивать мониторинг распределения подов в кластере :)
0
Спасибо за отличную статью. Собирался как раз изучить вопрос, а тут такой подарок.
Рад, что статья зашла! :)
Очень жаль, конечно, что политики дефолтного шедулера не описаны yaml'ом.
На эту тему, кстати, есть issue.
Вопрос: а нет подозрений какие политики кастомного шедулера привели к нормальному поведению?
В нашем примере описания файла с политиками, при нормальной работе кластера, очки существенно изменяются только у одной политики — LeastRequestedPriority. Эта политика начисляет больше очков наименее загруженной ноде.
+1
Sign up to leave a comment.
Создание дополнительного kube-scheduler’a с кастомным набором правил планирования