Представьте, что вы играете в тетрис, только вместо фигурок — виртуальные машины, а вместо поля — серверы Google Cloud. Нужно уложить всё максимально плотно, чтобы не осталось ни кусочка неиспользованных ресурсов. В датацентрах Google именно так и происходит. На одном сервере запускаются десятки виртуальных машин (ВМ), каждая со своей задачей. Одна работает пару минут — кто-то просто тестирует код. Другая — месяцами, потому что на ней, например, крутится база данных. Главная проблема в том, что заранее никто не знает, сколько проживет каждая ВМ. А распределять ресурсы всё равно нужно максимально эффективно. Решение — предсказания от ИИ Чтобы не гадать, инженеры Google придумали использовать машинное обучение. Модель анализирует метаданные виртуальных машин — кто создал, когда, зачем, как часто обновляет и т. д. — и строит вероятностный прогноз их «жизни». На выходе получается что-то вроде: «С вероятностью 80% эта виртуалка проживет час, 15% — день, и 5% — неделю». Такой подход называется survival analysis — анализ времени до события. ИИ, который не застывает Прогноз не статичный. Если ВМ живет дольше, чем ожидалось, модель пересматривает оценку и подстраивается. Таким образом, система постоянно уточняет свои предположения и помогает планировщику Google Cloud использовать серверы эффективнее. Игра в оптимизацию Дальше подключаются алгоритмы распределения ресурсов. Они решают, где и как разместить виртуалки: Всё это происходит автоматически и в реальном времени — как будто ИИ действительно играет в тетрис, только с серверами. Результаты впечатляют Google уже обкатала систему на своих датацентрах. Итог: простой оборудования сократился на 5%. На первый взгляд немного, но если вспомнить, что речь идёт о тысячах серверов по всему миру, — это миллионы долларов экономии и тонны электроэнергии.