1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/apache-aurora

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
RELEASE-NOTES.md 55 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
gitlife-traslator Отправлено 26.11.2024 06:41 32c4132

0.22.0

Новое/обновлённое:

  • Обновление до Mesos 1.6.1.
  • Добавлена новая стратегия обновления Variable Batch Update. С помощью этой стратегии задание можно обновлять пакетами разного размера. Например, обновление, которое изменяет в общей сложности 10 экземпляров, может быть выполнено пакетами размером 2, 3 и 5. Количество обновлённых экземпляров должно равняться размеру текущей группы, чтобы перейти к следующему размеру группы. Если количество обновлённых экземпляров больше суммы всех размеров групп, последний размер группы будет использоваться постоянно, пока все экземпляры не будут обновлены.

В UpdateConfig добавлено новое поле под названием update_strategy. Стратегия обновления может принимать объект QueueUpdateStrategy, BatchUpdateStrategy или VariableBatchUpdateStrategy. QueueUpdateStrategy и BatchUpdateStrategy принимают один целочисленный аргумент, а VariableBatchUpdateStrategy принимает список положительных целых чисел в качестве аргумента.

  • Пользователи теперь могут устанавливать значение для URI-загрузчика, чтобы переименовать загруженный артефакт после его загрузки.

  • Добавлена функция автоматической паузы для стратегий VariableBatch и Batch. При включённой функции при обновлении ROLLING_FORWARD обновление автоматически приостанавливается непосредственно перед запуском нового пакета. (Эта функция выпущена как протестированная, но в бета-версии. Мы собираем отзывы, прежде чем считать её полностью стабильной.)

  • loader.load() теперь использует мемоизацию пути к файлу конфигурации, поэтому каждый файл конфигурации загружается и обрабатывается только один раз.

  • Экземпляры, работающие с пользовательскими исполнителями, больше не показывают ссылки на наблюдателя термоса.

  • В командной строке добавлена опция --disable_task_resource_collection, чтобы отключить сбор данных о ресурсах ЦП, памяти и диска для наблюдаемых задач. Это полезно в настройках, где метрики нельзя собрать надёжно (например, при использовании пространств имён PID) или когда это дорого из-за сотен активных задач на хост.

  • Добавлен флаг -sla_aware_kill_non_prod, который позволяет операторам включать SLA-осведомлённое уничтожение для непроизводственных заданий. Задания считаются непроизводственными, если они являются вытесняемыми и/или отменяемыми.

Устаревания и удаления:

  • Устарело использование полей Thrift JobUpdateSettings.waitForBatchCompletion и JobUpdateSettings.updateGroupSize. Вместо этого установите правильную стратегию JobUpdateSettings.updateStrategy. Обратите внимание, что те же конструкции, представленные в Aurora DSL, по-прежнему действительны, поскольку клиент автоматически преобразует их в новое поле для обратной совместимости.
  • Удалён код для поиска подходящего уровня для задания. Уровень теперь устанавливается, когда задание получает планировщик. Если уровень не указан, используется уровень по умолчанию, определённый в -tier_config.

0.21.0

Новое/обновлённое:

  • Обновление до Mesos 1.5.0.
  • Введение возможности для задач указывать собственные требования SLA через новые структуры SlaPolicy. В настоящее время поддерживаются 3 различные политики SLA — CountSlaPolicy, PercentageSlaPolicy и CoordinatorSlaPolicy. Политики SLA, основанные на подсчёте и процентном соотношении, выражают необходимое количество экземпляров RUNNING либо в виде количества, либо в процентах, а также позволяют указать окно продолжительности, в течение которого эти требования должны быть удовлетворены. Для приложений, которым требуется больший контроль над тем, как определяется SLA, можно настроить настраиваемый калькулятор SLA, известный как координатор. Любое действие, которое может повлиять на SLA, сначала проверяет его у координатора, прежде чем продолжить.

ВАЖНО: Изменения хранилища, необходимые для этой функции, сделают моментальный снимок планировщика несовместимым с предыдущими версиями. Планировщик не сможет прочитать моментальный снимок, если он откатится к предыдущей версии. Если откат абсолютно необходим, выполните следующие шаги:

  1. Остановите все запросы на обслуживание хоста с помощью aurora_admin host_activate.
  2. Убедитесь, что создан новый моментальный снимок с помощью команды aurora_admin scheduler_snapshot <cluster>.
  3. Откатитесь к предыдущей версии.

Обратите внимание: интерфейс Coordinator, необходимый для CoordinatorSlaPolicy, на данный момент является экспериментальным. Привязано к изменениям в будущем.

  • Введена возможность для обновлений быть «SLA-aware», или обновлять только экземпляры, если это в рамках SLA, с использованием нового поля sla_aware в UpdateConfig. См. пункт выше для объяснения пользовательских требований SLA.

Примечание: SLA-aware обновления будут использовать SLA желаемого конфигуратора, а не существующего.

Добавлены три дополнительных параметра планировщика для поддержки этой функции:

  1. max_update_action_batch_size (по умолчанию: 300) — количество действий обновления для обработки в пакете.
  2. sla_aware_kill_retry_min_delay (по умолчанию: 1 минута) — минимальное время ожидания перед повторной попыткой SLA-осведомлённого уничтожения (с использованием усечённого двоичного отката).
  3. sla_aware_kill_retry_max_delay (по умолчанию: 5 минут) — максимальное время ожидания перед повторной попыткой SLA-осведомлённого уничтожения (с использованием усечённого двоичного отката).

Устаревания и удаления:

— Устаревшая команда aurora_admin host_drain, используемая для обслуживания. В этом выпуске вычисления SLA перемещены в планировщик, и клиенту больше не требуется вычислять SLA и следить за дренажами. Планировщик сохраняет любой запрос на обслуживание хоста и выполняет SLA-осведомлённый дренаж задач, прежде чем пометить хост как DRAINED. Таким образом, запросы на обслуживание сохраняются при сбоях планировщика. Используйте недавно представленную команду aurora_admin sla_host_drain, чтобы пропустить вычисления SLA на административном клиенте. — Удалены поля ресурсов (numCpus, ramMb, diskMb) из ResourceAggregate.

0.20.0

Новое/обновлённое:

— Обновление до Mesos 1.4.0. — Добавлена экспериментальная поддержка API Mesos с разделением по разделам. Основная идея заключается в новом статусе расписания PARTITIONED, который представляет задачу в неизвестном состоянии. Пользователи Aurora могут иметь политики для каждого задания относительно того, следует ли повторно планировать и как долго ждать восстановления раздела. Поддерживается обратная совместимость с существующим поведением (то есть переход к LOST сразу после разделения). Поддержка является экспериментальной из-за ошибок, обнаруженных в Mesos, которые могут вызвать проблемы в производственном кластере. По этой причине функциональность находится за новым флагом -partition_aware, который по умолчанию отключён. Когда поддержка Mesos будет улучшена и новое поведение будет проверено в производственных кластерах, мы включим его по умолчанию. — Добавлена возможность внедрять пользовательскую логику удержания предложений и планирования через флаг планировщика -offer_set_module. Чтобы воспользоваться этой функцией, вам необходимо реализовать интерфейс OfferSet. — Добавлено поле executor_config в объект Job DSL, которое заполнит JobConfiguration.TaskConfig.ExecutorConfig. Это позволяет использовать пользовательские исполнители, определённые с помощью флага планировщика --custom_executor_config. Дополнительную информацию см. в нашей документации custom-executors. — Добавлена поддержка в Thermos Observer для делегирования мониторинга использования диска агенту Mesos. Функцию можно включить с помощью флага --enable_mesos_disk_collector, в этом случае Observer будет использовать HTTP API контейнеров агента для запроса количества использованных байтов для каждого контейнера. Обратите внимание, что для этого должна быть включена изоляция диска в агенте Mesos. Эта функция несовместима с агентами с включённой аутентификацией.

Устаревшее и удалённое:

— Убрана возможность восстановления из резервных копий и снимков на основе SQL. Планировщик версии 0.20.0 не сможет восстанавливать резервные копии или реплицированные данные журнала, созданные до версии 0.19.0. — Убраны поля ресурсов уровня задачи (numCpus, ramMb, diskMb, requestedPorts). — Убран флаг планировщика -offer_order_modules, связанный с настраиваемыми инъекционными порядками предложений, поскольку теперь он будет включён в пользовательские реализации OfferSet (см. комментарий выше).

0.19.0

Новое/обновлённое:

— Добавлена возможность настройки времени ожидания остановки исполнителя, которое является максимальным временем, в течение которого исполнитель будет ожидать во время последовательности плавного завершения работы, прежде чем продолжить процесс «принудительного завершения» (см. здесь для получения дополнительной информации). Подробности

  • Добавлена возможность настройки периода ожидания после вызова конечной точки корректного завершения работы и конечной точки завершения работы с использованием полей graceful_shutdown_wait_secs и shutdown_wait_secs, соответственно, в HttpLifecycleConfig. Ранее исполнитель ждал только 5 секунд между шагами (в сумме составляя 10 секунд, так как есть 2 шага). Общий период ожидания ограничен таймаутом остановки исполнителя, который можно настроить с помощью флага stop_timeout_in_secs.

  • Введён флаг планировщика thrift_method_interceptor_modules, который позволяет операторам кластера внедрять пользовательские перехватчики методов Thrift.

  • Увеличен по умолчанию тайм-аут сеанса ZooKeeper с 4 до 15 секунд.

  • Добавлен параметр командной строки -zk_connection_timeout для управления таймаутом соединения для соединений ZooKeeper.

  • Введён аргумент командной строки планировщика -hold_offers_forever, подходящий для использования в кластерах, где Aurora является единственной структурой. Этот параметр отключает другие опции, такие как -min_offer_hold_time, и позволяет планировщику более эффективно кэшировать попытки планирования.

  • Планировщик больше не использует внутреннюю базу данных H2 для хранения.

  • Появился новый интерфейс планировщика, который помимо обновления внешнего вида предоставляет возможность внедрить собственные пользовательские компоненты интерфейса.

  • Представлено поле метаданных в объекте Job DSL, которое заполнит TaskConfig.metadata.

Устаревания и удаления:

  • Удалён устаревший аргумент командной строки -zk_use_curator, что устраняет выбор использования устаревшего клиента ZooKeeper.

  • Удалена команда API вызова thrift rewriteConfigs в планировщике. Это был последний механизм для изменения состояния планировщика на лету. Его использование считалось чрезвычайно рискованным с момента его появления, и его безопаснее отказаться из-за отсутствия использования и вероятности устаревания кода.

  • Из клиентского приложения командной строки удалена проверка среды задания. Проверка перенесена на сторону планировщика через опцию allowed_job_environments. По умолчанию разрешены любые значения devel, test, production и любое значение, соответствующее регулярному выражению staging[0-9]*.

  • Удалены аргументы командной строки планировщика, связанные с внутренней базой данных H2, которая больше не используется:

    • -use_beta_db_task_store;
    • -enable_db_metrics;
    • -slow_query_log_threshold;
    • -db_row_gc_interval;
    • -db_lock_timeout;
    • -db_max_active_connection_count;
    • -db_max_idle_connection_count;
    • -snapshot_hydrate_stores;
    • -enable_h2_console.

0.18.1

Новое/обновлённое:

  • Обновление до Shiro 1.2.5.

0.18.0

Новое/обновлённое:

  • Обновление до Mesos 1.2.0. Пожалуйста, обновите Aurora до версии 0.18 перед обновлением Mesos до версии 1.2.0, если вы полагаетесь на образы файловой системы Mesos.

  • Добавление параметра сообщения в RPC killTasks.

  • Добавление конечной точки prune_tasks в aurora_admin. См. aurora_admin prune_tasks -h для получения информации об использовании.

  • Поддержка монтирования томов задач для контейнеров Mesos в конфигурации Aurora DSL.

  • Введение флага -mesos_driver в планировщик с тремя возможными вариантами: SCHEDULER_DRIVER, V0_MESOS, V1_MESOS. Первый использует оригинальный драйвер, а два последних используют два новых драйвера из libmesos. V0_MESOS использует SCHEDULER_DRIVER под капотом, а V1_MESOS использует новый драйвер, поддерживающий HTTP API. Пользователи, которые хотят использовать HTTP API, должны использовать V1_MESOS. Пользователи, чувствительные к производительности, должны придерживаться драйверов SCHEDULER_DRIVER или V0_MESOS.

  • Добавление параметров командной строки наблюдателя для управления интервалом сбора ресурсов для наблюдаемых задач. См. здесь для получения подробной информации.

  • Поддержка резервирования агентов во время обновлений заданий, что может существенно сократить время обновления в кластерах с высокой конкуренцией за ресурсы. Отключено по умолчанию, но может быть включено с опцией enable_update_affinity, а время удержания резервирования можно контролировать с помощью update_affinity_reservation_hold_time.

  • Добавление команды task scp в клиент CLI для простой передачи файлов на/с/между экземплярами задач. См. здесь. Мониторинг и анализ производительности (AURORA-1832).

0.16.0

Новое/обновлённое:

  • Обновлён Mesos до версии 1.0.0. Обратите внимание: в рамках этого обновления мы перешли от использования яйца mesos.native для Thermos к использованию облегчённого яйца mesos.executor. Это означает, что пользователям, запускающим задачи Docker с помощью Mesos DockerContainerizer, больше не нужно использовать образы, включающие все зависимости Mesos.
  • Изменено поведение командной строки планировщика для предупреждения пользователей об устаревании атрибута production в структуре thrift Job. Планировщик запрашивается для конфигураций уровня, и выбор пользователя атрибутов tier и production, при необходимости, пересматривается. Если атрибут tier уже установлен, атрибут production может быть скорректирован в соответствии с выбором tier. В противном случае tier выбирается на основе значения атрибута production. Если соответствующий уровень не найден, используется уровень по умолчанию из файла конфигурации уровней (tiers.json).
  • Конечная точка /offers была изменена для отображения атрибутов предложений ресурсов, полученных от Mesos. Это повлияло на отображение некоторых существующих атрибутов. Кроме того, теперь отображаются дополнительные атрибуты предложения, включая резервирования и постоянные тома.
  • API планировщика теперь принимает как thrift JSON, так и двоичный thrift. Если запрос отправляется без заголовка Content-Type или с заголовком Content-Type, равным application/x-thrift, application/json или application/vnd.apache.thrift.json, запрос рассматривается как thrift JSON. Если запрос отправлен с заголовком Content-Type, равным application/vnd.apache.thrift.binary, запрос обрабатывается как двоичный thrift. Если заголовок Accept запроса равен application/vnd.apache.thrift.binary, то ответ будет двоичным thrift. Любое другое значение для Accept приведёт к получению ответа в формате thrift JSON.
  • Планировщик теперь может запускать задания, используя более одного исполнителя одновременно. Чтобы использовать эту функцию, флаг -custom_executor_config должен указывать на файл JSON, который содержит хотя бы одну допустимую конфигурацию исполнителя, как подробно описано в документации configuration.
  • Добавлен API отката к планировщику и новая команда клиента для поддержки отката активных заданий обновления к их начальному состоянию.
  • Флаг планировщика -zk_use_curator теперь по умолчанию имеет значение true, и следует соблюдать осторожность при обновлении конфигурации, которая не передаёт этот флаг. Обновление планировщика должно выполняться путём остановки всех планировщиков, а затем запуска обновлённых планировщиков. Постепенное обновление приведёт к тому, что в течение всего процесса не будет ведущего планировщика, что может затруднить мониторинг и отладку.
  • Новая команда aurora_admin reconcile_tasks теперь доступна на клиенте администратора Aurora, которая может инициировать неявные и явные согласования задач.
  • Добавлена новая метрика MTTS (медианное время до запуска) в дополнение к MTTA и MTTR.
  • Помимо ресурсов ЦП, ресурсы ОЗУ теперь можно рассматривать как отменяемые с помощью флага командной строки планировщика -enable_revocable_ram.
  • Представлены поля UpdateMetadata в JobUpdateRequest, позволяющие клиентам хранить метаданные при обновлении.
  • Для совместимости с Go изменено поле cronSchedule внутри схемы JobConfiguration, чтобы оно было необязательным.
  • Значение по умолчанию параметра командной строки -framework_name обновлено до «Aurora».
  • Задачи, запущенные с файловыми образами и унифицированным контейнеризатором Mesos, теперь полностью изолированы от файловой системы хоста. Таким образом, им больше не требуется включать какие-либо зависимости исполнителя (например, Python 2.7) в файловую систему задачи.

Устаревания и удаления:

  • Атрибут конфигурации задания production теперь устарел. Чтобы добиться такого же поведения планирования, которое раньше обеспечивалось параметром production=true, пользователи должны выбрать уровень для задания с атрибутами preemptible=false и revocable=false. Например, уровень preferred. В конфигурационном файле уровня по умолчанию (tiers.json) есть соответствие указанным выше критериям.

  • Поле ExecutorInfo.source устарело и было заменено на метку с именем source. Оно будет удалено из Mesos в будущем релизе.

  • Флаг планировщика -zk_use_curator устарел. Если вы никогда не устанавливали этот флаг и обновляете систему, будьте осторожны, как описано в примечании (#zk_use_curator_upgrade) выше.

  • Аргумент key функции getJobUpdateDetails устарел. Вместо него следует использовать аргумент query.

  • Опция --release-threshold команды aurora job restart была удалена.

0.15.0

Новое/обновлённое:

  • Новая командная строка планировщика — аргумент -enable_mesos_fetcher, чтобы разрешить отправку заданий, содержащих URI, которые будут переданы в Mesos Fetcher и впоследствии загружены в песочницу. Обратите внимание, что разрешение отправки заданий для загрузки ресурсов из произвольных URI может иметь последствия для безопасности.

  • Обновлён Mesos до версии 0.28.2.

Устаревания и удаления:

0.14.0

Новое/обновлённое:

  • Обновлён Mesos до 0.27.2.

  • Добавлен новый необязательный бэкенд Apache Curator для выполнения выбора лидера планировщика. Его можно включить с помощью нового аргумента планировщика -zk_use_curator.

  • Добавление флага --nosetuid-health-checks для управления тем, выполняет ли исполнитель проверки работоспособности от имени пользователя роли задания.

  • Новый аргумент командной строки планировщика -offer_filter_duration для контроля времени, после которого мы ожидаем, что Mesos повторно предложит неиспользуемые ресурсы. Короткая продолжительность улучшает производительность планирования в небольших кластерах, но может привести к нехватке ресурсов для других фреймворков, если вы запускаете несколько из них в своём кластере. Используется значение по умолчанию для Mesos, равное 5 с.

  • Новый параметр командной строки планировщика -framework_name для изменения имени, используемого при регистрации фреймворка Aurora в Mesos. Текущее значение по умолчанию — «TwitterScheduler».

  • Добавлена экспериментальная поддержка запуска задач с использованием образов файловой системы и унифицированного контейнерного устройства Mesos. См. связанную документацию для получения подробной информации о настройке Mesos для использования унифицированного контейнерного устройства. Обратите внимание, что более ранние версии Mesos не полностью поддерживают унифицированное контейнерное устройство. Для тех, кто использует образы задач через контейнерное устройство Mesos, рекомендуется использовать Mesos 0.28.x или более позднюю версию.

  • Обновление до pystachio 0.8.1 для поддержки нового типа Choice.

  • Свойство container объекта Job теперь представляет собой Choice либо держателя контейнера, либо прямой ссылки на контейнер Docker или Mesos.

  • Новый аргумент командной строки планировщика -ip для управления IP-адресом, к которому будет привязан сервер http планировщиков.

  • Добавлена экспериментальная поддержка ресурса GPU Mesos. Эта функция будет доступна в Mesos 1.0 и по умолчанию отключена. Используйте флаг -allow_gpu_resource, чтобы включить её.

    ВАЖНО: после включения этой функции создание заданий с ресурсом GPU сделает моментальный снимок планировщика несовместимым с предыдущими версиями. Планировщик не сможет прочитать моментальный снимок, если откатится к предыдущей версии. Если откат абсолютно необходим, выполните следующие действия:

    1. Установите для -allow_gpu_resource значение false.
    2. Удалите все задания с ресурсом GPU (включая расписания cron, если применимо).
    3. Дождитесь очистки истории задач GPU. Вы можете ускорить процесс, изменив флаги удержания истории, например: -history_prune_threshold=1mins и -history_max_per_job_threshold=0.
    4. В случае создания обновлений заданий GPU очистите историю обновлений заданий для затронутых заданий от конечной точки /h2console или уменьшите пороги очистки истории обновлений заданий, например: -job_update_history_pruning_threshold=1mins и -job_update_history_per_job_threshold=0.
    5. Убедитесь, что создан новый моментальный снимок с помощью команды aurora_admin scheduler_snapshot .
    6. Откатитесь к предыдущей версии.
  • Экспериментальная поддержка веб-хука, который отправляет POST все изменения состояния задачи на пользовательскую конечную точку.

  • Добавлена поддержка указания имени уровня по умолчанию. В конфигурационном файле уровня (tiers.json) свойство default является обязательным и инициализируется уровнем preemptible (задачи уровня preemptible могут быть прерваны, но их ресурсы не могут быть отозваны).

Устаревания и удаления:

  • Устаревший параметр --restart-threshold в команде aurora job restart для соответствия поведению обновления задания. Этот параметр сейчас не действует и будет удалён в будущем выпуске.

  • Устаревший аргумент по умолчанию -framework_name «TwitterScheduler». В будущем выпуске это изменится на «aurora». Обратите внимание, что в зависимости от вашего использования Mesos это будет несовместимое изменение. Подробнее см. MESOS-703.

  • Аргумент командной строки -thermos_observer_root был удалён из планировщика. Это было наследием того времени, когда контрольные точки исполнителя записывались глобально, а не в песочницу задачи.

  • Установка свойства container объекта Job на держатель Container устарела в пользу установки непосредственно на соответствующий тип контейнера (например, Docker или Mesos).

  • Поля numCpus, ramMb и diskMb в структурах TaskConfig и ResourceAggregate thrift устарели. Используйте set resources для указания ресурсов задачи или значений квоты.

  • Конечная точка /slaves устарела. Пожалуйста, используйте /agents вместо неё.

  • Поле production в структуре TaskConfig thrift устарело. Используйте поле tier для указания поведения планирования задач и обработки ресурсов.

  • Метрики планировщика resources_ram_gb и resourcesdisk_gb были переименованы в resourcesram_mb и resources_disk_mb соответственно. Обратите внимание на изменение единицы измерения: ГБ -> МБ.

0.13.0

Новое/обновлённое:

  • Обновлён Mesos до версии 0.26.0.

  • Добавлена новая конечная точка health (/leaderhealth), которую можно использовать для проверок работоспособности балансировщика нагрузки, чтобы всегда перенаправлять запросы к ведущему планировщику.

  • Добавлена новая клиентская команда aurora job add для масштабирования существующей работы.

  • Планировщик ZooKeeper клиент обновлён с версии 3.4.6 до 3.4.8.

  • Добавлена поддержка выделенных ограничений, не эксклюзивных для определённой роли. Подробнее см. здесь.

  • Добавлен новый аргумент --announcer-hostname для термоса исполнителя, чтобы переопределить имя хоста в конечной точке реестра служб. Подробнее см. здесь.

  • Отключение cron-задания, которое фактически не было запланировано, больше не возвращает ошибку.

  • Добавлен новый аргумент -thermos_home_in_sandbox для планировщика, позволяющий опционально изменять HOME на песочницу во время выполнения термоса исполнителя/бегуна. Это полезно в случаях, когда корневая файловая система внутри контейнера доступна только для чтения, поскольку перемещает извлечение PEX в песочницу. Подробнее см. здесь.

  • Поддержка аутентификации ZooKeeper в исполнителе анонсера. Подробнее см. здесь.

  • База данных H2 планировщика теперь использует MVStore. Кроме того, моментальные снимки thrift планировщика теперь поддерживают полные дампы БД для более быстрого перезапуска.

  • Добавлен аргумент планировщика -require_docker_use_executor, который указывает, должен ли планировщик принимать задачи, использующие контейнер Docker без исполнителя (экспериментальный).

  • Задания, ссылающиеся на недопустимое имя уровня, будут отклонены планировщиком.

  • Добавлен новый аргумент планировщика --populate_discovery_info. Если установлено значение true, Aurora начнёт заполнять поле DiscoveryInfo в TaskInfo Mesos. Это может быть использовано для альтернативных решений обнаружения служб, таких как Mesos-DNS.

  • Добавлена поддержка автоматических обновлений и понижений схемы при восстановлении снимка, содержащего дамп БД. 0.12.0

Изменения:

  • Удалены устаревшие API-конструкции, связанные с блокировками:

    • удалены RPC, которые управляли блокировками: acquireLock, releaseLock, getLocks;
    • удалены параметры Lock для RPC: createJob, scheduleCronJob, descheduleCronJob, restartShards, killTasks, addInstances, replaceCronTemplate.
  • Строки идентификаторов задач больше не имеют префикса в виде метки времени.

  • Изменения в способе чтения аргументов командной строки планировщиком:

    • удалена поддержка чтения значений аргументов командной строки из файлов;
    • удалена поддержка указания имён аргументов командной строки с использованием полностью определённых имён классов.

0.12.0

Новое и обновлённое:

  • Обновлён Mesos до версии 0.25.0.
  • Обновлён клиент планировщика ZooKeeper с версии 3.3.4 до 3.4.6.
  • Добавлена поддержка настройки роли Mesos путём передачи -mesos_role планировщику Aurora при запуске. Это позволяет резервировать ресурсы для Aurora при работе в общем кластере Mesos.
  • Метаданные задач Aurora теперь сопоставляются с метками задач Mesos. Метки начинаются с org.apache.aurora.metadata., чтобы предотвратить конфликты с другими внешними источниками меток.
  • Добавлен новый флаг планировщика -default_docker_parameters, позволяющий оператору кластера указать универсальный набор параметров, который должен использоваться для каждого контейнера, для которого параметры явно не настроены на уровне задания.
  • Добавлена поддержка для заданий по указанию произвольных путей ZooKeeper для регистрации служб. Подробнее см. в разделе конфигурации (configuration.md#announcer-objects).
  • Настраивается пункт назначения журнала для бегуна thermos. См. раздел конфигурации для получения подробной информации о том, как настроить пункт назначения для каждого процесса. Параметры командной строки также могут быть переданы через планировщик для настройки глобального поведения по умолчанию.
  • Переменные среды могут передаваться в процессы задач путём передачи --preserve_env в thermos.
  • Изменён журнал планировщика для использования logback. Операторы, желающие настроить ведение журнала, могут сделать это с помощью стандартной конфигурации logback (http://logback.qos.ch/manual/configuration.html).
  • При использовании --read-json теперь можно загружать несколько заданий из одного файла JSON, аналогично обычной структуре pystachio: {"jobs": [job1, job2, ...]}. Старый формат одного задания в формате JSON также поддерживается.
  • Команда aurora config list теперь поддерживает --read-json.
  • Добавлен аргумент командной строки планировщика -shiro_after_auth_filter. Можно указать класс, реализующий javax.servlet.Filter, который будет включён в цепочку фильтров после фильтров аутентификации Shiro.
  • RPC thrift addInstances теперь увеличивает количество экземпляров заданий (масштабирование) на основе шаблона задачи, указанного экземпляром key.

Устаревания и удаления:

  • Устаревший аргумент AddInstancesConfig в RPC thrift addInstances.
  • Устаревший аргумент TaskQuery в RPC thrift killTasks для запрета уничтожения задач между несколькими ролями. Новый более безопасный подход заключается в использовании JobKey с instances вместо этого.
  • Поле ConfigGroup.instanceIds удалено из API.
  • Удалены следующие устаревшие поля конфигурации клиента HealthCheckConfig: endpoint, expected_response, expected_response_code. Теперь они устанавливаются исключительно в одноимённых полях HttpHealthChecker.
  • Удалено устаревшее поле thrift API JobUpdateSettings.maxWaitToInstanceRunningMs (UpdateConfig.restart_threshold в конфигурации клиента). Этот аспект перезапуска заданий теперь контролируется исключительно клиентом с помощью команды aurora job restart --restart-threshold=[seconds].
  • Флаг исполнителя --announcer-enable устарел. Включение диктора ранее требовало установки обоих флагов --announcer-enable и --announcer-ensemble, но теперь требуется только --announcer-ensemble. --announcer-enable теперь является флагом бездействия и будет удалён в будущей версии.
  • Удалены аргументы командной строки планировщика:
    • -enable_cors_support. Включение CORS теперь подразумевается установкой аргумента -enable_cors_for.
    • -deduplicate_snapshots и -deflate_snapshots. Эти функции хороши для постоянного использования. enable
  • -enable_job_updates и -enable_job_creation
  • -extra_modules
  • -logtostderr, -alsologtostderr, -vlog, -vmodule и use_glog_formatter. Удалены в пользу новой конфигурации logback.

0.11.0

Новые/обновлённые:

— Обновлён Mesos до версии 0.24.1. — Добавлен новый флаг планировщика framework_announce_principal для поддержки использования авторизации и ограничения скорости в Mesos. — Добавлена поддержка для основанных на оболочке средств проверки работоспособности в дополнение к средствам проверки работоспособности HTTP. В связи с этим изменением схема HealthCheckConfig была реструктурирована, чтобы более чётко разрешить настройку различных средств проверки работоспособности. — Добавлена поддержка приёма конфигурации исполнителя в формате JSON через аргумент командной строки --custom_executor_config, который переопределит все остальные аргументы командной строки и значения по умолчанию, относящиеся к исполнителю. — В бегун thermos добавлено вращение журналов. Подробные сведения о настройке вращения для каждого процесса см. в справочнике по конфигурации. Параметры командной строки также могут быть переданы через планировщик для настройки глобального поведения по умолчанию.

Устаревшие функции и удаления:

— Средство обновления на стороне клиента было удалено вместе с командами CLI, которые его использовали: «aurora job update» и «aurora job cancel-update». Пользователям рекомендуется воспользоваться обновлениями на основе планировщика (см. «aurora update -h» для использования), которые были стабильной функцией в течение нескольких выпусков. — Следующие поля из HealthCheckConfig теперь устарели: endpoint, expected_response, expected_response_code в пользу их установки как части HttpHealthChecker. — Поле JobUpdateSettings.maxWaitToInstanceRunningMs (UpdateConfig.restart_threshold в конфигурации на стороне клиента) теперь устарело. Эта настройка была хрупкой на практике и игнорируется планировщиком версии 0.11.0.

0.10.0

Новые/обновлённые:

— Обновлён Mesos до версии 0.23.0. Примечание: исполнителю Aurora теперь требуются зависимости среды выполнения openssl, которые ранее не применялись. Вам потребуется libcurl, доступный на каждом ведомом устройстве Mesos (или контейнере Docker), чтобы успешно запустить исполнитель Aurora. Подробнее о зависимостях среды выполнения Mesos см. здесь. — Квота ресурсов больше не расходуется производственными заданиями с выделенным ограничением (AURORA-1457). — Изменена компоновка сборки Python: * Пакет apache.thermos был удалён. * Пакет apache.gen.aurora был переименован в apache.aurora.thrift. * Пакет apache.gen.thermos был переименован в apache.thermos.thrift. * Был представлен новый пакет apache.thermos.runner, предоставляющий двоичный файл thermos_runner. * Был представлен новый пакет apache.aurora.kerberos, содержащий версии aurora и aurora_admin с поддержкой Kerberos (kaurora и kaurora_admin). * Большинство целей BUILD под src/main были удалены, см. здесь для получения подробной информации.

Устаревшие функции и удаления:

— Опция --root удалена из наблюдателя. — Поле Thrift ConfigGroup.instanceIds устарело. Вместо него следует использовать ConfigGroup.instances. — Устаревшие интерфейсы SessionValidator и CapabilityValidator были удалены. Все аргументы типа SessionKey теперь допускают значение NULL и игнорируются API планировщика Thrift.

0.9.0

— Теперь требуется JRE 8 или выше. — Исполнитель GC полностью заменён согласованием состояния задачи (AURORA-1047). — Аргумент командной строки планировщика -enable_legacy_constraints был удалён, и планировщик больше не автоматически внедряет ограничения host и rack для производственных служб (AURORA-1074). — Метрики SLA для непроизводственных заданий по умолчанию отключены. Их можно включить через командную строку планировщика. Имена метрик изменились с ...nonprod_ms на ...ms_nonprod (AURORA-1350).

0.8.0

— Новый аргумент командной строки был добавлен в наблюдатель: --mesos-root. Он должен указывать на тот же путь, что и --work_dir на ведомом устройстве mesos. — Были изменены цели сборки для thermos и observer. Они теперь:

  • src/main/python/apache/aurora/tools:thermos
  • src/main/python/apache/aurora/tools:thermos_observer

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/apache-aurora.git
git@api.gitlife.ru:oschina-mirror/apache-aurora.git
oschina-mirror
apache-aurora
apache-aurora
master