В UpdateConfig
добавлено новое поле под названием update_strategy
. Стратегия обновления может принимать объект QueueUpdateStrategy
, BatchUpdateStrategy
или VariableBatchUpdateStrategy
. QueueUpdateStrategy
и BatchUpdateStrategy
принимают один целочисленный аргумент, а VariableBatchUpdateStrategy
принимает список положительных целых чисел в качестве аргумента.
Пользователи теперь могут устанавливать значение для URI-загрузчика, чтобы переименовать загруженный артефакт после его загрузки.
Добавлена функция автоматической паузы для стратегий VariableBatch и Batch. При включённой функции при обновлении ROLLING_FORWARD
обновление автоматически приостанавливается непосредственно перед запуском нового пакета. (Эта функция выпущена как протестированная, но в бета-версии. Мы собираем отзывы, прежде чем считать её полностью стабильной.)
loader.load()
теперь использует мемоизацию пути к файлу конфигурации, поэтому каждый файл конфигурации загружается и обрабатывается только один раз.
Экземпляры, работающие с пользовательскими исполнителями, больше не показывают ссылки на наблюдателя термоса.
В командной строке добавлена опция --disable_task_resource_collection
, чтобы отключить сбор данных о ресурсах ЦП, памяти и диска для наблюдаемых задач. Это полезно в настройках, где метрики нельзя собрать надёжно (например, при использовании пространств имён PID) или когда это дорого из-за сотен активных задач на хост.
Добавлен флаг -sla_aware_kill_non_prod
, который позволяет операторам включать SLA-осведомлённое уничтожение для непроизводственных заданий. Задания считаются непроизводственными, если они являются вытесняемыми и/или отменяемыми.
JobUpdateSettings.waitForBatchCompletion
и JobUpdateSettings.updateGroupSize
. Вместо этого установите правильную стратегию JobUpdateSettings.updateStrategy
. Обратите внимание, что те же конструкции, представленные в Aurora DSL, по-прежнему действительны, поскольку клиент автоматически преобразует их в новое поле для обратной совместимости.-tier_config
.SlaPolicy
. В настоящее время поддерживаются 3 различные политики SLA — CountSlaPolicy
, PercentageSlaPolicy
и CoordinatorSlaPolicy
. Политики SLA, основанные на подсчёте и процентном соотношении, выражают необходимое количество экземпляров RUNNING
либо в виде количества, либо в процентах, а также позволяют указать окно продолжительности, в течение которого эти требования должны быть удовлетворены. Для приложений, которым требуется больший контроль над тем, как определяется SLA, можно настроить настраиваемый калькулятор SLA, известный как координатор. Любое действие, которое может повлиять на SLA, сначала проверяет его у координатора, прежде чем продолжить.ВАЖНО: Изменения хранилища, необходимые для этой функции, сделают моментальный снимок планировщика несовместимым с предыдущими версиями. Планировщик не сможет прочитать моментальный снимок, если он откатится к предыдущей версии. Если откат абсолютно необходим, выполните следующие шаги:
aurora_admin host_activate
.aurora_admin scheduler_snapshot <cluster>
.Обратите внимание: интерфейс Coordinator
, необходимый для CoordinatorSlaPolicy
, на данный момент является экспериментальным. Привязано к изменениям в будущем.
sla_aware
в UpdateConfig
. См. пункт выше для объяснения пользовательских требований SLA.Примечание: SLA-aware обновления будут использовать SLA желаемого конфигуратора, а не существующего.
Добавлены три дополнительных параметра планировщика для поддержки этой функции:
max_update_action_batch_size (по умолчанию: 300)
— количество действий обновления для обработки в пакете.sla_aware_kill_retry_min_delay (по умолчанию: 1 минута)
— минимальное время ожидания перед повторной попыткой SLA-осведомлённого уничтожения (с использованием усечённого двоичного отката).sla_aware_kill_retry_max_delay (по умолчанию: 5 минут)
— максимальное время ожидания перед повторной попыткой SLA-осведомлённого уничтожения (с использованием усечённого двоичного отката).— Устаревшая команда aurora_admin host_drain
, используемая для обслуживания. В этом выпуске вычисления SLA перемещены в планировщик, и клиенту больше не требуется вычислять SLA и следить за дренажами. Планировщик сохраняет любой запрос на обслуживание хоста и выполняет SLA-осведомлённый дренаж задач, прежде чем пометить хост как DRAINED
. Таким образом, запросы на обслуживание сохраняются при сбоях планировщика. Используйте недавно представленную команду aurora_admin sla_host_drain
, чтобы пропустить вычисления SLA на административном клиенте.
— Удалены поля ресурсов (numCpus
, ramMb
, diskMb
) из ResourceAggregate.
— Обновление до Mesos 1.4.0.
— Добавлена экспериментальная поддержка API Mesos с разделением по разделам. Основная идея заключается в новом статусе расписания PARTITIONED, который представляет задачу в неизвестном состоянии. Пользователи Aurora могут иметь политики для каждого задания относительно того, следует ли повторно планировать и как долго ждать восстановления раздела. Поддерживается обратная совместимость с существующим поведением (то есть переход к LOST сразу после разделения). Поддержка является экспериментальной из-за ошибок, обнаруженных в Mesos, которые могут вызвать проблемы в производственном кластере. По этой причине функциональность находится за новым флагом -partition_aware
, который по умолчанию отключён. Когда поддержка Mesos будет улучшена и новое поведение будет проверено в производственных кластерах, мы включим его по умолчанию.
— Добавлена возможность внедрять пользовательскую логику удержания предложений и планирования через флаг планировщика -offer_set_module
. Чтобы воспользоваться этой функцией, вам необходимо реализовать интерфейс OfferSet
.
— Добавлено поле executor_config
в объект Job DSL, которое заполнит JobConfiguration.TaskConfig.ExecutorConfig
. Это позволяет использовать пользовательские исполнители, определённые с помощью флага планировщика --custom_executor_config
. Дополнительную информацию см. в нашей документации custom-executors.
— Добавлена поддержка в Thermos Observer для делегирования мониторинга использования диска агенту Mesos. Функцию можно включить с помощью флага --enable_mesos_disk_collector
, в этом случае Observer будет использовать HTTP API контейнеров агента для запроса количества использованных байтов для каждого контейнера. Обратите внимание, что для этого должна быть включена изоляция диска в агенте Mesos. Эта функция несовместима с агентами с включённой аутентификацией.
— Убрана возможность восстановления из резервных копий и снимков на основе SQL. Планировщик версии 0.20.0 не сможет восстанавливать резервные копии или реплицированные данные журнала, созданные до версии 0.19.0.
— Убраны поля ресурсов уровня задачи (numCpus
, ramMb
, diskMb
, requestedPorts
).
— Убран флаг планировщика -offer_order_modules
, связанный с настраиваемыми инъекционными порядками предложений, поскольку теперь он будет включён в пользовательские реализации OfferSet
(см. комментарий выше).
— Добавлена возможность настройки времени ожидания остановки исполнителя, которое является максимальным временем, в течение которого исполнитель будет ожидать во время последовательности плавного завершения работы, прежде чем продолжить процесс «принудительного завершения» (см. здесь для получения дополнительной информации). Подробности
Добавлена возможность настройки периода ожидания после вызова конечной точки корректного завершения работы и конечной точки завершения работы с использованием полей graceful_shutdown_wait_secs
и shutdown_wait_secs
, соответственно, в HttpLifecycleConfig
. Ранее исполнитель ждал только 5 секунд между шагами (в сумме составляя 10 секунд, так как есть 2 шага). Общий период ожидания ограничен таймаутом остановки исполнителя, который можно настроить с помощью флага stop_timeout_in_secs
.
Введён флаг планировщика thrift_method_interceptor_modules
, который позволяет операторам кластера внедрять пользовательские перехватчики методов Thrift.
Увеличен по умолчанию тайм-аут сеанса ZooKeeper с 4 до 15 секунд.
Добавлен параметр командной строки -zk_connection_timeout
для управления таймаутом соединения для соединений ZooKeeper.
Введён аргумент командной строки планировщика -hold_offers_forever
, подходящий для использования в кластерах, где Aurora является единственной структурой. Этот параметр отключает другие опции, такие как -min_offer_hold_time
, и позволяет планировщику более эффективно кэшировать попытки планирования.
Планировщик больше не использует внутреннюю базу данных H2 для хранения.
Появился новый интерфейс планировщика, который помимо обновления внешнего вида предоставляет возможность внедрить собственные пользовательские компоненты интерфейса.
Представлено поле метаданных в объекте Job DSL, которое заполнит TaskConfig.metadata.
Устаревания и удаления:
Удалён устаревший аргумент командной строки -zk_use_curator
, что устраняет выбор использования устаревшего клиента ZooKeeper.
Удалена команда API вызова thrift rewriteConfigs
в планировщике. Это был последний механизм для изменения состояния планировщика на лету. Его использование считалось чрезвычайно рискованным с момента его появления, и его безопаснее отказаться из-за отсутствия использования и вероятности устаревания кода.
Из клиентского приложения командной строки удалена проверка среды задания. Проверка перенесена на сторону планировщика через опцию allowed_job_environments
. По умолчанию разрешены любые значения devel
, test
, production
и любое значение, соответствующее регулярному выражению staging[0-9]*
.
Удалены аргументы командной строки планировщика, связанные с внутренней базой данных H2, которая больше не используется:
-use_beta_db_task_store
;-enable_db_metrics
;-slow_query_log_threshold
;-db_row_gc_interval
;-db_lock_timeout
;-db_max_active_connection_count
;-db_max_idle_connection_count
;-snapshot_hydrate_stores
;-enable_h2_console
.Новое/обновлённое:
Новое/обновлённое:
Обновление до Mesos 1.2.0. Пожалуйста, обновите Aurora до версии 0.18 перед обновлением Mesos до версии 1.2.0, если вы полагаетесь на образы файловой системы Mesos.
Добавление параметра сообщения в RPC killTasks
.
Добавление конечной точки prune_tasks
в aurora_admin
. См. aurora_admin prune_tasks -h
для получения информации об использовании.
Поддержка монтирования томов задач для контейнеров Mesos в конфигурации Aurora DSL.
Введение флага -mesos_driver
в планировщик с тремя возможными вариантами: SCHEDULER_DRIVER
, V0_MESOS
, V1_MESOS
. Первый использует оригинальный драйвер, а два последних используют два новых драйвера из libmesos
. V0_MESOS
использует SCHEDULER_DRIVER
под капотом, а V1_MESOS
использует новый драйвер, поддерживающий HTTP API. Пользователи, которые хотят использовать HTTP API, должны использовать V1_MESOS
. Пользователи, чувствительные к производительности, должны придерживаться драйверов SCHEDULER_DRIVER
или V0_MESOS
.
Добавление параметров командной строки наблюдателя для управления интервалом сбора ресурсов для наблюдаемых задач. См. здесь для получения подробной информации.
Поддержка резервирования агентов во время обновлений заданий, что может существенно сократить время обновления в кластерах с высокой конкуренцией за ресурсы. Отключено по умолчанию, но может быть включено с опцией enable_update_affinity
, а время удержания резервирования можно контролировать с помощью update_affinity_reservation_hold_time
.
Добавление команды task scp
в клиент CLI для простой передачи файлов на/с/между экземплярами задач. См. здесь. Мониторинг и анализ производительности (AURORA-1832).
production
в структуре thrift Job
. Планировщик запрашивается для конфигураций уровня, и выбор пользователя атрибутов tier
и production
, при необходимости, пересматривается. Если атрибут tier
уже установлен, атрибут production
может быть скорректирован в соответствии с выбором tier
. В противном случае tier
выбирается на основе значения атрибута production
. Если соответствующий уровень не найден, используется уровень по умолчанию из файла конфигурации уровней (tiers.json
)./offers
была изменена для отображения атрибутов предложений ресурсов, полученных от Mesos. Это повлияло на отображение некоторых существующих атрибутов. Кроме того, теперь отображаются дополнительные атрибуты предложения, включая резервирования и постоянные тома.Content-Type
или с заголовком Content-Type
, равным application/x-thrift
, application/json
или application/vnd.apache.thrift.json
, запрос рассматривается как thrift JSON. Если запрос отправлен с заголовком Content-Type
, равным application/vnd.apache.thrift.binary
, запрос обрабатывается как двоичный thrift. Если заголовок Accept
запроса равен application/vnd.apache.thrift.binary
, то ответ будет двоичным thrift. Любое другое значение для Accept
приведёт к получению ответа в формате thrift JSON.-custom_executor_config
должен указывать на файл JSON, который содержит хотя бы одну допустимую конфигурацию исполнителя, как подробно описано в документации configuration.-zk_use_curator
теперь по умолчанию имеет значение true
, и следует соблюдать осторожность при обновлении конфигурации, которая не передаёт этот флаг. Обновление планировщика должно выполняться путём остановки всех планировщиков, а затем запуска обновлённых планировщиков. Постепенное обновление приведёт к тому, что в течение всего процесса не будет ведущего планировщика, что может затруднить мониторинг и отладку.aurora_admin reconcile_tasks
теперь доступна на клиенте администратора Aurora, которая может инициировать неявные и явные согласования задач.-enable_revocable_ram
.-framework_name
обновлено до «Aurora».Атрибут конфигурации задания production
теперь устарел. Чтобы добиться такого же поведения планирования, которое раньше обеспечивалось параметром production=true
, пользователи должны выбрать уровень для задания с атрибутами preemptible=false
и revocable=false
. Например, уровень preferred
. В конфигурационном файле уровня по умолчанию (tiers.json) есть соответствие указанным выше критериям.
Поле ExecutorInfo.source устарело и было заменено на метку с именем source. Оно будет удалено из Mesos в будущем релизе.
Флаг планировщика -zk_use_curator устарел. Если вы никогда не устанавливали этот флаг и обновляете систему, будьте осторожны, как описано в примечании (#zk_use_curator_upgrade) выше.
Аргумент key функции getJobUpdateDetails устарел. Вместо него следует использовать аргумент query.
Опция --release-threshold команды aurora job restart была удалена.
Новая командная строка планировщика — аргумент -enable_mesos_fetcher, чтобы разрешить отправку заданий, содержащих URI, которые будут переданы в Mesos Fetcher и впоследствии загружены в песочницу. Обратите внимание, что разрешение отправки заданий для загрузки ресурсов из произвольных URI может иметь последствия для безопасности.
Обновлён Mesos до версии 0.28.2.
Обновлён Mesos до 0.27.2.
Добавлен новый необязательный бэкенд Apache Curator для выполнения выбора лидера планировщика. Его можно включить с помощью нового аргумента планировщика -zk_use_curator.
Добавление флага --nosetuid-health-checks для управления тем, выполняет ли исполнитель проверки работоспособности от имени пользователя роли задания.
Новый аргумент командной строки планировщика -offer_filter_duration для контроля времени, после которого мы ожидаем, что Mesos повторно предложит неиспользуемые ресурсы. Короткая продолжительность улучшает производительность планирования в небольших кластерах, но может привести к нехватке ресурсов для других фреймворков, если вы запускаете несколько из них в своём кластере. Используется значение по умолчанию для Mesos, равное 5 с.
Новый параметр командной строки планировщика -framework_name для изменения имени, используемого при регистрации фреймворка Aurora в Mesos. Текущее значение по умолчанию — «TwitterScheduler».
Добавлена экспериментальная поддержка запуска задач с использованием образов файловой системы и унифицированного контейнерного устройства Mesos. См. связанную документацию для получения подробной информации о настройке Mesos для использования унифицированного контейнерного устройства. Обратите внимание, что более ранние версии Mesos не полностью поддерживают унифицированное контейнерное устройство. Для тех, кто использует образы задач через контейнерное устройство Mesos, рекомендуется использовать Mesos 0.28.x или более позднюю версию.
Обновление до pystachio 0.8.1 для поддержки нового типа Choice.
Свойство container объекта Job теперь представляет собой Choice либо держателя контейнера, либо прямой ссылки на контейнер Docker или Mesos.
Новый аргумент командной строки планировщика -ip для управления IP-адресом, к которому будет привязан сервер http планировщиков.
Добавлена экспериментальная поддержка ресурса GPU Mesos. Эта функция будет доступна в Mesos 1.0 и по умолчанию отключена. Используйте флаг -allow_gpu_resource, чтобы включить её.
ВАЖНО: после включения этой функции создание заданий с ресурсом GPU сделает моментальный снимок планировщика несовместимым с предыдущими версиями. Планировщик не сможет прочитать моментальный снимок, если откатится к предыдущей версии. Если откат абсолютно необходим, выполните следующие действия:
Экспериментальная поддержка веб-хука, который отправляет POST все изменения состояния задачи на пользовательскую конечную точку.
Добавлена поддержка указания имени уровня по умолчанию. В конфигурационном файле уровня (tiers.json) свойство default является обязательным и инициализируется уровнем preemptible (задачи уровня preemptible могут быть прерваны, но их ресурсы не могут быть отозваны).
Устаревший параметр --restart-threshold в команде aurora job restart для соответствия поведению обновления задания. Этот параметр сейчас не действует и будет удалён в будущем выпуске.
Устаревший аргумент по умолчанию -framework_name «TwitterScheduler». В будущем выпуске это изменится на «aurora». Обратите внимание, что в зависимости от вашего использования Mesos это будет несовместимое изменение. Подробнее см. MESOS-703.
Аргумент командной строки -thermos_observer_root был удалён из планировщика. Это было наследием того времени, когда контрольные точки исполнителя записывались глобально, а не в песочницу задачи.
Установка свойства container объекта Job на держатель Container устарела в пользу установки непосредственно на соответствующий тип контейнера (например, Docker или Mesos).
Поля numCpus, ramMb и diskMb в структурах TaskConfig и ResourceAggregate thrift устарели. Используйте set resources для указания ресурсов задачи или значений квоты.
Конечная точка /slaves устарела. Пожалуйста, используйте /agents вместо неё.
Поле production в структуре TaskConfig thrift устарело. Используйте поле tier для указания поведения планирования задач и обработки ресурсов.
Метрики планировщика resources_ram_gb и resourcesdisk_gb были переименованы в resourcesram_mb и resources_disk_mb соответственно. Обратите внимание на изменение единицы измерения: ГБ -> МБ.
Обновлён Mesos до версии 0.26.0.
Добавлена новая конечная точка health (/leaderhealth), которую можно использовать для проверок работоспособности балансировщика нагрузки, чтобы всегда перенаправлять запросы к ведущему планировщику.
Добавлена новая клиентская команда aurora job add для масштабирования существующей работы.
Планировщик ZooKeeper клиент обновлён с версии 3.4.6 до 3.4.8.
Добавлена поддержка выделенных ограничений, не эксклюзивных для определённой роли. Подробнее см. здесь.
Добавлен новый аргумент --announcer-hostname для термоса исполнителя, чтобы переопределить имя хоста в конечной точке реестра служб. Подробнее см. здесь.
Отключение cron-задания, которое фактически не было запланировано, больше не возвращает ошибку.
Добавлен новый аргумент -thermos_home_in_sandbox для планировщика, позволяющий опционально изменять HOME на песочницу во время выполнения термоса исполнителя/бегуна. Это полезно в случаях, когда корневая файловая система внутри контейнера доступна только для чтения, поскольку перемещает извлечение PEX в песочницу. Подробнее см. здесь.
Поддержка аутентификации ZooKeeper в исполнителе анонсера. Подробнее см. здесь.
База данных H2 планировщика теперь использует MVStore. Кроме того, моментальные снимки thrift планировщика теперь поддерживают полные дампы БД для более быстрого перезапуска.
Добавлен аргумент планировщика -require_docker_use_executor, который указывает, должен ли планировщик принимать задачи, использующие контейнер Docker без исполнителя (экспериментальный).
Задания, ссылающиеся на недопустимое имя уровня, будут отклонены планировщиком.
Добавлен новый аргумент планировщика --populate_discovery_info. Если установлено значение true, Aurora начнёт заполнять поле DiscoveryInfo в TaskInfo Mesos. Это может быть использовано для альтернативных решений обнаружения служб, таких как Mesos-DNS.
Добавлена поддержка автоматических обновлений и понижений схемы при восстановлении снимка, содержащего дамп БД. 0.12.0
Изменения:
Удалены устаревшие API-конструкции, связанные с блокировками:
acquireLock
, releaseLock
, getLocks
;Lock
для RPC: createJob
, scheduleCronJob
, descheduleCronJob
, restartShards
, killTasks
, addInstances
, replaceCronTemplate
.Строки идентификаторов задач больше не имеют префикса в виде метки времени.
Изменения в способе чтения аргументов командной строки планировщиком:
-mesos_role
планировщику Aurora при запуске. Это позволяет резервировать ресурсы для Aurora при работе в общем кластере Mesos.org.apache.aurora.metadata.
, чтобы предотвратить конфликты с другими внешними источниками меток.-default_docker_parameters
, позволяющий оператору кластера указать универсальный набор параметров, который должен использоваться для каждого контейнера, для которого параметры явно не настроены на уровне задания.--preserve_env
в thermos.--read-json
теперь можно загружать несколько заданий из одного файла JSON, аналогично обычной структуре pystachio: {"jobs": [job1, job2, ...]}
. Старый формат одного задания в формате JSON также поддерживается.aurora config list
теперь поддерживает --read-json
.-shiro_after_auth_filter
. Можно указать класс, реализующий javax.servlet.Filter, который будет включён в цепочку фильтров после фильтров аутентификации Shiro.addInstances
теперь увеличивает количество экземпляров заданий (масштабирование) на основе шаблона задачи, указанного экземпляром key
.AddInstancesConfig
в RPC thrift addInstances
.TaskQuery
в RPC thrift killTasks
для запрета уничтожения задач между несколькими ролями. Новый более безопасный подход заключается в использовании JobKey
с instances
вместо этого.ConfigGroup.instanceIds
удалено из API.HealthCheckConfig
: endpoint
, expected_response
, expected_response_code
. Теперь они устанавливаются исключительно в одноимённых полях HttpHealthChecker
.JobUpdateSettings.maxWaitToInstanceRunningMs
(UpdateConfig.restart_threshold в конфигурации клиента). Этот аспект перезапуска заданий теперь контролируется исключительно клиентом с помощью команды aurora job restart --restart-threshold=[seconds]
.--announcer-enable
устарел. Включение диктора ранее требовало установки обоих флагов --announcer-enable
и --announcer-ensemble
, но теперь требуется только --announcer-ensemble
. --announcer-enable
теперь является флагом бездействия и будет удалён в будущей версии.-enable_cors_support
. Включение CORS теперь подразумевается установкой аргумента -enable_cors_for
.-deduplicate_snapshots
и -deflate_snapshots
. Эти функции хороши для постоянного использования. enable
-enable_job_updates
и -enable_job_creation
-extra_modules
-logtostderr
, -alsologtostderr
, -vlog
, -vmodule
и use_glog_formatter
. Удалены в пользу новой конфигурации logback.0.11.0
Новые/обновлённые:
— Обновлён Mesos до версии 0.24.1.
— Добавлен новый флаг планировщика framework_announce_principal
для поддержки использования авторизации и ограничения скорости в Mesos.
— Добавлена поддержка для основанных на оболочке средств проверки работоспособности в дополнение к средствам проверки работоспособности HTTP. В связи с этим изменением схема HealthCheckConfig
была реструктурирована, чтобы более чётко разрешить настройку различных средств проверки работоспособности.
— Добавлена поддержка приёма конфигурации исполнителя в формате JSON через аргумент командной строки --custom_executor_config
, который переопределит все остальные аргументы командной строки и значения по умолчанию, относящиеся к исполнителю.
— В бегун thermos добавлено вращение журналов. Подробные сведения о настройке вращения для каждого процесса см. в справочнике по конфигурации. Параметры командной строки также могут быть переданы через планировщик для настройки глобального поведения по умолчанию.
Устаревшие функции и удаления:
— Средство обновления на стороне клиента было удалено вместе с командами CLI, которые его использовали: «aurora job update» и «aurora job cancel-update». Пользователям рекомендуется воспользоваться обновлениями на основе планировщика (см. «aurora update -h» для использования), которые были стабильной функцией в течение нескольких выпусков.
— Следующие поля из HealthCheckConfig
теперь устарели: endpoint
, expected_response
, expected_response_code
в пользу их установки как части HttpHealthChecker
.
— Поле JobUpdateSettings.maxWaitToInstanceRunningMs
(UpdateConfig.restart_threshold в конфигурации на стороне клиента) теперь устарело. Эта настройка была хрупкой на практике и игнорируется планировщиком версии 0.11.0.
0.10.0
Новые/обновлённые:
— Обновлён Mesos до версии 0.23.0. Примечание: исполнителю Aurora теперь требуются зависимости среды выполнения openssl, которые ранее не применялись. Вам потребуется libcurl, доступный на каждом ведомом устройстве Mesos (или контейнере Docker), чтобы успешно запустить исполнитель Aurora. Подробнее о зависимостях среды выполнения Mesos см. здесь.
— Квота ресурсов больше не расходуется производственными заданиями с выделенным ограничением (AURORA-1457).
— Изменена компоновка сборки Python:
* Пакет apache.thermos
был удалён.
* Пакет apache.gen.aurora
был переименован в apache.aurora.thrift
.
* Пакет apache.gen.thermos
был переименован в apache.thermos.thrift
.
* Был представлен новый пакет apache.thermos.runner
, предоставляющий двоичный файл thermos_runner
.
* Был представлен новый пакет apache.aurora.kerberos
, содержащий версии aurora
и aurora_admin
с поддержкой Kerberos (kaurora
и kaurora_admin
).
* Большинство целей BUILD под src/main
были удалены, см. здесь для получения подробной информации.
Устаревшие функции и удаления:
— Опция --root
удалена из наблюдателя.
— Поле Thrift ConfigGroup.instanceIds
устарело. Вместо него следует использовать ConfigGroup.instances
.
— Устаревшие интерфейсы SessionValidator
и CapabilityValidator
были удалены. Все аргументы типа SessionKey
теперь допускают значение NULL и игнорируются API планировщика Thrift.
0.9.0
— Теперь требуется JRE 8 или выше.
— Исполнитель GC полностью заменён согласованием состояния задачи (AURORA-1047).
— Аргумент командной строки планировщика -enable_legacy_constraints
был удалён, и планировщик больше не автоматически внедряет ограничения host
и rack
для производственных служб (AURORA-1074).
— Метрики SLA для непроизводственных заданий по умолчанию отключены. Их можно включить через командную строку планировщика. Имена метрик изменились с ...nonprod_ms
на ...ms_nonprod
(AURORA-1350).
0.8.0
— Новый аргумент командной строки был добавлен в наблюдатель: --mesos-root
. Он должен указывать на тот же путь, что и --work_dir
на ведомом устройстве mesos.
— Были изменены цели сборки для thermos и observer. Они теперь:
src/main/python/apache/aurora/tools:thermos
src/main/python/apache/aurora/tools:thermos_observer
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )