1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/mirrors-TiDB-Operator

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Клонировать/Скачать
CHANGELOG.md 78 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
Отправлено 06.03.2025 19:46 3124a5c

Примечание:

  • С 2 сентября 2020 года все заметки выпуска TiDB Operator будут поддерживаться в pingcap/docs-tidb-operator.
  • Вы можете прочитать заметки выпусков всех версий TiDB Operator на PingCAP Docs.

Заметки выпуска TiDB Operator v1.0.6

Новое в v1.0.6

Необходимое действие: Пользователи должны мигрировать конфигурации в values.yaml предыдущих выпусков чартов в новый values.yaml нового чарта. В противном случае, падающие пады могут завалиться при обновлении монитора с новым чартом.

Например, конфигурации в старом файле values.yaml:

monitor:
  ...
  initializer:
    image: pingcap/tidb-monitor-initializer:v3.0.5
    imagePullPolicy: IfNotPresent
  ...

После миграции, конфигурации в новом файле values.yaml должны выглядеть следующим образом:

monitor:
  ...
  initializer:
    image: pingcap/tidb-monitor-initializer:v3.0.5
    imagePullPolicy: Always
    config:
      K8S_PROMETHEUS_URL: http://prometheus-k8s.monitoring.svc:9090
  ...

Мониторинг

  • Активация устойчивости правил тревог (#898)
  • Добавление информации узлов и падов в TiDB Grafana (#885)

Распределитель TiDB

  • Уточнение сообщений об ошибках распределителя (#1373)

Совместимость

  • Исправление проблемы совместимости в Kubernetes v1.17 (#1241)

  • Привязка ClusterRole system:kube-scheduler к служебному аккаунту tidb-scheduler ([#1355](https Yöntemler/github.com/pingcap/tidb-operator/pull/1355))### TiKV Importer

  • Исправление базовой конфигурации tikv-importer (#1415)

E2E

  • Обеспечение отсутствия влияния на пады при обновлении (#955)

CI

  • Перемещение скриптов CI выпуска из Jenkins в репозиторий tidb-operator (#1237)
  • Настройка скриптов CI выпуска для ветки release-1.0 (#1320). Не требуется никаких действий при обновлении с версии v1.0.4.

Запланированное резервное копирование

  • Устранена проблема, при которой резервное копирование проваливалось, когда имя кластера (clusterName) было слишком длинным (#1229)

TiDB Binlog

  • Рекомендуется развертывание TiDB и Pump на одном узле через функцию affinity, а также рассредоточивание Pump на разных узлах через функцию anti-affinity. На каждом узле допускается максимум один экземпляр Pump. Мы добавили руководство в шаблон (#1251).

Совместимость

  • Устранена проблема с правами доступа RBAC для tidb-scheduler в Kubernetes v1.16 (#1282)
  • При отключенной сетевой карте хоста (hostNetwork) не следует устанавливать политику DNS (DNSPolicy), чтобы обеспечить обратную совместимость (#1287)

End-to-end тестирование

  • Устранена проблема с нулевым указателем при выполнении end-to-end тестирования (#1221)# Примечания к выпуску TiDB Operator v1.0.4

Новое в версии v1.0.4

Действия, требуемые пользователям

Не требуется никаких действий при обновлении с версии v1.0.3.

Основные изменения

#1202 добавил поддержку HostNetwork, что позволяет получить лучшие показатели производительности по сравнению с сетью Pod. Подробнее см. наш отчет о производительности.

Примечание:

Из-за этой проблемы Kubernetes кластер Kubernetes должен быть одной из следующих версий для включения HostNetwork кластера TiDB:

  • v1.13.11 или выше
  • v1.14.7 или выше
  • v1.15.4 или выше
  • любая версия начиная с v1.16.0

#1175 добавил поддержку podSecurityContext для Pod кластера TiDB. Мы рекомендуем установить конфигурацию ядра для Pod кластера TiDB согласно нашей Рекомендации по окружению.

Новый Helm чарт tidb-lightning предоставляет поддержку TiDB Lightning для TiDB в Kubernetes. Подробнее см. документацию для подробной инструкции пользователя. Ещё один новый чарт Helm tidb-drainer обеспечивает поддержку нескольких дренчеров для TiDB Binlog в Kubernetes. Подробнее ознакомьтесь с руководством пользователя.### Улучшения

  • Поддержка HostNetwork (#1202)
  • Поддержка конфигурации sysctls для Pod'ов и включение net.* (#1175)
  • Добавлена поддержка tidb-lightning (#1161)
  • Добавлен новый чарт Helm tidb-drainer для поддержки нескольких дренчеров (#1160)

Подробные исправления ошибок и изменения

  • Добавлены скрипты e2e и упрощён файл Jenkins для e2e (#1174)
  • Исправлено расположение директорий данных для помпы/дренчера, чтобы избежать потери данных из-за некорректной конфигурации (#1183)
  • Добавлен случай init SQL для e2e (#1199)
  • Сохранена метка экземпляра дренчера такой же, как у кластера TiDB, для удобства мониторинга (#1170)
  • По умолчанию установлено значение podSecurityContext равным nil для обратной совместимости (#1184)

Дополнительные примечания для пользователей ветки v1.1.0.alpha

По историческим причинам, ветка v1.1.0.alpha является горячей веткой исправлений и получила это название по ошибке. Все исправления этой ветки были перенесены в v1.0.4, а сама ветка v1.1.0.alpha будет удалена для упорядочивания.

Мы настоятельно рекомендуем вам обновиться до версии v1.0.4, если вы используете любую версию под v1.1.0.alpha.v1.0.4 включает следующие исправления по сравнению с v1.1.0.alpha.3:

  • Добавлена поддержка HostNetwork (#1202).
  • Добавлено разрешение хоста для задачи tidb-initializer (#779).
  • Исправлена неправильная конфигурация drainer в чарте tidb-cluster (#945).
  • Установлена по умолчанию настройка externalTrafficPolicy равной значению Local для сервисов TiDB (#960).
  • Исправлена проблема с падением tidb-operator при некорректном изменении стратегии обновления sts пользователями (#969).
  • Добавлен лимит maxFailoverCount для TiKV (#976).
  • Исправление кастомизации файла значений для tidb-operator на Aliyun (#983).
  • Отключение ограничения количества перезапусков при maxFailoverCount = 0 (#978).
  • Приостановка процесса ReplaceUnhealthy для автосcaling группы TiKV на AWS (#1027).
  • Исправление проблемы с неверной работой переменной create_tidb_cluster_release (#1066).
  • Добавление версии v1 в apiVersions statefulset (#1056).
  • Добавление поддержки часовых поясов (#1126).

Примечания выпуска TiDB Operator v1.0.3

Новые возможности в v1.0.3

Необходимые действияНЕОБХОДИМО ВЫПОЛНИТЬ: Этот выпуск обновляет версию TiDB по умолчанию до v3.0.5, которая исправила серьёзную ошибку в TiDB. Поэтому если вы используете TiDB v3.0.4 или более ранние версии, вы обязаны обновиться до v3.0.5.

НЕОБХОДИМО ВЫПОЛНИТЬ: Этот выпуск добавляет поддержку временной зоны (timezone) для всех диаграмм.

Для существующих кластеров TiDB. Если timezone в tidb-cluster/values.yaml был настроен на другую временную зону вместо дефолтной UTC, то обновление tidb-operator спровоцирует циклическое обновление связанных pod'ов.

Связанные pod'ы включают pump, drainer, discovery, monitor, planned backup, tidb-initializer, и tikv-importer.

Временная зона для всех образов, управляемых tidb-operator, должна быть UTC. Если вы используете свои собственные образы, вам следует убедиться, что соответствующие временные зоны установлены как UTC.

Улучшения

  • Добавлена поддержка временной зоны для всех контейнеров кластера TiDB
  • Поддержана конфигурация запросов ресурсов и ограничений для всех контейнеров кластера TiDB

Подробные исправления ошибок и изменения

  • Обновлённая версия TiDB по умолчанию до v3.0.5 (#1132)
  • Добавлена поддержка временной зоны для всех контейнеров кластера TiDB (#1122)
  • Поддержана конфигурация запросов ресурсов и ограничений для всех контейнеров кластера TiDB (#853)# Примечания выпуска TiDB Operator v1.0.2

Новые возможности в v1.0.2

Необходимые действия

AWS Terraform скрипт использует auto-scaling-group для всех компонентов (PD/TiKV/TiDB/monitor). Когда экземпляр EC2 не проходит проверку состояния, он заменяется. Это полезно для приложений, которые являются бессостоятельными или используют EBS тома для хранения данных.

Но pod TiKV использует instance store для хранения своих данных. При замене экземпляра все данные на его хранилище будут потеряны. TiKV должен будет синхронизировать все данные заново на новый экземпляр. Хотя TiDB является распределённой базой данных и может работать даже при отказе одного узла, процесс синхронизации данных может занять много времени, особенно если набор данных большой. Кроме того, экземпляр EC2 может быть восстановлен до здорового состояния путём перезапуска. Поэтому мы отключили поведение замены в группе автоматического масштабирования (auto-scaling-group) в версии v1.0.2.

Процесс масштабирования группы автоматического масштабирования также может быть приостановлен согласно его документации, если вы используете версию v1.0.1 или более ранние версии.

Улучшения- Приостановка процесса ReplaceUnhealthy для группы автоматического масштабирования AWS TiKV

  • Добавление нового менеджера виртуальных машин qm в тестах стабильности

  • Добавление ограничения tikv.max_failover_count для TiKV

  • Установка значения по умолчанию external_traffic_policy как Local для сервиса TiDB в AWS/GCP/Aliyun

  • Добавление версий провайдеров и модулей для AWS### Исправления ошибок

  • Исправление проблемы с неверной версией tkctl, когда имя выпуска недопустимо

  • Преобразование версии API состояния объектов statefulsets на apps/v1, что решает вопросы совместимости с Kubernetes версиями 1.16 и выше

  • Исправление проблемы с переменной create_tidb_cluster_release в скрипте Terraform AWS

  • Исправление вопросов совместимости путём добавления v1beta1 к версиям API состояния объектов

  • Исправление проблемы с пустым балансировщиком нагрузки TiDB в выводе Terraform

  • Исправление вопроса совместимости TiKV max_failover_count

  • Исправление проблем с ограничением версий провайдеров Terraform для GCP и Aliyun

  • Исправление кастомизации файла значений для оператора TiDB на Aliyun

  • Исправление аварийного завершения работы оператора TiDB при неправильном изменении стратегии обновления состояния объектов пользователями

  • Исправление некорректной конфигурации дренджера## Подробные исправления ошибок и изменения

  • Исправление проблемы с тем, что команда tkctl версии не работает при нежелательном имени выпуска (#1065).

  • Исправление проблемы с тем, что переменная create_tidb_cluster_release в скрипте Terraform AWS не работает (#1062).

  • Исправление совместимости для (#1012): добавление v1beta1 в apiVersions StatefulSet (#1054).

  • Включение ConfigMapRollout по умолчанию в тестах стабильности (#1036).

  • Исправление проблемы с пустым TiDB Loadbalancer в выводе Terraform (#1045).

  • Преобразование statefulsets apiVersion в apps/v1, что решает проблему совместимости с Kubernetes версий 1.16 и выше (#1012).

  • Ожидание завершения процесса обновления TiDB кластера только при откате неверной конфигурации в тестах стабильности (#1030).

  • Приостановка процесса ReplaceUnhealthy для AWS TiKV auto-scaling-group (#1014).

  • Добавление нового менеджера виртуальных машин qm в тестах стабильности (#896).

  • Исправление ограничений версий провайдеров для GCP и Aliyun (#959).

  • Исправление настройки файла значений для tidb-operator на Aliyun (#971).

  • Исправление проблемы совместимости TiKV tikv.max_failover_count (#977).- Добавление ограничения tikv.maxFailoverCount для TiKV (#965)

  • Исправление аварийного завершения tidb-operator при некорректном изменении стратегии обновления statefulset пользователями (#912)

  • Установка значения по умолчанию externalTrafficPolicy как Local для сервиса TiDB в AWS/GCP/Aliyun (#947)

  • Добавление примечания о настройке политики восстановления PV на,retain (#911)

  • Исправление ошибочной настройки drainer (#939)

  • Добавление версий провайдеров и модулей для AWS (#926)

Примечания выпуска TiDB Operator v1.0.1## Новые возможности в v1.0.1

Необходимые действия

  • ВАЖНО: Мы исправили серьёзную ошибку (#878), которая могла привести к случайной удалении всех падов PD и TiKV, когда kube-apiserver выходит из строя. Это может вызвать сбой работы TiDB. Поэтому если вы используете версию v1.0.0 или более ранние версии, вам необходимо обновиться до версии v1.0.1.
  • ВАЖНО: Инструмент резервного копирования pingcap/tidb-cloud-backup использует форкированную версию Mydumper. Текущая версия pingcap/tidb-cloud-backup:20190610 содержит серьёзную ошибку, которая может привести к отсутствию одного столбца в экспортированных данных. Эта ошибка была исправлена в #29. Теперь используется новая версия образа, содержащая это исправление. Поэтому если вы используете старую версию образа для резервного копирования, вам необходимо обновиться до использования pingcap/tidb-cloud-backup:20190828 и выполнить полное резервное копирование, чтобы избежать потенциальной несоответствующей информации.

Улучшения- Разделение модулей GCP Terraform

  • Добавлен скрипт для удаления сиротских дисков Kubernetes
  • Поддержка конфигураций binlog.pump.config, binlog.drainer.config для Pump и Drainer
  • Установка ограничений ресурсов для задачи tidb-backup
  • Добавление affinity к конфигурациям Pump и Drainer
  • Обновление локального провайдера томов до версии v2.3.2
  • Уменьшение времени выполнения тестов end-to-end с 60 минут до 20 минут
  • Предотвращение выхода процесса Pump с кодом завершения 0, если Pump становится offline
  • Поддержка динамического расширения облачного хранилища PV путём увеличения размера PVC
  • Добавление опции tikvGCLifeTime для выполнения резервного копирования
  • Добавление важных параметров в tikv.config и tidb.config в values.yaml
  • Поддержка восстановления кластера TiDB из указанного запланированного каталога резервного копирования
  • Включение расширенного объёма хранения облачного хранилища и метки локальных томов
  • Документация и улучшение алгоритма высокой доступности
  • Поддержка указания разрешённого хоста в шаблоне values.tidb.permitHost
  • Добавление метки зон и аргументов зарезервированных ресурсов в kubelet
  • Обновление базового образа резервного копирования до pingcap/tidb-cloud-backup:20190828### Исправление ошибок- Исправление сбоев масштабирования TiKV после перенастройки управления TiKV
  • Исправление обработки ошибок при обновлении сервиса
  • Исправление некоторых ошибок чистильщика сиротских падов
  • Исправление ошибки установки разделителя StatefulSet
  • Исправление сбоя временного полного резервного копирования из-за неправильного claimName
  • Исправление ошибки выхода Pump в режим offline: процесс Pump будет завершен с кодом 0, если он переходит в режим offline
  • Исправление некорректного условия проверки

Подробные исправления ошибок и изменений

  • Очистка аннотации tidb.pingcap.com/pod-scheduling при распределении пачки (#790)

  • Обновление метки образа tidb-cloud-backup (#846)

  • Добавление опции разрешенного хоста TiDB (#779)

  • Добавление метки зоны и зарезервированных ресурсов для узлов (#871)

  • Устранение проблем с очисткой сиротских пачек (#878)

  • Устранение проблемы установки раздела StatefulSet (#830)

  • Добавление опции tikvGCLifeTime (#835)

  • Добавление рекомендательных опций для Mydumper (#828)

  • Устранение ошибки случайной полной резервной копии из-за неправильного значения claimName (#836)

  • Улучшение вывода команды tkctl get (#822)- Добавлены важные параметры конфигурации TiKV и TiDB (#786)

  • Устранена проблема, связанная с отсутствием поддержки binlog.drainer.config в версии 1.0.0 (#775)

  • Добавлена поддержка восстановления кластера TiDB из указанного каталога запланированной резервной копии (#804)

  • Устранена проблема описания extraLabels в values.yaml (#763)

  • Устранено исключение вывода логов tkctl (#797)

  • Добавлен скрипт для удаления сиротских дисков Kubernetes (#745)

  • Включены расширения облачного хранилища и маркировка локального объема (#772)

  • Предотвращено завершение процесса Pump с кодом завершения 0, если Pump становится offline (#769)

  • Разделены модули GCP Terraform (#717)

  • Добавлена поддержка конфигураций binlog.pump.config для Pump и Drainer (#693)

  • Удалены повторяющиеся значения ключей (#758)

  • Устранены некоторые опечатки (#738)

  • Расширен срок ожидания процесса CheckManualPauseTiDB (#752)

  • Установлено ограничение ресурсов для задачи tidb-backup (#729)

  • Исправлена совместимость теста end-to-end с версией v1.0.0 (#757)- Дополните тестирование дифференциальных бэкапов (#764)

  • Добавьте логику повторной попытки для функции LabelNodes (#735)

  • Исправьте ошибку масштабирования TiKV в некоторых случаях (#726)

  • Добавьте аффинность для Pump и Drainer (#741)

  • Улучшите логику очистки (#719)

  • Внедрите ошибку через аннотацию падающего контейнера (#716)

  • Обновите ссылки в README для правильных URL pingcap.com/docs для английского и китайского языков (#732)

  • Документируйте и улучшите алгоритм высокой доступности (HA) (#670)

  • Исправьте неправильное условие для проверки (#718)

  • Обновите local-volume-provisioner до версии v2.3.2 (#696)

  • Уменьшите время выполнения теста end-to-end (#713)

  • Исправьте проблемы расширенного масштабирования Terraform GKE (#711)

  • Обновите формулировки и исправьте формат для версии v1.0.0 (#709)

  • Обновите документацию (#705)

Примечания к выпуску TiDB Operator v1.0.0## Новые возможности в версии v1.0.0

Необходимые действия

  • ВАЖНО: поле tikv.storeLabels было удалено из файла values.yaml. Вы можете установить его напрямую с помощью параметра location-labels в конфигурации pd.config.
  • ВАЖНО: флаг --features команды tidb-scheduler был обновлен до формата ключ={true,false}. Для активации функции следует добавить =true.
  • ВАЖНО: вам потребуется изменить конфигурацию в старом файле values.yaml предыдущих выпусков на новый файл values.yaml нового выпуска. В противном случае при обновлении кластера TiDB новым выпуском эти конфигурации будут проигнорированы.

Секция pd в старом файле values.yaml:

pd:
  logLevel: info
  maxStoreDownTime: 30m
  maxReplicas: 3

Секция pd в новом файле values.yaml:

pd:
  config: |
    [log]
    level = "info"
    [schedule]
    max-store-down-time = "30m"
    [replication]
    max-replicas = 3

Секция tikv в старом файле values.yaml:

tikv:
  logLevel: info
  syncLog: true
  readpoolStorageConcurrency: 4
  readpoolCoprocessorConcurrency: 8
  storageSchedulerWorkerPoolSize: 4

Секция tikv в новом файле values.yaml:

tikv:
  config: |
    log-level = "info"
    [server]
    status-addr = "0.0.0.0:20180"
    [raftstore]
    sync-log = true
    [readpool.storage]
    high-concurrency = 4
    normal-concurrency = 4
    low-concurrency = 4
    [readpool.coprocessor]
    high-concurrency = 8
    normal-concurrency = 8
    low-concurrency = 8
    [storage]
    scheduler-worker-pool-size = 4

Секция tidb в старом файле values.yaml:

tidb:
  logLevel: info
  preparedPlanCacheEnabled: false
  preparedPlanCacheCapacity: 100
  txnLocalLatchesEnabled: false
  txnLocalLatchesCapacity: "10240000"
  tokenLimit: "1000"
  memQuotaQuery: "34359738368"
  txnEntryCountLimit: "300000"
  txnTotalSizeLimit: "104857600"
  checkMb4ValueInUtf8: true
  treatOldVersionUtf8AsUtf8mb4: true
  lease: 45s
  maxProcs: 0
```Секция `tidb` в новом файле `values.yaml`:

tidb: config: | token-limit = 1000 mem-quota-query = 34359738368 check-mb4-value-in-utf8 = true treat-old-version-utf8-as-utf8mb4 = true lease = "45s" [log] level = "info" [prepared-plan-cache] enabled = false capacity = 100 [txn-local-latches] enabled = false capacity = 10240000 [performance] txn-entry-count-limit = 300000 txn-total-size-limit = 104857600 max-procs = 0


Секция `monitor` в старом `values.yaml`:

```yaml
monitor:
  create: true
  ...

Секция monitor в новом values.yaml:

monitor:
  create: true
  initializer:
    image: pingcap/tidb-monitor-initializer:v3.0.5
    imagePullPolicy: IfNotPresent
  reloader:
    create: true
    image: pingcap/tidb-monitor-reloader:v1.0.0
    imagePullPolicy: IfNotPresent
    service:
      type: NodePort
  ...

Для получения подробной конфигурации обратитесь к разделу конфигураций кластера TiDB в документации PingCAP.

Добавленные тестовые случаи для проверки надежности

  • Остановка всех etcd и kubelet

Улучшения

  • Упрощение установки GKE SSD
  • Модульное разделение скриптов Terraform для AWS
  • Включение автоматического failover по умолчанию
  • Включение развертывания ConfigMap по умолчанию
  • Включение стабильного планирования задач по умолчанию
  • Поддержка управления несколькими кластерами TiDB в Alibaba Cloud
  • Включение распределённой балансировки нагрузки между зонами для AWS NLB по умолчанию

Исправление ошибок

  • Исправление установки sysbench на машине bastion при развертывании AWS
  • Исправление мониторинга метрик TiKV в базовой конфигурации## Подробные исправления ошибок и изменения — Разрешено обновление монитора TiDB вместе с версией TiDB (#666)
  • Указание адреса состояния TiKV для исправления мониторинга (#695)
  • Исправление установки sysbench на машине bastion для развертывания AWS (#688)
  • Обновление команды git add upstream, использующей https, в документации по вкладам (#690)
  • Кейсы стабильности: остановка kubelet и etcd (#665)
  • Ограничение тестовых пакетов покрытия (#687)
  • Включение нагрузочного балансирования между зонами NLB по умолчанию ([#686](https Yöntem yok, bu şekilde bırakıyorum. https://github.com/pingcap/tidb-operator/pull/686))
  • Добавление параметров рафт-хранения TiKV (#681)
  • Поддержка управления несколькими кластерами TiDB для Alibaba Cloud (#658)
  • Корректировка функции EndEvictLeader (#680)
  • Добавление дополнительных логов (#676)
  • Обновление ворот функций для поддержки синтаксиса key={true,false} (#677)
  • Исправление опечатки "meke" на "make" (#679)
  • Включение развертывания configmap по умолчанию и цитирование суффикса хэша configmap (#678)
  • Включение автоматического failover (#667)- Установка количества узлов для пула по умолчанию равным общему желаемому количеству узлов (#673)
  • Обновление версии TiDB по умолчанию до v3.0.1 (#671)
  • Удаление меток хранилищ (#663)
  • Изменение способа конфигурирования TiDB/TiKV/PD в шаблонах (#638)
  • Модульное разделение скриптов Terraform для AWS (#650)
  • Изменение функции DeferClose (#653)
  • Увеличение размера хранилища по умолчанию для Pump с 10Gi до 20Gi в ответ на stop-write-at-available-space (#657)
  • Упрощение локальной установки SDD (#644)

Примечания к выпуску TiDB Operator v1.0.0-rc.1## Новые возможности в v1.0.0-rc.1

Добавлены тестовые случаи по стабильности

  • остановка kube-proxy
  • обновление tidb-operator

Улучшения

  • получение TS первым и увеличение времени жизни TiKV GC до 3 часов перед полной резервной копией
  • Добавление списка конечных точек и прав наблюдения для контроллер-менеджера
  • Изображение планировщика обновлено для использования "registry.k8s.io/kube-scheduler", что намного меньше, чем "gcr.io/google-containers/hyperkube". Вы должны предварительно скачать новое изображение планировщика в вашем окружении с отсутствием выхода в интернет перед обновлением.
  • Полные резервные копии данных могут быть загружены на или скачаны с Amazon S3
  • Скрипты Terraform поддерживают управление несколькими кластерами TiDB в одном кластере EKS.
  • Добавлены настройки tikv.storeLabels
  • На GKE можно использовать COS для узлов TiKV с небольшим объёмом данных для более быстрого запуска
  • Поддерживается принудительное обновление при недоступности кластера PD.

Исправления ошибок- Исправление необъявленной переменной в скрипте резервного копирования

  • Предоставление kube-scheduler права на обновление/редактирование состояния нод
  • Исправление пользователя tidb в скрипте расписания резервного копирования
  • Исправление расписания резервного копирования для объектного хранилища Ceph
  • Исправление нескольких проблем удобства для развертывания Terraform на AWS
  • Исправление ошибки расписания резервного копирования: сегментация при пустом пароле пользователя резервного копирования## Подробные исправления ошибок и изменения — исправление ошибки: сегментация при пустом пароле пользователя резервной копии (#649)
  • небольшие исправления для Terraform AWS (#646)
  • исправление ошибки в процессе обновления TiKV (#626)
  • повышение читаемости некоторых участков кода (#639)
  • поддержка принудительного обновления при недоступности кластера PD (#631)
  • добавление требования к новой версии Terraform для развертывания AWS (#636)
  • предоставление локального SSD провайдера для GKE/COS (#612)
  • удаление версии TiDB из сборки (#627)
  • рефакторинг для использования API PD без необходимости импорта лишних модулей (#618)
  • добавление настройки storeLabels (#527)
  • обновление файла google-kubernetes-tutorial.md (#622)
  • управление несколькими кластерами в EKS (#616)
  • добавление поддержки Amazon S3 для функций резервного копирования/восстановления (#606)
  • прохождение тестового случая обновления TiKV (#619)
  • разделение медленных логов от логов сервера TiDB по умолчанию (#610)- Исправление проблемы неопределенной переменной в скрипте резервного копирования (#608)
  • Исправление заметок для шаблона чарта tidb-backup (#595)
  • Предоставление возможности kube-scheduler для обновления/перезапуска состояния пада (#611)
  • Использование образа kube-scheduler вместо hyperkube (#596)
  • Исправление грамматики в шаблоне запроса на внесение изменений (#607)
  • Снижение сетевого трафика при использовании локальных SSD провайдеров (#601)
  • Добавление тестового случая обновления оператора (#579)
  • Исправление ошибки, когда статус TiKV всегда указывает на обновление (#598)
  • Сборка без символов отладчика (#592)
  • Улучшение сообщений об ошибках (#591)
  • Исправление проблемы с пользователем TiDB в скрипте запланированного резервного копирования (#594)
  • Исправление ошибки в случае DT (#571)
  • GKE Terraform (#585)
  • Исправление отправки запланированного резервного копирования в Ceph Object Storage (#576)
  • Добавление тестовых случаев для остановки kube-scheduler/kube-controller-manager (#583)- добавление списка конечных точек и разрешений для наблюдения за контроллер-менеджером (#590)
  • уточнение полной резервной копии (#570)
  • обеспечение того, что файлы модулей Go всегда чисты и актуальны (#588)
  • использование локальных SSD на GKE (#577)
  • устойчивость-тест: случай остановки kube-proxy (#556)
  • исправление единицы ресурса (#573)
  • установка уровня качества сервиса Guaranteed для пад Pod local-volume-provisioner (#569)
  • проверка состояния конечных точек PD при наличии проблем со здоровьем (#545)

Примечания выпуска TiDB Operator v1.0.0-beta.3## Новые возможности в v1.0.0-beta.3

Необходимые действия

  • ВАЖНО: поле nodeSelectorRequired было удалено из файла values.yaml.
  • ВАЖНО: поддержка запятой-разделённых значений в nodeSelector была отключена; пожалуйста, используйте новое поле affinity, которое имеет более выразительный синтаксис.

Добавлено много случаев повышения стабильности

  • Развертывание ConfigMap
  • Одна реплика PD
  • Остановка TiDB Operator
  • Устойчивое расписание TiDB
  • Выживаемость и восстановление данных региона
  • Исправление многих ошибок тестирования стабильности

Добавлены новые функции

  • Введение управления развертыванием ConfigMap. При открытом фич-гейте изменения конфигурационных файлов будут автоматически применяться к кластеру через поэтапное обновление. В настоящее время конфигурации планировщика (scheduler) и репликации (replication) PD не могут быть изменены через развертывание ConfigMap. Для изменения этих значений можно использовать pd-ctl. Подробнее см. #487.
  • Поддержка устойчивого расписания для падов членов TiDB в tidb-scheduler.
  • Поддержка добавления дополнительных аннотаций падов для PD/TiKV/TiDB, например, fluentbit.io/parser.
  • Поддержка функции affinity Kubernetes, которая позволяет определять правила назначения падов узлам.
  • Возможность приостановки процесса обновления TiDB### Улучшена документация
  • Однокомандное развертывание на GCP
  • Уточнение руководства пользователя
  • Улучшение руководства для GKE, AWS, Aliyun

Прохождение тестов принятия пользователем

Другие улучшения

  • Обновление версии TiDB по умолчанию до v3.0.0-rc.1

  • Исправление ошибки в отчете назначенных узлов членов TiDB

  • Команда tkctl get теперь правильно показывает использование CPU

  • Ад хок резервное копирование теперь по умолчанию добавляет время начала к имени PVC

  • Добавление привилегированного режима для падающего TiKV

  • Команда tkctl upinfo теперь показывает nodeIP, podIP и порты

  • Получение TS и его использование перед полной резервной копией с использованием mydumper

  • Исправление проблемы capability для команды tkctl debug## Подробные исправления ошибок и изменения

  • Добавлены возможности и режим привилегий для отладочного контейнера (#537)

  • Документация: указаны версии Helm в документах развертывания (#553)

  • Разделение публичных и частных субсетов при использовании существующего VPC (#530)

  • Выпуск версии v1.0.0-beta.3 (#557)

  • Обновление Terraform для GKE до версии bk_0.12 и исправление зоны экземпляра Bastion для региональной независимости (#554)

  • Получение TS и использование его перед полным резервным копированием с помощью mydumper (#534)

  • Добавление порта podip nodeip в tkctl upinfo (#538)

  • Исправление надежности теста стабильности (#543)

  • Добавление привилегированного варианта шаблона pod для tikv (#550)

  • Использование staticcheck вместо megacheck (#548)

  • Уточнение документации по резервному копированию и восстановлению (#518)

  • Исправление стабильности теста при команде пауза tidb (#542)

  • Исправление отображения информации о процессоре в tkctl get (#536)

  • Исправление отображения выходных данных Terraform Aliyun и улучшение документов (#511)com/pingcap/tidb-operator/pull/511))

  • Настройка конфигурируемых webhooks (#529)

  • Добавление тестовых случаев для надёжности pod и тестовых случаев для областей данных (#497)

  • Удаление аннотации Helm Hook для задачи инициализатора (#526)

  • Тестирование стабильности: добавление тестового случая для стабильного расписания end-to-end (#524)

  • Обновление версии TiDB в связанных документах (#532)

  • Стабильное расписание: исправление ошибки в отчёте о назначении узлов членов TiDB (#531)

  • Уменьшение времени ожидания и исправление стабильности теста (#525)

  • tidb-operator: исправление проблем удобства использования в документации GCP (#519)

  • Добавлены случаи стабильности: реплики PD 1 и остановка tidb-operator (#496)

  • Введён тест стабильности при приостановке обновлений (#521)

  • Устранена ошибка в скрипте восстановления (#510)

  • Добавлено повторное удаление файлов SST при сбое (#484)

  • Обновление по умолчанию tidb до версии v3.0.0-rc.1 (#520)

  • Добавлен параметр --namespace при создании секрета резервного копирования (#515)- Новый тест стабильности для развертывания ConfigMap (#499)

  • Исправление проблем, найденных в тестах Queeny (#507)

  • Приостановка процесса роллинг-обновления состояния tidb (#470)

  • Интеграция Terraform и руководство для GKE (#493)

  • Поддержка функции аффинитета Kubernetes для определения правил назначения падов на ноды (#475)

  • Поддержка добавления дополнительных аннотаций падов для PD/TiKV/TiDB (#500)

  • Документация по проблемам конфигурации PD (#504)

  • Оптимизация конфигураций облачных сервисов Aliyun и AWS (#492)

  • Обновление терминологии и добавление примечаний в tidb-operator (#502)

  • Поддержка стабильного расписания для TiDB (#477)

  • Исправление ошибки make lint (#495)

  • Поддержка обновления конфигурации "на лету" (#479)

  • Обновление руководства по развертыванию AWS после тестирования (#491)

  • Добавление заметки о выпуске в шаблон запроса на вытягивание (#490)

  • Проектный план стабильного расписания в TiDB (#466)

  • Обновление образа DinD для возможности настройки прокси HTTP (#485)```markdown (com/pingcap/tidb-operator/pull/485))

  • Исправление сломанной ссылки в README (#489)

  • Исправлена ошибка в написании (#483)

Примечания выпуска TiDB Operator v1. 0. 0-beta. 2


### Улучшена стабильность
- Переработана e2e тестовая среда
- Добавлены тесты стабильности, работающие 24/7

### Улучшена удобство использования
- Однокомандная установка для AWS, Aliyun
- Установка Minikube для тестирования
- Инструмент командной строки `tkctl`
- Переработан шаблон бэкапа для повышения удобства
- Усовершенствовано задание инициализатора
- Улучшено панели мониторинга Grafana, поддерживающие несколько версий
- Улучшены руководства пользователя
- Документация по вкладам

### Исправление ошибок
- Исправлена начальная сценария запуска PD, добавлен файл присоединения при старте
- Исправлено долгое время восстановления TiKV
- Исправлено HA PD при количестве реплик меньше трех
- Исправлен баг `tidb-scheduler` при неудачном планировании события `acquireLock`
- Исправлен баг HA scheduler с отложенным удалением pod
- Исправлен баг при использовании `shareinformer` без `deepcopy`

### Другие улучшения
- Удалён `pushgateway` из pod TiKV
- Добавлены шаблоны GitHub для отчета об ошибках и PR
- Автоматическое установление версии K8s scheduler
- Переключение на Go модуль
- Поддержка медленных логов TiDB## Подробные исправления ошибок и изменения

- Не инициализировать при отсутствии пароля TIDB ([#282](https://github.com/pingcap/tidb-operator/pull/282))
- Исправление скрипта объединения ([#285](https://github.com/pingcap/tidb-operator/pull/285))
- Документация по установке инструмента и детали тестирования end-to-end в CONTRIBUTING.md ([#288](https://github.com/pingcap/tidb-operator/pull/288))
- Обновление файла setup.md ([#281](https://github.com/pingcap/tidb-operator/pull/281))
- Поддержка хвостового лога медленных запросов сайдкэра для экземпляров TiDB ([#290](https://github.com/pingcap/tidb-operator/pull/290))
- Гибкая задача инициализатора TiDB с секретами, установленными вне Helm ([#286](https://github.com/pingcap/tidb-operator/pull/286))
- Убедиться, что переменная окружения SLOW_LOG_FILE всегда установлена ([#298](https://github.com/pingcap/tidb-operator/pull/298))
- Исправление описания документации по установке ([#300](https://github.com/pingcap/tidb-operator/pull/300))
- Переработка резервного копирования ([#301](https://github.com/pingcap/tidb-operator/pull/301))
- Отказ от использования vendoring и обновление go.sum ([#311](https://github.com/pingcap/tidb-operator/pull/311))
- Установка переменной окружения SLOW_LOG_FILE в скрипте запуска ([#307](https://github.com/pingcap/tidb-operator/pull/307))
- Автоматическое установление версии планировщика Kubernetes ([#313](https://github.com/pingcap/tidb-operator/pull/313))
- Основная функция для тестирования стабильности TiDB ([#306](https://github.com/pingcap/tidb-operator/pull/306))
- Добавление сервера для активации отказа в тестах стабильности ([#312](https://github.com/pingcap/tidb-operator/pull/312))
- Добавление временного резервного копирования и восстановления ([#316](https://github.com/pingcap/tidb-operator/pull/316))com/pingcap/tidb-operator/pull/316))
 - Добавление функций тестирования масштабируемости и обновления ([#309](https://github.com/pingcap/tidb-operator/pull/309))
 - Добавление Slack ([#318](https://github.com/pingcap/tidb-operator/pull/318))
 - Сохранение журнала при провале теста ([#317](https://github.com/pingcap/tidb-operator/pull/317))
 - Добавление клиента для активации отказа в тестах стабильности ([#326](https://github.com/pingcap/tidb-operator/pull/326))
 - Добавление монитора проверки ([#320](https://github.com/pingcap/tidb-operator/pull/320))
 - Добавление случая блокировки записи данных для тестирования стабильности ([#321](https://github.com/pingcap/tidb-operator/pull/321))
 - Добавление тестового случая для расписанных резервных копий ([#322](https://github.com/pingcap/tidb-operator/pull/322))
 - Добавление DDL как нагрузки для тестирования стабильности ([#328](https://github.com/pingcap/tidb-operator/pull/328))
 - Использование fault-trigger в тестах end-to-end и добавление некоторых журналов ([#330](https://github.com/pingcap/tidb-operator/pull/330))
 - Добавлен процесс развертывания и проверки binlog ([#329](https://github.com/pingcap/tidb-operator/pull/329))
 - Исправлена проблема с выполнением e2e тестов ([#331](https://github.com/pingcap/tidb-operator/pull/331))
 - Тестирование нескольких кластеров TiDB ([#334](https://github.com/pingcap/tidb-operator/pull/334))
 - Исправление ошибок в тестах бэкапа ([#335](https://github.com/pingcap/tidb-operator/pull/335))
 - Удаление файла `blockWrite.go` и использование вместо него файла `blockwrite.go` ([#333](https://github.com/pingcap/tidb-operator/pull/333))
 - Удаление папки `vendor` ([#344](https://github.com/pingcap/tidb-operator/pull/344))
 - Увеличение количества проверок для масштабирования и обновления ([#327](https://github.com/pingcap/tidb-operator/pull/327))com/pingcap/tidb-operator/pull/327))
 - Поддержка большего количества встроенных отказов ([#345](https://github.com/pingcap/tidb-operator/pull/345))
 - Перезапись e2e тестов ([#346](https://github.com/pingcap/tidb-operator/pull/346))
 - Добавление тестов failover ([#349](https://github.com/pingcap/tidb-operator/pull/349))
 - Исправление HA при количестве реплик меньше трёх ([#351](https://github.com/pingcap/tidb-operator/pull/351))
 - Добавление сервисного файла для триггеров отказов ([#353](https://github.com/pingcap/tidb-operator/pull/353))
 - Исправление документации dind ([#352](https://github.com/pingcap/tidb-operator/pull/352))
 - Добавление дополнительных полей вывода для CRD TidbCluster ([#361](https://github.com/pingcap/tidb-operator/pull/361))
 - Переработка основной функции стабильности ([#363](https://github.com/pingcap/tidb-operator/pull/363))
 - Включение привилегий администратора для Prometheus ([#360](https://github.com/pingcap/tidb-operator/pull/360))
 - Обновление README новой информацией ([#365](https://github.com/pingcap/tidb-operator/pull/365))
 - Создание CLI ([#357](https://github.com/pingcap/tidb-operator/pull/357))
 - Добавление переменной extraLabels в шаблоне tidb-cluster ([#373](https://github.com/pingcap/tidb-operator/pull/373))
 - Исправление failover TiKV ([#368](https://github.com/pingcap/tidb-operator/pull/368))
 - Разделение и обеспечение правильной установки перед e2e-build ([#375](https://github.com/pingcap/tidb-operator/pull/375))
 - Исправление script codegen.sh и связанных зависимостей ([#371](https://github.com/pingcap/tidb-operator/pull/371))
 - Добавление случая corruption SST-файлов ([#382](https://github.com/pingcap/tidb-operator/pull/382))
 - Использование имени выпуска как значений по умолчанию для clusterName ([#354](https://github.com/pingcap/tidb-operator/pull/354))- Добавлен класс util для поддержки добавления аннотаций к Grafana ([#378](https://github.com/pingcap/tidb-operator/pull/378))
- Используйте графанское управление для замены установщика панелей ([#388](https://github.com/pingcap/tidb-operator/pull/388))
- Убедитесь, что тестовая среда готова перед запуском случаев ([#386](https://github.com/pingcap/tidb-operator/pull/386))
- Удалена проверка задач конфигурации монитора ([#390](https://github.com/pingcap/tidb-operator/pull/390))
- Обновлена документация локальных PV ([#383](https://github.com/pingcap/tidb-operator/pull/383))
- Обновлены ссылки Jenkins в README.md ([#395](https://github.com/pingcap/tidb-operator/pull/395))
- Исправлен рабочий процесс e2e в CONTRIBUTING.md ([#392](https://github.com/pingcap/tidb-operator/pull/392))
- Поддержана возможность выполнения тестов стабильности вне кластера ([#397](https://github.com/pingcap/tidb-operator/pull/397))
- Обновлена документация секретов TiDB и диаграммы ([#398](https://github.com/pingcap/tidb-operator/pull/398))
- Включено давление записи блока Writer в тестах стабильности ([#399](https://github.com/pingcap/tidb-operator/pull/399))
- Поддержана возможность использования команд отладки и ctop в CLI ([#387](https://github.com/pingcap/tidb-operator/pull/387))
- Обновлен Marketplace ([#380](https://github.com/pingcap/tidb-operator/pull/380))
- Обновлено значение редактируемости панели с true на false ([#394](https://github.com/pingcap/tidb-operator/pull/394))
- Добавлено сообщение об ошибке для kube-proxy ([#384](https://github.com/pingcap/tidb-operator/pull/384))
- Использование `ioutil.TempDir()` для создания директорий диаграмм и репозитория оператора ([#405](https://github.com/pingcap/tidb-operator/pull/405))
- Улучшена процедура работы в docs/google-kubernetes-tutorial.md ([#400](https://github.com/pingcap/tidb-operator/pull/400))- Поддержка аргумента запуска плагина для экземпляров TiDB ([#412](https://github.com/pingcap/tidb-operator/pull/412))
- Замена govet официальным инструментом vet ([#416](https://github.com/pingcap/tidb-operator/pull/416))
- По умолчанию выделение 24 PV (после масштабирования двух кластеров) ([#407](https://github.com/pingcap/tidb-operator/pull/407))
- Оптимизация стабильности ([#422](https://github.com/pingcap/tidb-operator/pull/422))
- Запись события как аннотации Grafana в тестах стабильности ([#414](https://github.com/pingcap/tidb-operator/pull/414))
- Добавление шаблонов GitHub для отчета о проблемах и PR ([#420](https://github.com/pingcap/tidb-operator/pull/420))
- Добавление функции TiDBUpgrading ([#423](https://github.com/pingcap/tidb-operator/pull/423))
- Исправление проблемы диаграммы оператора ([#419](https://github.com/pingcap/tidb-operator/pull/419))
- Исправление проблем стабильности ([#433](https://github.com/pingcap/tidb-operator/pull/433))
  - Изменение метода генерации сертификата и добавление prestop вебхуков для PD и KV ([#406](https://github.com/pingcap/tidb-operator/pull/406))
  - Устранение ошибки в tidb-scheduler и отправка события при неудачной планировке ([#427](https://github.com/pingcap/tidb-operator/pull/427))
  - Добавление shell-завершения для tkctl ([#431](https://github.com/pingcap/tidb-operator/pull/431))
  - Удаление повторяющегося импорта ([#434](https://github.com/pingcap/tidb-operator/pull/434))
  - Добавление сценариев для моделирования отказов etcd и kube-apiserver ([#367](https://github.com/pingcap/tidb-operator/pull/367))
  - Устранение проблемы ссылки на канал TiDB в Slack ([#444](https://github.com/pingcap/tidb-operator/pull/444))
  - Устранение ошибки высокой доступности планировщика ([#443](https://github.com/pingcap/tidb-operator/pull/443))- Добавлены скрипты Terraform для автоматической установки кластера TiDB на AWS ([#401](https://github.com/pingcap/tidb-operator/pull/401)).
- Добавлены инструкции для доступа к Grafana в руководстве по GKE ([#448](https://github.com/pingcap/tidb-operator/pull/448)).
- Устранена проблема селектора меток ([#437](https://github.com/pingcap/tidb-operator/pull/437)).
- Исключено требование установки ClusterIP при синхронизации бесполого сервиса ([#432](https://github.com/pingcap/tidb-operator/pull/432)).
- Добавлена документация по установке кластера TiDB с помощью tidb-operator в minikube ([#451](https://github.com/pingcap/tidb-operator/pull/451)).
- Добавлены уведомления через Slack ([#439](https://github.com/pingcap/tidb-operator/pull/439)).
- Устранены проблемы локальной среды DIND ([#440](https://github.com/pingcap/tidb-operator/pull/440)).
- Добавлены сценарии Terraform для поддержки развертывания на облачной платформе Alibaba Cloud ACK ([#436](https://github.com/pingcap/tidb-operator/pull/436)).
- Устранена проблема сравнения данных резервного копирования ([#454](https://github.com/pingcap/tidb-operator/pull/454)).
- Произведен тест стабильности: асинхронная отправка аннотаций ([#438](https://github.com/pingcap/tidb-operator/pull/438)).
- Используется TiDB версии 2.1.8 по умолчанию и удален pushgateway ([#435](https://github.com/pingcap/tidb-operator/pull/435)).
- Устранена ошибка использования shareinformer без копирования ([#462](https://github.com/pingcap/tidb-operator/pull/462)).
- Добавлена команда версии для tkctl ([#456](https://github.com/pingcap/tidb-operator/pull/456)).
- Добавлено руководство пользователя для tkctl ([#452](https://github.com/pingcap/tidb-operator/pull/452)).
- Устранена проблема бинлога на крупномасштабных системах ([#460](https://github.com/pingcap/tidb-operator/pull/460)).com/pingcap/tidb-operator/pull/460))
  - Копирование метки `kubernetes.io/hostname` на PV ([#464](https://github.com/pingcap/tidb-operator/pull/464))
  - Изменение руководства по AWS EKS на новый скрипт Terraform ([#463](https://github.com/pingcap/tidb-operator/pull/463))
  - Добавление инструкций по установке Minikube ([#471](https://github.com/pingcap/tidb-operator/pull/471))
  - Обновление документации по установке DinD ([#458](https://github.com/pingcap/tidb-operator/pull/458))
  - Добавление инструкций по доступу к Grafana ([#476](https://github.com/pingcap/tidb-operator/pull/476))
  - Поддержка нескольких версий панели управления ([#473](https://github.com/pingcap/tidb-operator/pull/473))
  - Обновление документации по развертыванию Aliyun после тестирования ([#474](https://github.com/pingcap/tidb-operator/pull/474))
  - Предупреждение о размере локального SSD в GKE ([#467](https://github.com/pingcap/tidb-operator/pull/467))
  - Обновление дорожной карты ([#376](https://github.com/pingcap/tidb-operator/pull/376))

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/mirrors-TiDB-Operator.git
git@api.gitlife.ru:oschina-mirror/mirrors-TiDB-Operator.git
oschina-mirror
mirrors-TiDB-Operator
mirrors-TiDB-Operator
master