Примечание:
- С 2 сентября 2020 года все заметки выпуска TiDB Operator будут поддерживаться в pingcap/docs-tidb-operator.
- Вы можете прочитать заметки выпусков всех версий TiDB Operator на PingCAP Docs.
Необходимое действие: Пользователи должны мигрировать конфигурации в values.yaml
предыдущих выпусков чартов в новый values.yaml
нового чарта. В противном случае, падающие пады могут завалиться при обновлении монитора с новым чартом.
Например, конфигурации в старом файле values.yaml
:
monitor:
...
initializer:
image: pingcap/tidb-monitor-initializer:v3.0.5
imagePullPolicy: IfNotPresent
...
После миграции, конфигурации в новом файле values.yaml
должны выглядеть следующим образом:
monitor:
...
initializer:
image: pingcap/tidb-monitor-initializer:v3.0.5
imagePullPolicy: Always
config:
K8S_PROMETHEUS_URL: http://prometheus-k8s.monitoring.svc:9090
...
Исправление проблемы совместимости в Kubernetes v1.17 (#1241)
Привязка ClusterRole system:kube-scheduler
к служебному аккаунту tidb-scheduler
([#1355](https Yöntemler/github.com/pingcap/tidb-operator/pull/1355))### TiKV Importer
Исправление базовой конфигурации tikv-importer
(#1415)
release-1.0
(#1320). Не требуется никаких действий при обновлении с версии v1.0.4.clusterName
) было слишком длинным (#1229)affinity
, а также рассредоточивание Pump на разных узлах через функцию anti-affinity
. На каждом узле допускается максимум один экземпляр Pump. Мы добавили руководство в шаблон (#1251).tidb-scheduler
в Kubernetes v1.16 (#1282)hostNetwork
) не следует устанавливать политику DNS (DNSPolicy
), чтобы обеспечить обратную совместимость (#1287)Не требуется никаких действий при обновлении с версии v1.0.3.
#1202 добавил поддержку HostNetwork
, что позволяет получить лучшие показатели производительности по сравнению с сетью Pod. Подробнее см. наш отчет о производительности.
Примечание:
Из-за этой проблемы Kubernetes кластер Kubernetes должен быть одной из следующих версий для включения
HostNetwork
кластера TiDB:
v1.13.11
или вышеv1.14.7
или вышеv1.15.4
или выше- любая версия начиная с
v1.16.0
#1175 добавил поддержку podSecurityContext
для Pod кластера TiDB. Мы рекомендуем установить конфигурацию ядра для Pod кластера TiDB согласно нашей Рекомендации по окружению.
Новый Helm чарт tidb-lightning
предоставляет поддержку TiDB Lightning для TiDB в Kubernetes. Подробнее см. документацию для подробной инструкции пользователя. Ещё один новый чарт Helm tidb-drainer
обеспечивает поддержку нескольких дренчеров для TiDB Binlog в Kubernetes. Подробнее ознакомьтесь с руководством пользователя.### Улучшения
podSecurityContext
равным nil для обратной совместимости (#1184)По историческим причинам, ветка v1.1.0.alpha
является горячей веткой исправлений и получила это название по ошибке. Все исправления этой ветки были перенесены в v1.0.4
, а сама ветка v1.1.0.alpha
будет удалена для упорядочивания.
Мы настоятельно рекомендуем вам обновиться до версии v1.0.4
, если вы используете любую версию под v1.1.0.alpha
.v1.0.4
включает следующие исправления по сравнению с v1.1.0.alpha.3
:
externalTrafficPolicy
равной значению Local для сервисов TiDB (#960).maxFailoverCount
для TiKV (#976).maxFailoverCount = 0
(#978).ReplaceUnhealthy
для автосcaling группы TiKV на AWS (#1027).create_tidb_cluster_release
(#1066).v1
в apiVersions statefulset (#1056).v3.0.5
, которая исправила серьёзную ошибку в TiDB. Поэтому если вы используете TiDB v3.0.4
или более ранние версии, вы обязаны обновиться до v3.0.5
.НЕОБХОДИМО ВЫПОЛНИТЬ: Этот выпуск добавляет поддержку временной зоны (timezone
) для всех диаграмм.
Для существующих кластеров TiDB. Если timezone
в tidb-cluster/values.yaml
был настроен на другую временную зону вместо дефолтной UTC
, то обновление tidb-operator спровоцирует циклическое обновление связанных pod'ов.
Связанные pod'ы включают pump
, drainer
, discovery
, monitor
, planned backup
, tidb-initializer
, и tikv-importer
.
Временная зона для всех образов, управляемых tidb-operator
, должна быть UTC
. Если вы используете свои собственные образы, вам следует убедиться, что соответствующие временные зоны установлены как UTC
.
v3.0.5
(#1132)AWS Terraform скрипт использует auto-scaling-group для всех компонентов (PD/TiKV/TiDB/monitor). Когда экземпляр EC2 не проходит проверку состояния, он заменяется. Это полезно для приложений, которые являются бессостоятельными или используют EBS тома для хранения данных.
Но pod TiKV использует instance store для хранения своих данных. При замене экземпляра все данные на его хранилище будут потеряны. TiKV должен будет синхронизировать все данные заново на новый экземпляр. Хотя TiDB является распределённой базой данных и может работать даже при отказе одного узла, процесс синхронизации данных может занять много времени, особенно если набор данных большой. Кроме того, экземпляр EC2 может быть восстановлен до здорового состояния путём перезапуска. Поэтому мы отключили поведение замены в группе автоматического масштабирования (auto-scaling-group
) в версии v1.0.2
.
Процесс масштабирования группы автоматического масштабирования также может быть приостановлен согласно его документации, если вы используете версию v1.0.1
или более ранние версии.
Добавление нового менеджера виртуальных машин qm
в тестах стабильности
Добавление ограничения tikv.max_failover_count
для TiKV
Установка значения по умолчанию external_traffic_policy
как Local
для сервиса TiDB в AWS/GCP/Aliyun
Добавление версий провайдеров и модулей для AWS### Исправления ошибок
Исправление проблемы с неверной версией tkctl, когда имя выпуска недопустимо
Преобразование версии API состояния объектов statefulsets
на apps/v1
, что решает вопросы совместимости с Kubernetes версиями 1.16 и выше
Исправление проблемы с переменной create_tidb_cluster_release
в скрипте Terraform AWS
Исправление вопросов совместимости путём добавления v1beta1
к версиям API состояния объектов
Исправление проблемы с пустым балансировщиком нагрузки TiDB в выводе Terraform
Исправление вопроса совместимости TiKV max_failover_count
Исправление проблем с ограничением версий провайдеров Terraform для GCP и Aliyun
Исправление кастомизации файла значений для оператора TiDB на Aliyun
Исправление аварийного завершения работы оператора TiDB при неправильном изменении стратегии обновления состояния объектов пользователями
Исправление некорректной конфигурации дренджера## Подробные исправления ошибок и изменения
Исправление проблемы с тем, что команда tkctl версии не работает при нежелательном имени выпуска (#1065).
Исправление проблемы с тем, что переменная create_tidb_cluster_release
в скрипте Terraform AWS не работает (#1062).
Исправление совместимости для (#1012): добавление v1beta1
в apiVersions StatefulSet (#1054).
Включение ConfigMapRollout по умолчанию в тестах стабильности (#1036).
Исправление проблемы с пустым TiDB Loadbalancer в выводе Terraform (#1045).
Преобразование statefulsets apiVersion в apps/v1
, что решает проблему совместимости с Kubernetes версий 1.16 и выше (#1012).
Ожидание завершения процесса обновления TiDB кластера только при откате неверной конфигурации в тестах стабильности (#1030).
Приостановка процесса ReplaceUnhealthy для AWS TiKV auto-scaling-group (#1014).
Добавление нового менеджера виртуальных машин qm
в тестах стабильности (#896).
Исправление ограничений версий провайдеров для GCP и Aliyun (#959).
Исправление настройки файла значений для tidb-operator на Aliyun (#971).
Исправление проблемы совместимости TiKV tikv.max_failover_count
(#977).- Добавление ограничения tikv.maxFailoverCount
для TiKV (#965)
Исправление аварийного завершения tidb-operator при некорректном изменении стратегии обновления statefulset пользователями (#912)
Установка значения по умолчанию externalTrafficPolicy
как Local
для сервиса TiDB в AWS/GCP/Aliyun (#947)
Добавление примечания о настройке политики восстановления PV на,retain (#911)
Исправление ошибочной настройки drainer (#939)
Добавление версий провайдеров и модулей для AWS (#926)
PD
и TiKV
, когда kube-apiserver
выходит из строя. Это может вызвать сбой работы TiDB. Поэтому если вы используете версию v1.0.0
или более ранние версии, вам необходимо обновиться до версии v1.0.1
.Mydumper
. Текущая версия pingcap/tidb-cloud-backup:20190610
содержит серьёзную ошибку, которая может привести к отсутствию одного столбца в экспортированных данных. Эта ошибка была исправлена в #29. Теперь используется новая версия образа, содержащая это исправление. Поэтому если вы используете старую версию образа для резервного копирования, вам необходимо обновиться до использования pingcap/tidb-cloud-backup:20190828
и выполнить полное резервное копирование, чтобы избежать потенциальной несоответствующей информации.binlog.pump.config
, binlog.drainer.config
для Pump и Drainertidb-backup
affinity
к конфигурациям Pump и Drainerv2.3.2
0
, если Pump становится offline
tikvGCLifeTime
для выполнения резервного копированияtikv.config
и tidb.config
в values.yaml
values.tidb.permitHost
pingcap/tidb-cloud-backup:20190828
### Исправление ошибок- Исправление сбоев масштабирования TiKV после перенастройки управления TiKVStatefulSet
claimName
offline
: процесс Pump будет завершен с кодом 0
, если он переходит в режим offline
Очистка аннотации tidb.pingcap.com/pod-scheduling
при распределении пачки (#790)
Обновление метки образа tidb-cloud-backup
(#846)
Добавление опции разрешенного хоста TiDB (#779)
Добавление метки зоны и зарезервированных ресурсов для узлов (#871)
Устранение проблем с очисткой сиротских пачек (#878)
Устранение проблемы установки раздела StatefulSet
(#830)
Добавление опции tikvGCLifeTime
(#835)
Добавление рекомендательных опций для Mydumper (#828)
Устранение ошибки случайной полной резервной копии из-за неправильного значения claimName
(#836)
Улучшение вывода команды tkctl get
(#822)- Добавлены важные параметры конфигурации TiKV и TiDB (#786)
Устранена проблема, связанная с отсутствием поддержки binlog.drainer.config
в версии 1.0.0 (#775)
Добавлена поддержка восстановления кластера TiDB из указанного каталога запланированной резервной копии (#804)
Устранена проблема описания extraLabels
в values.yaml
(#763)
Устранено исключение вывода логов tkctl (#797)
Добавлен скрипт для удаления сиротских дисков Kubernetes (#745)
Включены расширения облачного хранилища и маркировка локального объема (#772)
Предотвращено завершение процесса Pump с кодом завершения 0
, если Pump становится offline
(#769)
Разделены модули GCP Terraform (#717)
Добавлена поддержка конфигураций binlog.pump.config
для Pump и Drainer (#693)
Удалены повторяющиеся значения ключей (#758)
Устранены некоторые опечатки (#738)
Расширен срок ожидания процесса CheckManualPauseTiDB
(#752)
Установлено ограничение ресурсов для задачи tidb-backup
(#729)
Исправлена совместимость теста end-to-end с версией v1.0.0 (#757)- Дополните тестирование дифференциальных бэкапов (#764)
Добавьте логику повторной попытки для функции LabelNodes
(#735)
Исправьте ошибку масштабирования TiKV в некоторых случаях (#726)
Добавьте аффинность для Pump и Drainer (#741)
Улучшите логику очистки (#719)
Внедрите ошибку через аннотацию падающего контейнера (#716)
Обновите ссылки в README для правильных URL pingcap.com/docs
для английского и китайского языков (#732)
Документируйте и улучшите алгоритм высокой доступности (HA) (#670)
Исправьте неправильное условие для проверки (#718)
Обновите local-volume-provisioner до версии v2.3.2 (#696)
Уменьшите время выполнения теста end-to-end (#713)
Исправьте проблемы расширенного масштабирования Terraform GKE (#711)
Обновите формулировки и исправьте формат для версии v1.0.0 (#709)
Обновите документацию (#705)
tikv.storeLabels
было удалено из файла values.yaml
. Вы можете установить его напрямую с помощью параметра location-labels
в конфигурации pd.config
.--features
команды tidb-scheduler
был обновлен до формата ключ={true,false}
. Для активации функции следует добавить =true
.values.yaml
предыдущих выпусков на новый файл values.yaml
нового выпуска. В противном случае при обновлении кластера TiDB новым выпуском эти конфигурации будут проигнорированы.Секция pd
в старом файле values.yaml
:
pd:
logLevel: info
maxStoreDownTime: 30m
maxReplicas: 3
Секция pd
в новом файле values.yaml
:
pd:
config: |
[log]
level = "info"
[schedule]
max-store-down-time = "30m"
[replication]
max-replicas = 3
Секция tikv
в старом файле values.yaml
:
tikv:
logLevel: info
syncLog: true
readpoolStorageConcurrency: 4
readpoolCoprocessorConcurrency: 8
storageSchedulerWorkerPoolSize: 4
Секция tikv
в новом файле values.yaml
:
tikv:
config: |
log-level = "info"
[server]
status-addr = "0.0.0.0:20180"
[raftstore]
sync-log = true
[readpool.storage]
high-concurrency = 4
normal-concurrency = 4
low-concurrency = 4
[readpool.coprocessor]
high-concurrency = 8
normal-concurrency = 8
low-concurrency = 8
[storage]
scheduler-worker-pool-size = 4
Секция tidb
в старом файле values.yaml
:
tidb:
logLevel: info
preparedPlanCacheEnabled: false
preparedPlanCacheCapacity: 100
txnLocalLatchesEnabled: false
txnLocalLatchesCapacity: "10240000"
tokenLimit: "1000"
memQuotaQuery: "34359738368"
txnEntryCountLimit: "300000"
txnTotalSizeLimit: "104857600"
checkMb4ValueInUtf8: true
treatOldVersionUtf8AsUtf8mb4: true
lease: 45s
maxProcs: 0
```Секция `tidb` в новом файле `values.yaml`:
tidb: config: | token-limit = 1000 mem-quota-query = 34359738368 check-mb4-value-in-utf8 = true treat-old-version-utf8-as-utf8mb4 = true lease = "45s" [log] level = "info" [prepared-plan-cache] enabled = false capacity = 100 [txn-local-latches] enabled = false capacity = 10240000 [performance] txn-entry-count-limit = 300000 txn-total-size-limit = 104857600 max-procs = 0
Секция `monitor` в старом `values.yaml`:
```yaml
monitor:
create: true
...
Секция monitor
в новом values.yaml
:
monitor:
create: true
initializer:
image: pingcap/tidb-monitor-initializer:v3.0.5
imagePullPolicy: IfNotPresent
reloader:
create: true
image: pingcap/tidb-monitor-reloader:v1.0.0
imagePullPolicy: IfNotPresent
service:
type: NodePort
...
Для получения подробной конфигурации обратитесь к разделу конфигураций кластера TiDB в документации PingCAP.
git add upstream
, использующей https
, в документации по вкладам (#690)EndEvictLeader
(#680)key={true,false}
(#677)DeferClose
(#653)stop-write-at-available-space
(#657)"registry.k8s.io/kube-scheduler"
, что намного меньше, чем "gcr.io/google-containers/hyperkube"
. Вы должны предварительно скачать новое изображение планировщика в вашем окружении с отсутствием выхода в интернет перед обновлением.tikv.storeLabels
nodeSelectorRequired
было удалено из файла values.yaml
.nodeSelector
была отключена; пожалуйста, используйте новое поле affinity
, которое имеет более выразительный синтаксис.scheduler
) и репликации (replication
) PD не могут быть изменены через развертывание ConfigMap. Для изменения этих значений можно использовать pd-ctl
. Подробнее см. #487.Обновление версии TiDB по умолчанию до v3.0.0-rc.1
Исправление ошибки в отчете назначенных узлов членов TiDB
Команда tkctl get
теперь правильно показывает использование CPU
Ад хок резервное копирование теперь по умолчанию добавляет время начала к имени PVC
Добавление привилегированного режима для падающего TiKV
Команда tkctl upinfo
теперь показывает nodeIP, podIP и порты
Получение TS и его использование перед полной резервной копией с использованием mydumper
Исправление проблемы capability для команды tkctl debug
## Подробные исправления ошибок и изменения
Добавлены возможности и режим привилегий для отладочного контейнера (#537)
Документация: указаны версии Helm в документах развертывания (#553)
Разделение публичных и частных субсетов при использовании существующего VPC (#530)
Выпуск версии v1.0.0-beta.3 (#557)
Обновление Terraform для GKE до версии bk_0.12 и исправление зоны экземпляра Bastion для региональной независимости (#554)
Получение TS и использование его перед полным резервным копированием с помощью mydumper (#534)
Добавление порта podip nodeip в tkctl upinfo (#538)
Исправление надежности теста стабильности (#543)
Добавление привилегированного варианта шаблона pod для tikv (#550)
Использование staticcheck вместо megacheck (#548)
Уточнение документации по резервному копированию и восстановлению (#518)
Исправление стабильности теста при команде пауза tidb (#542)
Исправление отображения информации о процессоре в tkctl get (#536)
Исправление отображения выходных данных Terraform Aliyun и улучшение документов (#511)com/pingcap/tidb-operator/pull/511))
Настройка конфигурируемых webhooks (#529)
Добавление тестовых случаев для надёжности pod и тестовых случаев для областей данных (#497)
Удаление аннотации Helm Hook для задачи инициализатора (#526)
Тестирование стабильности: добавление тестового случая для стабильного расписания end-to-end (#524)
Обновление версии TiDB в связанных документах (#532)
Стабильное расписание: исправление ошибки в отчёте о назначении узлов членов TiDB (#531)
Уменьшение времени ожидания и исправление стабильности теста (#525)
tidb-operator: исправление проблем удобства использования в документации GCP (#519)
Добавлены случаи стабильности: реплики PD 1 и остановка tidb-operator (#496)
Введён тест стабильности при приостановке обновлений (#521)
Устранена ошибка в скрипте восстановления (#510)
Добавлено повторное удаление файлов SST при сбое (#484)
Обновление по умолчанию tidb до версии v3.0.0-rc.1 (#520)
Добавлен параметр --namespace при создании секрета резервного копирования (#515)- Новый тест стабильности для развертывания ConfigMap (#499)
Исправление проблем, найденных в тестах Queeny (#507)
Приостановка процесса роллинг-обновления состояния tidb (#470)
Интеграция Terraform и руководство для GKE (#493)
Поддержка функции аффинитета Kubernetes для определения правил назначения падов на ноды (#475)
Поддержка добавления дополнительных аннотаций падов для PD/TiKV/TiDB (#500)
Документация по проблемам конфигурации PD (#504)
Оптимизация конфигураций облачных сервисов Aliyun и AWS (#492)
Обновление терминологии и добавление примечаний в tidb-operator (#502)
Поддержка стабильного расписания для TiDB (#477)
Исправление ошибки make lint
(#495)
Поддержка обновления конфигурации "на лету" (#479)
Обновление руководства по развертыванию AWS после тестирования (#491)
Добавление заметки о выпуске в шаблон запроса на вытягивание (#490)
Проектный план стабильного расписания в TiDB (#466)
Обновление образа DinD для возможности настройки прокси HTTP (#485)```markdown (com/pingcap/tidb-operator/pull/485))
Исправление сломанной ссылки в README (#489)
Исправлена ошибка в написании (#483)
### Улучшена стабильность
- Переработана e2e тестовая среда
- Добавлены тесты стабильности, работающие 24/7
### Улучшена удобство использования
- Однокомандная установка для AWS, Aliyun
- Установка Minikube для тестирования
- Инструмент командной строки `tkctl`
- Переработан шаблон бэкапа для повышения удобства
- Усовершенствовано задание инициализатора
- Улучшено панели мониторинга Grafana, поддерживающие несколько версий
- Улучшены руководства пользователя
- Документация по вкладам
### Исправление ошибок
- Исправлена начальная сценария запуска PD, добавлен файл присоединения при старте
- Исправлено долгое время восстановления TiKV
- Исправлено HA PD при количестве реплик меньше трех
- Исправлен баг `tidb-scheduler` при неудачном планировании события `acquireLock`
- Исправлен баг HA scheduler с отложенным удалением pod
- Исправлен баг при использовании `shareinformer` без `deepcopy`
### Другие улучшения
- Удалён `pushgateway` из pod TiKV
- Добавлены шаблоны GitHub для отчета об ошибках и PR
- Автоматическое установление версии K8s scheduler
- Переключение на Go модуль
- Поддержка медленных логов TiDB## Подробные исправления ошибок и изменения
- Не инициализировать при отсутствии пароля TIDB ([#282](https://github.com/pingcap/tidb-operator/pull/282))
- Исправление скрипта объединения ([#285](https://github.com/pingcap/tidb-operator/pull/285))
- Документация по установке инструмента и детали тестирования end-to-end в CONTRIBUTING.md ([#288](https://github.com/pingcap/tidb-operator/pull/288))
- Обновление файла setup.md ([#281](https://github.com/pingcap/tidb-operator/pull/281))
- Поддержка хвостового лога медленных запросов сайдкэра для экземпляров TiDB ([#290](https://github.com/pingcap/tidb-operator/pull/290))
- Гибкая задача инициализатора TiDB с секретами, установленными вне Helm ([#286](https://github.com/pingcap/tidb-operator/pull/286))
- Убедиться, что переменная окружения SLOW_LOG_FILE всегда установлена ([#298](https://github.com/pingcap/tidb-operator/pull/298))
- Исправление описания документации по установке ([#300](https://github.com/pingcap/tidb-operator/pull/300))
- Переработка резервного копирования ([#301](https://github.com/pingcap/tidb-operator/pull/301))
- Отказ от использования vendoring и обновление go.sum ([#311](https://github.com/pingcap/tidb-operator/pull/311))
- Установка переменной окружения SLOW_LOG_FILE в скрипте запуска ([#307](https://github.com/pingcap/tidb-operator/pull/307))
- Автоматическое установление версии планировщика Kubernetes ([#313](https://github.com/pingcap/tidb-operator/pull/313))
- Основная функция для тестирования стабильности TiDB ([#306](https://github.com/pingcap/tidb-operator/pull/306))
- Добавление сервера для активации отказа в тестах стабильности ([#312](https://github.com/pingcap/tidb-operator/pull/312))
- Добавление временного резервного копирования и восстановления ([#316](https://github.com/pingcap/tidb-operator/pull/316))com/pingcap/tidb-operator/pull/316))
- Добавление функций тестирования масштабируемости и обновления ([#309](https://github.com/pingcap/tidb-operator/pull/309))
- Добавление Slack ([#318](https://github.com/pingcap/tidb-operator/pull/318))
- Сохранение журнала при провале теста ([#317](https://github.com/pingcap/tidb-operator/pull/317))
- Добавление клиента для активации отказа в тестах стабильности ([#326](https://github.com/pingcap/tidb-operator/pull/326))
- Добавление монитора проверки ([#320](https://github.com/pingcap/tidb-operator/pull/320))
- Добавление случая блокировки записи данных для тестирования стабильности ([#321](https://github.com/pingcap/tidb-operator/pull/321))
- Добавление тестового случая для расписанных резервных копий ([#322](https://github.com/pingcap/tidb-operator/pull/322))
- Добавление DDL как нагрузки для тестирования стабильности ([#328](https://github.com/pingcap/tidb-operator/pull/328))
- Использование fault-trigger в тестах end-to-end и добавление некоторых журналов ([#330](https://github.com/pingcap/tidb-operator/pull/330))
- Добавлен процесс развертывания и проверки binlog ([#329](https://github.com/pingcap/tidb-operator/pull/329))
- Исправлена проблема с выполнением e2e тестов ([#331](https://github.com/pingcap/tidb-operator/pull/331))
- Тестирование нескольких кластеров TiDB ([#334](https://github.com/pingcap/tidb-operator/pull/334))
- Исправление ошибок в тестах бэкапа ([#335](https://github.com/pingcap/tidb-operator/pull/335))
- Удаление файла `blockWrite.go` и использование вместо него файла `blockwrite.go` ([#333](https://github.com/pingcap/tidb-operator/pull/333))
- Удаление папки `vendor` ([#344](https://github.com/pingcap/tidb-operator/pull/344))
- Увеличение количества проверок для масштабирования и обновления ([#327](https://github.com/pingcap/tidb-operator/pull/327))com/pingcap/tidb-operator/pull/327))
- Поддержка большего количества встроенных отказов ([#345](https://github.com/pingcap/tidb-operator/pull/345))
- Перезапись e2e тестов ([#346](https://github.com/pingcap/tidb-operator/pull/346))
- Добавление тестов failover ([#349](https://github.com/pingcap/tidb-operator/pull/349))
- Исправление HA при количестве реплик меньше трёх ([#351](https://github.com/pingcap/tidb-operator/pull/351))
- Добавление сервисного файла для триггеров отказов ([#353](https://github.com/pingcap/tidb-operator/pull/353))
- Исправление документации dind ([#352](https://github.com/pingcap/tidb-operator/pull/352))
- Добавление дополнительных полей вывода для CRD TidbCluster ([#361](https://github.com/pingcap/tidb-operator/pull/361))
- Переработка основной функции стабильности ([#363](https://github.com/pingcap/tidb-operator/pull/363))
- Включение привилегий администратора для Prometheus ([#360](https://github.com/pingcap/tidb-operator/pull/360))
- Обновление README новой информацией ([#365](https://github.com/pingcap/tidb-operator/pull/365))
- Создание CLI ([#357](https://github.com/pingcap/tidb-operator/pull/357))
- Добавление переменной extraLabels в шаблоне tidb-cluster ([#373](https://github.com/pingcap/tidb-operator/pull/373))
- Исправление failover TiKV ([#368](https://github.com/pingcap/tidb-operator/pull/368))
- Разделение и обеспечение правильной установки перед e2e-build ([#375](https://github.com/pingcap/tidb-operator/pull/375))
- Исправление script codegen.sh и связанных зависимостей ([#371](https://github.com/pingcap/tidb-operator/pull/371))
- Добавление случая corruption SST-файлов ([#382](https://github.com/pingcap/tidb-operator/pull/382))
- Использование имени выпуска как значений по умолчанию для clusterName ([#354](https://github.com/pingcap/tidb-operator/pull/354))- Добавлен класс util для поддержки добавления аннотаций к Grafana ([#378](https://github.com/pingcap/tidb-operator/pull/378))
- Используйте графанское управление для замены установщика панелей ([#388](https://github.com/pingcap/tidb-operator/pull/388))
- Убедитесь, что тестовая среда готова перед запуском случаев ([#386](https://github.com/pingcap/tidb-operator/pull/386))
- Удалена проверка задач конфигурации монитора ([#390](https://github.com/pingcap/tidb-operator/pull/390))
- Обновлена документация локальных PV ([#383](https://github.com/pingcap/tidb-operator/pull/383))
- Обновлены ссылки Jenkins в README.md ([#395](https://github.com/pingcap/tidb-operator/pull/395))
- Исправлен рабочий процесс e2e в CONTRIBUTING.md ([#392](https://github.com/pingcap/tidb-operator/pull/392))
- Поддержана возможность выполнения тестов стабильности вне кластера ([#397](https://github.com/pingcap/tidb-operator/pull/397))
- Обновлена документация секретов TiDB и диаграммы ([#398](https://github.com/pingcap/tidb-operator/pull/398))
- Включено давление записи блока Writer в тестах стабильности ([#399](https://github.com/pingcap/tidb-operator/pull/399))
- Поддержана возможность использования команд отладки и ctop в CLI ([#387](https://github.com/pingcap/tidb-operator/pull/387))
- Обновлен Marketplace ([#380](https://github.com/pingcap/tidb-operator/pull/380))
- Обновлено значение редактируемости панели с true на false ([#394](https://github.com/pingcap/tidb-operator/pull/394))
- Добавлено сообщение об ошибке для kube-proxy ([#384](https://github.com/pingcap/tidb-operator/pull/384))
- Использование `ioutil.TempDir()` для создания директорий диаграмм и репозитория оператора ([#405](https://github.com/pingcap/tidb-operator/pull/405))
- Улучшена процедура работы в docs/google-kubernetes-tutorial.md ([#400](https://github.com/pingcap/tidb-operator/pull/400))- Поддержка аргумента запуска плагина для экземпляров TiDB ([#412](https://github.com/pingcap/tidb-operator/pull/412))
- Замена govet официальным инструментом vet ([#416](https://github.com/pingcap/tidb-operator/pull/416))
- По умолчанию выделение 24 PV (после масштабирования двух кластеров) ([#407](https://github.com/pingcap/tidb-operator/pull/407))
- Оптимизация стабильности ([#422](https://github.com/pingcap/tidb-operator/pull/422))
- Запись события как аннотации Grafana в тестах стабильности ([#414](https://github.com/pingcap/tidb-operator/pull/414))
- Добавление шаблонов GitHub для отчета о проблемах и PR ([#420](https://github.com/pingcap/tidb-operator/pull/420))
- Добавление функции TiDBUpgrading ([#423](https://github.com/pingcap/tidb-operator/pull/423))
- Исправление проблемы диаграммы оператора ([#419](https://github.com/pingcap/tidb-operator/pull/419))
- Исправление проблем стабильности ([#433](https://github.com/pingcap/tidb-operator/pull/433))
- Изменение метода генерации сертификата и добавление prestop вебхуков для PD и KV ([#406](https://github.com/pingcap/tidb-operator/pull/406))
- Устранение ошибки в tidb-scheduler и отправка события при неудачной планировке ([#427](https://github.com/pingcap/tidb-operator/pull/427))
- Добавление shell-завершения для tkctl ([#431](https://github.com/pingcap/tidb-operator/pull/431))
- Удаление повторяющегося импорта ([#434](https://github.com/pingcap/tidb-operator/pull/434))
- Добавление сценариев для моделирования отказов etcd и kube-apiserver ([#367](https://github.com/pingcap/tidb-operator/pull/367))
- Устранение проблемы ссылки на канал TiDB в Slack ([#444](https://github.com/pingcap/tidb-operator/pull/444))
- Устранение ошибки высокой доступности планировщика ([#443](https://github.com/pingcap/tidb-operator/pull/443))- Добавлены скрипты Terraform для автоматической установки кластера TiDB на AWS ([#401](https://github.com/pingcap/tidb-operator/pull/401)).
- Добавлены инструкции для доступа к Grafana в руководстве по GKE ([#448](https://github.com/pingcap/tidb-operator/pull/448)).
- Устранена проблема селектора меток ([#437](https://github.com/pingcap/tidb-operator/pull/437)).
- Исключено требование установки ClusterIP при синхронизации бесполого сервиса ([#432](https://github.com/pingcap/tidb-operator/pull/432)).
- Добавлена документация по установке кластера TiDB с помощью tidb-operator в minikube ([#451](https://github.com/pingcap/tidb-operator/pull/451)).
- Добавлены уведомления через Slack ([#439](https://github.com/pingcap/tidb-operator/pull/439)).
- Устранены проблемы локальной среды DIND ([#440](https://github.com/pingcap/tidb-operator/pull/440)).
- Добавлены сценарии Terraform для поддержки развертывания на облачной платформе Alibaba Cloud ACK ([#436](https://github.com/pingcap/tidb-operator/pull/436)).
- Устранена проблема сравнения данных резервного копирования ([#454](https://github.com/pingcap/tidb-operator/pull/454)).
- Произведен тест стабильности: асинхронная отправка аннотаций ([#438](https://github.com/pingcap/tidb-operator/pull/438)).
- Используется TiDB версии 2.1.8 по умолчанию и удален pushgateway ([#435](https://github.com/pingcap/tidb-operator/pull/435)).
- Устранена ошибка использования shareinformer без копирования ([#462](https://github.com/pingcap/tidb-operator/pull/462)).
- Добавлена команда версии для tkctl ([#456](https://github.com/pingcap/tidb-operator/pull/456)).
- Добавлено руководство пользователя для tkctl ([#452](https://github.com/pingcap/tidb-operator/pull/452)).
- Устранена проблема бинлога на крупномасштабных системах ([#460](https://github.com/pingcap/tidb-operator/pull/460)).com/pingcap/tidb-operator/pull/460))
- Копирование метки `kubernetes.io/hostname` на PV ([#464](https://github.com/pingcap/tidb-operator/pull/464))
- Изменение руководства по AWS EKS на новый скрипт Terraform ([#463](https://github.com/pingcap/tidb-operator/pull/463))
- Добавление инструкций по установке Minikube ([#471](https://github.com/pingcap/tidb-operator/pull/471))
- Обновление документации по установке DinD ([#458](https://github.com/pingcap/tidb-operator/pull/458))
- Добавление инструкций по доступу к Grafana ([#476](https://github.com/pingcap/tidb-operator/pull/476))
- Поддержка нескольких версий панели управления ([#473](https://github.com/pingcap/tidb-operator/pull/473))
- Обновление документации по развертыванию Aliyun после тестирования ([#474](https://github.com/pingcap/tidb-operator/pull/474))
- Предупреждение о размере локального SSD в GKE ([#467](https://github.com/pingcap/tidb-operator/pull/467))
- Обновление дорожной карты ([#376](https://github.com/pingcap/tidb-operator/pull/376))
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )