-XX:MaxRAMPercentage
/
как разделителя файловpackage-lock.json
DataStudioNew
в DataStudio
PING PONG
для websocketprint
и mock
Улучшение метода утверждения ошибок запроса от调度器请求错误断言方法 → Улучшение метода утверждения ошибок запроса от调度器请求错误断言方法 (переводить только текст вокруг числовых выражений и терминов)- Реорганизовать выполнение UDF
${}
на #{}
._CURRENT_DATE_
и другие были удалены, их заменили выражениями переменных.dlink_catalog
на dinky_catalog
.### ПереработкаCREATE TEMPORAL FUNCTION
для определения временных функцийADD FILE
для динамической загрузки файлов классов/конфигураций и т. д.ADD CUSTOMJAR
для динамической загрузки зависимых JARPRINT TABLE
для реального времени просмотра данных таблицыEXECUTE JAR
для определения задач Flink JarEXECUTE PIPELINE
для определения задач Flink CDC 3.x для синхронизации всей базы данныхextends
в переменной CLASS_PATH
в auto.sh
set
в Flink 1.18 не работает и вызывает ошибку null
Исправления:
[Fix-2739] Исправлено отсутствие пути extends в переменной CLASS_PATH скрипта auto.sh
[Fix-2740] Исправлено отсутствие перерendering значения жизненного цикла списка заданий после публикации/снятия с публикации
[Fix] Исправлено несоответствие синтаксиса set в Flink 1.18 и возникновение ошибки null
[Fix] Исправлено поведение механизма сохранения истории коммитов
[Fix] Исправлено отображение таблиц Flink
[Fix] Исправлено создание представлений в каталоге
[Fix] Исправлено отсутствие выбрасывания исключений при выполнении Flink application
[Fix] Исправлено некорректное отображение опций оповещений
[Fix] Исправлено поведение жизненного цикла заданий
[Fix-2754] Исправлено отображение YAML конфигурации k8s в конфигурации кластера
[Fix-2756] Исправлено форматирование времени выполнения списка заданий в центре управления
[Fix-2777] Исправлено отображение диалогового окна Flink dag
[Fix-2782] Исправлено отсутствие нахождения пути checkpoint
[Fix] Исправлено некорректное положение узлов при отправке заданий в распределитель задач DolphinScheduler
[Fix-2806] Исправлено отсутствие применения параметров задания при наличии одинарных кавычек в конфигурации set
[Fix-2811] Обновлен jmx_prometheus_javaagent до версии 0.20.0 для решения некоторых уязвимостей CVE
[Fix-2814] Исправлено отображение checkpoint
[Fix] Исправлено отсутствие применения ADDJAR синтаксиса в Flink catalog
[Fix] Исправлены некоторые проблемы в центре управления [Fix-2832] Исправлено отсутствие упаковки по умолчанию для драйвера H2
[Fix] Исправлены некоторые проблемы с SQL
[Fix] Исправлено отсутствие выхода из состояния выполнения для экземпляров заданий
[Fix-2843] Исправлено отсутствие вывода логов при неудачной отправке задачи Yarn Application
[Fix] Исправлены некоторые проблемы с UDF в H2
[Fix-2823] Исправлено отсутствие рендеринга кластера prejob Yarn при конфигурации заданий
[Fix] Исправлено некорректное формирование URL, приводящее к неудаче запроса
[Fix-2855] Исправлено отображение параметров таблицы savepoint
[Fix-2776] Исправлено отсутствие уникальности значений токенов при многопользовательской авторизацииОптимизации:
[Improve] Улучшено извлечение YAML из команды execute pipeline
[Optimization] Добавлено увеличение ширины ключей конфигурации заданий
[Optimization] Добавлено конфигурирование порта dinky в PrintNetSink
[Improve] Улучшено отображение текущего дерева заданий
[Optimization-2773] Улучшено отображение дерева каталогов источников данных с двумя полосами прокрутки
[Optimization-2822] Улучшено отображение подсказок страницы метрик
[Optimization] Улучшено отправление Flink на Yarn
[Optimization] Улучшено использование паттерна Builder для построения результатов в классе Explainer
[Optimization] Улучшено управление документами
[Optimization] Реализовано использование SPI для операторов
[Improve] Улучшено отображение всплывающих окон форм документов
[Optimization-2757] Улучшено отображение типа экземпляров Flink
[Optimization-2755] Улучшено отображение поля поиска деталей источников данных
[Optimization] Добавлено реализование ресурсов для DinkyClassLoaderДокументация:
[Документ] Улучшено описание списка экземпляров кластера в центре регистрации
[Документ] Улучшено описание оповещений в центре регистрации
[Документ] Улучшение документации Git-проекта для регистративного центра
[Документ] Улучшение документации быстрого старта для k8s
[Документ] Изменение домена
[Документ] Улучшение документации для регистративного и аутентификационного центров
[Документ] Улучшение документации для вкладчиков-разработчиков
[Документ] Добавление описания параметров в CDCSOURCE для Debezium.*
[Документ-2830] Обновление официальной документации по загрузке
[Документ] Изменение структуры официальной документации
Вкладчики:
@aiwenmo
@gayyan1998
@gitfortian
@leeoo
@leechor
@stdnt-xiao
@yangzehan
@zackyoungh
@Zzm0809
Dinky — это платформа для разработки данных на основе Apache Flink, которая позволяет быстро создавать и развертывать данные.
Dinky 1.0 — это переработанная версия, которая включает переработку существующих функций и добавление нескольких корпоративных функций, а также исправление некоторых ограничений версии 0.7. В настоящее время прямое обновление с 0.7 до 1.0 невозможно, но в будущем будут предоставлены схемы обновления.
Основные функции включают:- Разработка данных с использованием FlinkSQL: автозавершение, синтаксическое выделение, форматирование запросов, проверка синтаксиса, план выполнения, MetaStore, анализ зависимости, сравнение версий и т. д.
Характеристики:
Новые функции:
Документация:
Объединение исходного кода официального сайта в папку docs основного репозитория
Добавление документации для Flink 1.15
Исправление документации по полной синхронизации базы данных
Добавление документации для импорта и экспорта заданий
Оптимизация нескольких документов
Обновление документации для главной страницы и базовой информации
Добавление документации по расширению Flink для Redis
Оптимизация документации по развертыванию
Новые функции:
Исправления:
Конtribуторы:
Характеристики:
Upgrade Instructions
1.0.2 is a BUG repair version with table structure/data changes, please execute DINKY_HOME/sql/upgrade/1.0.2_schema/data source type/dinky_dml.sql
About SCALA version: The release version uses Scala-2.12. If your environment must use Scala-2.11, please compile it yourself.
Please refer to Compile Deployment and change the scala-2.12 in the profile. for scala-2.11
New Feature
Adapt to various Rest SvcTypes in KubernetsApplicationOperator mode and modify JobId to obtain judgment logic
Added SSE heartbeat mechanism
Added the function of automatically retrieving the latest highly available JobManager address (currently implemented in Yarn; not yet implemented in K8s)
Added the function of clearing logs in the console during data development
Support Flink1.19
Add task group related configuration when pushing to Apache DolphinScheduler
Added a user designated by the user to submit YarnApplication tasks
The startup script adds GC related startup parameters and supports configuring the DINKY_HOME environment variable
Implement FlinkSQL configuration item in cluster configuration to support RS protocol (Yarn mode only)
Fix
Fixed the problem of global variables not being recognized in YarnApplication mode, and reconstructed the YarnApplication submission method
Fixed the problem of data source heartbeat detection feedback error
Fix the possible 404 issue in front-end route jump
Fixed the issue of incorrect error prompt when global variable does not exist
Fixed the issue of cursor movement and flickering in the editor during front-end data development
Fixed the path error problem in the docker file of DockerfileDinkyFlink
Fixed the problem of unrecognized configuration Python options
Fixed null pointer exception in role user list
Fixed some issues when submitting K8s tasks
Fixed Oracle's Time type conversion problem when synchronizing the entire database
Fixed the problem that k8s pod template cannot be parsed correctly
Fixed the issue where SPI failed to load CodeGeneratorImpl
Fixed an issue where numeric columns declared with UNSIGNED / ZEROFILL keywords would cause parsing mismatches
Fixed the issue where the status of batch tasks is still unknown after completion
Fixed some unsafe interfaces that can be accessed without login authentication
Fixed the problem of unknown status in Pre-Job mode
Fixed the problem of retrieving multiple job instances due to duplicate Jid
Fixed the problem that the user list cannot be searched using worknum
Fixed the problem that the query data button on the right side of the result Tag page cannot be correctly rendered when querying data.
Fixed issues with print table syntax
Fixed the problem that the resource list cannot be refreshed after adding or modifying it
Fixed the issue of incorrect console rolling update task status for data development
Fixed the problem of occasional packaging failure
Fixed problems when building Git projects
Optimization
Optimize start and stop scripts
Optimize the problem of partial overflow of the global configuration page
Tips for optimizing UDF management
Optimize the user experience of the operation and maintenance center list page and support sorting by time
Optimize the warehouse address of default data in Git projects
Optimize flink jar task submission to support batch tasks
Optimize the problem that the right-click menu cannot be clicked when it overflows the visual area.
Optimize the primary key key of the list component of the operation and maintenance center
When modifying tasks, the modifiable template is optimized to an unmodifiable template.
Optimize the display method and type of cluster configuration
Optimize the logic of deleting clusters in K8s mode
Fixed the problem that the cluster is not automatically released in Application mode
Remove the logic of using Paimon for data source caching and change it to the default memory cache, which can be configured as redis cache
Removed the automatic pop-up of Console when switching tasks
Optimize the rendering logic of resource management. The resource management function cannot be used when resources are not turned on.
Optimize the detection logic of login status
Optimize login page feedback prompts
Removed some useless code on the front end
Optimize the problem that when the entire library is synchronized to build operator graphs multiple times, the order of the operator graphs is inconsistent, resulting in the inability to recover from the savepoint.
Some tips for optimizing resource allocation
Optimize and improve the replication function of the resource center, supporting all reference scenarios within Dinky currently
Safety
Exclude some high-risk jmx exposed endpoints
Document
Optimize expression variable expansion documentation
Optimize some practical documents for synchronization of the entire database
Add JDBC FAQ about tinyint type
Added a carousel image on the home page of the official document website
Fixed the description problem of resource configuration in document global configuration
Added documents related to environment configuration in global configuration
Delete some configuration items of Flink configuration in the global configuration
Added document configuration description for alarm type email