Skip to content

Commit ebfd612

Browse files
dataroaringdaveyyanCopilot
committed
[typo](docs) some chinese/english typos for dev/3.x/4.x (#3378)
## Summary - Reapply the typo fixes from #1769 for `dev`, `3.x`, and `4.x`. - Fix `kakfa`/`Kakfa` -> `kafka`/`Kafka` in Chinese import docs and community trino connector guides (EN/ZH). - Fix wording in Chinese EXPLAIN docs: `具体方式先下表` -> `具体方式见下表`. ## Scope Check (dev / 3.x / 4.x) - [x] Checked English docs - [x] Checked Chinese docs ## Versions - [x] dev - [x] 4.x - [x] 3.x - [ ] 2.1 - [ ] 2.0 ## Languages - [x] Chinese - [x] English ## Reference - Original PR: #1769 --------- Co-authored-by: daveyyan <875267695@qq.com> Co-authored-by: Copilot <175728472+Copilot@users.noreply.github.com>
1 parent cb0ce25 commit ebfd612

11 files changed

Lines changed: 16 additions & 21 deletions

File tree

community/how-to-contribute/trino-connector-developer-guide.md

Lines changed: 2 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -39,7 +39,7 @@ The following takes Trino's kafka Connector plugin as an example to introduce in
3939

4040
> Note: Trino is an Apache License 2.0 protocol open source software provided by [Trino Software Foundation](https://trino.io/foundation). For details, please visit [Trino official website](https://trino.io/docs/current/).
4141
42-
## Step 1: Compile Kakfa connector plugin
42+
## Step 1: Compile Kafka connector plugin
4343

4444
Trino does not provide officially compiled connector plugins, so we need to compile the required connector plugins ourselves.
4545

@@ -82,7 +82,7 @@ After completing the previous two steps, we can use the Trino-Connector Catalog
8282
```sql
8383
create catalog kafka_tpch properties (
8484
"type"="trino-connector",
85-
-- The following four properties are derived from trino and are consistent with the properties in etc/catalog/kakfa.properties of trino. But need to add "trino." prefix
85+
-- The following four properties are derived from trino and are consistent with the properties in etc/catalog/kafka.properties of trino. But need to add "trino." prefix
8686
"trino.connector.name"="kafka",
8787
"trino.kafka.table-names"="tpch.customer,tpch.orders,tpch.lineitem,tpch.part,tpch.partsupp,tpch.supplier,tpch.nation,tpch.region",
8888
"trino.kafka.nodes"="localhost:9092",
@@ -154,4 +154,3 @@ The following are the Doris Trino-Connector catalog configuration of several com
154154
"trino.bigquery.credentials-file"="/path/to/application_default_credentials.json"
155155
);
156156
```
157-

i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md

Lines changed: 2 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -37,7 +37,7 @@ Trino Connector 兼容框架的目的在于帮助 Doris 快速对接更多的数
3737

3838
> 注:Trino 是一款由 [Trino 软件基金会](https://trino.io/foundation) 提供的 Apache License 2.0 协议开源软件,详情可访问 [Trino 官网](https://trino.io/docs/current/)
3939
40-
## Step 1:编译 Kakfa Connector 插件
40+
## Step 1:编译 Kafka Connector 插件
4141

4242
Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己编译所需 Connector 插件。
4343

@@ -81,7 +81,7 @@ Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己
8181
```sql
8282
create catalog kafka_tpch properties (
8383
"type"="trino-connector",
84-
-- 下面这四个属性来源于 trino,与 trino 的 etc/catalog/kakfa.properties 中的属性一致。但需要统一增加 "trino." 前缀
84+
-- 下面这四个属性来源于 trino,与 trino 的 etc/catalog/kafka.properties 中的属性一致。但需要统一增加 "trino." 前缀
8585
"trino.connector.name"="kafka",
8686
"trino.kafka.table-names"="tpch.customer,tpch.orders,tpch.lineitem,tpch.part,tpch.partsupp,tpch.supplier,tpch.nation,tpch.region",
8787
"trino.kafka.nodes"="localhost:9092",
@@ -153,4 +153,3 @@ Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己
153153
"trino.bigquery.credentials-file"="/path/to/application_default_credentials.json"
154154
);
155155
```
156-

i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md

Lines changed: 1 addition & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
441441
| kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
442442
| kafka_topic | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
443443
| kafka_partitions | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
444-
| kafka_offsets | 待消费的 Kakfa Partition 中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = "101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
444+
| kafka_offsets | 待消费的 Kafka Partition 中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = "101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
445445
| property | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的 Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE FILE](../../../sql-manual/sql-statements/security/CREATE-FILE) 命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方 [CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md) 文档中,client 端的配置项。如:`"property.client.id" = "12345"``"property.group.id" = "group_id_0"``"property.ssl.ca.location" = "FILE:ca.pem"`|
446446

447447
通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种 Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
18501850
## 更多帮助
18511851
18521852
参考 SQL 手册 [Routine Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入 `HELP ROUTINE LOAD` 获取更多帮助信息。
1853-

i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -50,6 +50,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
5050
| [Broker Load](./import-way/broker-load-manual.md) | 从对象存储、HDFS 等导入 | csv、json、parquet、orc | 异步 |
5151
| [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | SQL | 同步 |
5252
| [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 可以导入外部表或者对象存储、HDFS 中的文件 | SQL | 同步 |
53-
| [Routine Load](./import-way/routine-load-manual.md) |kakfa 实时导入 | csv、json | 异步 |
53+
| [Routine Load](./import-way/routine-load-manual.md) |Kafka 实时导入 | csv、json | 异步 |
5454
| [MySQL Load](./import-way/mysql-load-manual.md) | 从本地数据导入 | csv | 同步 |
5555
| [Group Commit](./group-commit-manual.md) | 高频小批量导入 | 根据使用的导入方式而定 | - |

i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -109,7 +109,7 @@ Doris EXPLAIN 语句的结果是一个完整的 PLAN。PLAN 内部是按照执
109109
| :----------------- | :--------------------------------------- |
110110
| PARTITION | 展示当前 Fragment 的数据分布情况 |
111111
| HAS_COLO_PLAN_NODE | 当前 fragment 中是否存在 colocate 的算子 |
112-
| Sink | fragment 数据输出的方式,具体方式先下表 |
112+
| Sink | fragment 数据输出的方式,具体方式见下表 |
113113

114114
Sink 方式
115115

@@ -398,4 +398,4 @@ TupleDescriptor{id=0, tbl=t1}
398398
| :------------ | :-------------------------------------- |
399399
| order by | 排序的键,以及具体的排序顺序 |
400400
| TOPN OPT | 命中 topn runtime filter 优化时有此字段 |
401-
| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |
401+
| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |

i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md

Lines changed: 1 addition & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
441441
| kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
442442
| kafka_topic | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
443443
| kafka_partitions | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
444-
| kafka_offsets | 待消费的 Kakfa Partition 中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = "101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
444+
| kafka_offsets | 待消费的 Kafka Partition 中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 开始订阅 topic 下的所有 partition。</p> <p>可以指定多个起始消费点,使用逗号分隔,如:`"kafka_offsets" = "101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
445445
| property | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的 Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE FILE](../../../sql-manual/sql-statements/security/CREATE-FILE) 命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方 [CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md) 文档中,client 端的配置项。如:`"property.client.id" = "12345"``"property.group.id" = "group_id_0"``"property.ssl.ca.location" = "FILE:ca.pem"`|
446446

447447
通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种 Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
18501850
## 更多帮助
18511851
18521852
参考 SQL 手册 [Routine Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入 `HELP ROUTINE LOAD` 获取更多帮助信息。
1853-

i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -45,6 +45,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
4545
| [Broker Load](./import-way/broker-load-manual.md) | 从对象存储、HDFS 等导入 | csv、json、parquet、orc | 异步 |
4646
| [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | SQL | 同步 |
4747
| [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 可以导入外部表或者对象存储、HDFS 中的文件 | SQL | 同步 |
48-
| [Routine Load](./import-way/routine-load-manual.md) |kakfa 实时导入 | csv、json | 异步 |
48+
| [Routine Load](./import-way/routine-load-manual.md) |Kafka 实时导入 | csv、json | 异步 |
4949
| [MySQL Load](./import-way/mysql-load-manual.md) | 从本地数据导入 | csv | 同步 |
5050
| [Group Commit](./group-commit-manual.md) | 高频小批量导入 | 根据使用的导入方式而定 | - |

i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -109,7 +109,7 @@ Doris EXPLAIN 语句的结果是一个完整的 PLAN。PLAN 内部是按照执
109109
| :----------------- | :--------------------------------------- |
110110
| PARTITION | 展示当前 Fragment 的数据分布情况 |
111111
| HAS_COLO_PLAN_NODE | 当前 fragment 中是否存在 colocate 的算子 |
112-
| Sink | fragment 数据输出的方式,具体方式先下表 |
112+
| Sink | fragment 数据输出的方式,具体方式见下表 |
113113

114114
Sink 方式
115115

@@ -398,4 +398,4 @@ TupleDescriptor{id=0, tbl=t1}
398398
| :------------ | :-------------------------------------- |
399399
| order by | 排序的键,以及具体的排序顺序 |
400400
| TOPN OPT | 命中 topn runtime filter 优化时有此字段 |
401-
| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |
401+
| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段 |

i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md

Lines changed: 1 addition & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
441441
| kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
442442
| kafka_topic | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
443443
| kafka_partitions | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
444-
| kafka_offsets | 待消费的 Kakfa Partition 中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = "101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
444+
| kafka_offsets | 待消费的 Kafka Partition 中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 开始订阅 topic 下的所有 partition。</p> <p>可以指定多个起始消费点,使用逗号分隔,如:`"kafka_offsets" = "101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
445445
| property | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的 Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE FILE](../../../sql-manual/sql-statements/security/CREATE-FILE) 命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方 [CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md) 文档中,client 端的配置项。如:`"property.client.id" = "12345"``"property.group.id" = "group_id_0"``"property.ssl.ca.location" = "FILE:ca.pem"`|
446446

447447
通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种 Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
18501850
## 更多帮助
18511851
18521852
参考 SQL 手册 [Routine Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入 `HELP ROUTINE LOAD` 获取更多帮助信息。
1853-

i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -46,6 +46,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
4646
| [Broker Load](./import-way/broker-load-manual.md) | 从对象存储、HDFS 等导入 | csv、json、parquet、orc | 异步 |
4747
| [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | SQL | 同步 |
4848
| [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 可以导入外部表或者对象存储、HDFS 中的文件 | SQL | 同步 |
49-
| [Routine Load](./import-way/routine-load-manual.md) |kakfa 实时导入 | csv、json | 异步 |
49+
| [Routine Load](./import-way/routine-load-manual.md) |Kafka 实时导入 | csv、json | 异步 |
5050
| [MySQL Load](./import-way/mysql-load-manual.md) | 从本地数据导入 | csv | 同步 |
5151
| [Group Commit](./group-commit-manual.md) | 高频小批量导入 | 根据使用的导入方式而定 | - |

0 commit comments

Comments
 (0)