Hudi0.14.0集成Spark3.2.3(Spark SQL方式)

发布时间:2024年01月23日

1 整合Hive

For users who have Spark-Hive integration in their environment, this guide assumes that you have the appropriate settings configured to allow Spark to create tables and register in Hive Metastore.

我们使用 Hive添加第三方jar包方式总结 中**{HIVE_HOME}/lib**的方式添加第三发jar:

  1. Import hudi-hadoop-mr-bundleinto hive. moving hudi-hadoop-mr-bundle-0.14.0.jarinto {HIVE_HOME}/lib. hudi-hadoop-mr-bundle-0.14.0.jar is at packaging/hudi-hadoop-mr-bundle/target.
  2. 重启hiveserver2。

2 启动

# For Spark versions: 3.2 - 3.4
文章来源:https://blog.csdn.net/u011026329/article/details/135775336
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。