Hadoop安装笔记——备赛笔记——2024全国职业院校技能大赛“大数据应用开发”赛项——任务2:离线数据处理
发布时间:2023年12月26日
将下发的ds_db01.sql数据库文件放置mysql中
12、编写Scala代码,使用Spark将MySQL的ds_db01库中表user_info的全量数据抽取到Hive的ods库中表user_info。字段名称、类型不变,同时添加静态分区,分区字段为etl_date,类型为String,且值为当前日期的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.user_info命令,将结果截图粘贴至答案表.docx中对应的任务序号下;
13、?编写Scala代码,使用Spark将MySQL的ds_db01库中表sku_info的全量数据抽取到Hive的ods库中表sku_info。字段名称、类型不变,同时添加静态分区,分区字段为etl_date,类型为String,且值为当前日期的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.sku_info命令,将结果截图粘贴至答案表.docx中对应的任务序号下;
软件名称 | 版本 |
ubuntu | 18.04 ???64 位 |
Hadoop:hadoop-3.1.3.tar.gz | 3.1.3 |
Jdk:jdk-8u212-linux-x64.tar.gz | 1.8 |
Spark:spark-3.1.1-bin-hadoop3.2.tgz | 3.1.1 |
Hive:apache-hive-3.1.2-bin.tar.gz | 3.1.2 |
MySQL | 5.7 |
Scala:scala-2.12.x.tgz | 2.12 |
Vue.js | 3.2 |
ECharts | 5.1 |
JDBC驱动: ??mysql-connector-java-5.1.37.jar |
集成开发工具:IDEA 2022 社区版 |
文章来源:https://blog.csdn.net/Zhiyilang/article/details/135221951
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:chenni525@qq.com进行投诉反馈,一经查实,立即删除!