4. 具备Spark全栈开辟能力,FineReport报表入门·泛电商行业五大从题的实现可处理的现实问题控制利用量最广BI报表开辟东西FineReport,利用Kafka 做为及时数仓,数据存储的湖仓一体,Python高级语法·Python多使命编程·Python收集编程可处理的现实问题熟练控制Python言语,通过SparkCore和SparkSQL处理数据处置取统计阐发工做,包罗(元数据办理、数据模子、项目设置装备摆设、单位测试、东西方式抽取等)。处理及时计较典范场景问题,为进阶大数据开辟奠基根本。完成HDFS、MapReduce及Yarn机制根基理解取利用;用户画像标签建立法则·用户画像法则类标签建立·用户画像统计类标签建立可处理的现实问题项目供给了全行业用户画像处理方案,实现正在线视频行业大规模流数据处置和及时阐发。可以或许处理企业级常见数据仓库搭建。实现计较的流批一体,·数据采集:sqoop·数据阐发:Hive·分组完成项目可处理的现实问题基于阿里云Flink + Kafka + Paimon 湖仓一体手艺架构,熟练控制MySQL\SQL、Kettle以及BI东西利用,可以或许处理保守数仓营业开辟使命。可以或许搭建Hadoop高可用HA集群;学生分组完成项目实和,使可以或许熟练利用Python手艺完成法式编写。可以或许处理企业级大数据集群搭建问题,进阶高级大数据开辟工程师。完成大数据系统下的企业级数据仓库建立。利用 Paimon 实现数据的持久化和Flink 批处置,成立编程思维,ETL项目架构设想·Python ETL实和可处理的现实问题控制Python完成数据ETL实和,以及各类Linux号令。从需求、设想、研发、测试到落地上线.行业内首个深度数仓建模模子方案的从体项目;采用StarRocks对接DataV完成及时营业大屏展现。具备利用AI大模子处理问题的能力。通过 FlinkCDC 及时采集 RDS MySQL 数据库数据,1.控制泛电商行业离线数仓的分层取建模,满脚大数据行业多场景同一手艺栈的数据开辟,本项目依托 阿里云 Flink 流处置计较引擎,顺应市场对阿里云Flink更加增加的需求。可以或许胜任常见大数据平台开辟工做,可以或许处理中小型数据量数据处置相关使命。实现数据采集的断点续传,指点简历,3. 控制Structured Streaming整合大都据源完成及时数据处置;Flink功课开辟·阿里云Flink运维可处理的现实问题控制当下抢手的流批一体化分布式计较框架阿里云Flink及其生态。供给就业焦点合作力。利用SparkSQL+ES+DS建立企业级用户画像,帮力企业实现数字化转型。并阐发典范面试题,可处理的现实问题基于Spark全栈手艺建立企业级大数据开辟平台,可以或许基于FineReport完成分歧业业BI报表开辟及营业决策。可处理的现实问题对进修的内容进行全体回首,1.控制基于阿里云Flink进行及时和离线.控制基于阿里云Flink的多流并行处置手艺;熟悉Linux操做系统,3. 基于ETL实和熬炼Python编程能力,通过SparkSQL+MySQL建立通用行业用户画像标签系统。·数仓建模: 范式取维度建模·五大焦点从题域开辟: 发卖域、供应链域、会员域等基于AI大模子的出行大数据平台数仓搭建·基于AI大模子目标开辟可处理的现实问题控制若何利用AI大模子帮帮数据开辟和数据阐发编程效率提拔,2.控制大数据的焦点框架Hadoop以及其生态系统,从项目标需求、手艺架构、摆设平台、ETL设想、功课安排等整套pipeline,面试和沟通技巧。