大数据培训课程安排有哪些,深圳大数据培训哪家好

大数据培训课程安排有哪些,深圳大数据培训哪家好,第1张

二选一的话,计算机专业学生,应该选Java。其他专业的学生,选Python。

为什么这么建议?

Java技术成熟度高,业界应用广泛,岗位多,求职机会多,但相应地,会的人也多,内卷比较厉害。计算机专业学生要学四年,只要别懒,还是有足够的时间把Java这把剑打磨得锋利的。

其他专业跨过来的,对于大多数普通学生,想在这种“内卷”的Java就业市场上取胜,想“干翻”竞争对手,在软件工程与编程技能这块就必须要达到一定的水准。编程是一种技能,是需要时间去磨出来的。如果以前没有基础,"临时"转的,在时间上恐怕就来不及了。

相反,Python入门简易,对软件开发技能这块并不要求太高,重点和难点反而是特定的应用领域本身,这时,诸如数学、行业背景知识等因素的重要性反而突显出来,在这些方面,计算机专业的学生未必占有优势,甚至可能是居于劣势。

扬长避短,是取胜的重要原则。

以上观点针对大多数普通学生,排除个例与特例。

Datastream作业开发时往往会遇到一些jar包冲突等问题,本文主要讲解作业开发时需要引入哪些依赖以及哪些需要被打包进作业的jar中,从而避免不必要的依赖被打入了作业jar中以及可能产生的依赖冲突。

一个Datastream作业主要涉及下述依赖:

每一个Flink应用程序都依赖于一系列相关的库,其中至少应该包括Flink的API 许多应用程序还依赖于连接器相关的库(如 Kafka, Cassandra等)在运行Flink应用程序时,无论是在运行在分布式的环境下还是在本地IDE进行测试,Flink的运行时相关依赖都是必须的。

与大多数运行用户自定义应用程序的系统一样,Flink 中有两大类依赖项:

每一个Flink应用程序的开发至少需要添加对相关API的基础依赖。

手动配置项目时,需要添加对Java/Scala API的依赖(这里以Maven为例,在其他构建工具(Gradle,SBT等)中可以使用同样的依赖)。

重要提示 :请注意,所有这些依赖项都将其范围设置为"provided"。这意味着需要对它们进行编译,但不应将它们打包到项目生成的应用程序jar文件中——这些依赖项是Flink核心依赖项,在实际运行时已经被加载。

强烈建议将依赖项设置成"provided"的范围,如果未将它们设置为"provided",最好的情况下会导致生成的jar变得臃肿,因为它还包含所有Flink核心依赖项。而最怀的情况下,添加到应用程序jar文件中的Flink核心依赖项与您自己的一些依赖项会发生版本冲突(通常通过Flink的反向类加载机制来避免)。

关于IntelliJ的注意事项 :为了使应用程序在IntelliJ IDEA中运行,有必要在运行配置中勾选"Include dependencies with "Provided" scope"选项框。如果没有该选项(可能是由于使用较旧的IntelliJ IDEA版本),那么一个简单的解决方法是创建一个调用应用程序 main() 方法的测试用例。

大多数应用程序的运行需要特定的连接器或库,例如Kafka、Cassandra等连接器。这些连接器不是Flink核心依赖项的一部分,必须作为额外依赖项添加到应用程序中。

下述代码是添加Kafka连接器依赖项的示例(Maven语法):

我们建议将应用程序代码和它所有的依赖以 jar-with-dependencies 的形式打包到一个 application jar中。 这个应用程序jar包可以被提交到已经存在的Flink集群上去,或者被加入到Flink应用程序的容器镜像中去。

从Maven作业模版(见下文Maven作业模版部分)创建的项目,通过mvn clean package命令会自动把依赖打到应用程序的jar包中去。对于没有使用模版进行配置的情况,建议使用Maven Shade Plugin (配置如附录所示) 来构建包含依赖的jar包。

重要提示 :对于Maven(和其他构建工具)来说,要将依赖项正确打包到应用程序jar中,这些应用程序依赖项的scope必须指定为"compile"(与核心依赖项不同,核心依赖项的scope必须指定为"provided")。

Scala的不同版本(211,212等)相互之间是不兼容的。因此,Scala 211对应的Flink版本不能用于使用Scala 212的应用程序。

所有依赖(或传递依赖)于Scala的Flink依赖项都以构建它们的Scala版本作为后缀,例如flink-streaming-scala_211。

只使用Java进行开发时可以选择任何Scala版本,使用Scala开发时需要选择与其应用程序的Scala版本匹配的Flink依赖版本。

:2128之后的Scala版本与之前的212x版本不兼容,因此Flink项目无法将其212x版本升级到2128之后的版本。用户可以在本地自己编译对应Scala版本的Flink。为了使其能够正常工作,需要添加-Djapicmpskip以在构建时跳过二进制兼容性检查。

一般的规则: 永远不要将Hadoop相关依赖直接添加到应用程序中 (唯一的例外是将现有的Hadoop输入/输出Format与Flink的Hadoop兼容包一起使用时)

如果希望将Flink与Hadoop结合使用,则需要包含Hadoop依赖的Flink启动项,而不是将Hadoop添加为应用程序依赖项。Flink将使用HADOOP_CLASSPATH环境变量指定的Hadoop依赖项,可通过以下方式进行设置:

export HADOOP_CLASSPATH=hadoop classpath``

这种设计有两个主要原因:

如果在IDE内部的测试或开发过程中需要Hadoop依赖项(例如HDFS访问),请将这些依赖项的scope配置为

test 或则 provided 。

Flink使用Java的Service Provider Interfaces (SPI) 机制通过特定标识符加载table的connector/format工厂。由于每个table的connector/format的名为orgapacheflinktablefactoriesFactory的SPI资源文件位于同一目录:META-INF/services下,因此在构建使用多个table connector/format的项目的uber jar时,这些资源文件将相互覆盖,这将导致Flink无法正确加载工厂类。

在这种情况下,推荐的方法是通过maven shade插件的ServicesResourceTransformer转换META-INF/services目录下的这些资源文件。给定示例的pomxml文件内容如下,其中包含连接器flink-sql-connector-hive-312和flink-parquet format。

在配置了ServicesResourceTransformer之后, 项目构建uber-jar时,META-INF/services目录下的这些资源文件会被整合在一起而不是相互覆盖。

强烈建议使用该方式进行配置,可以减少很多重复的配置工作。

唯一的环境要求是安装了Maven 304(或更高版本)和Java 8x。

使用以下两种方式中的一种创建项目 :

这允许您命名新创建的项目。它将以交互方式要求您输入groupId、artifactId和包名。

我们建议您将此项目导入IDE以开发和测试它。IntelliJ IDEA原生支持Maven项目。如果使用Eclipse,可以使用m2e插件导入Maven项目。默认情况下,某些Eclipse捆绑包包含该插件,否则需要您手动安装。

请注意 :默认的Java JVM heap size对于Flink来说可能太小了。你必须手动增加它。在Eclipse中,选择RunConfigurations->Arguments并写入VM Arguments框:-Xmx800m。在IntelliJ IDEA中,更改JVM选项的推荐方法是使用Help | Edit Custom VM Options选项菜单。细节见这篇文章

如果要生成/打包项目,请转到项目目录并运行"mvn clean package"命令。执行后将会得到一个JAR文件:target/-jar,其中包含您的应用程序,以及作为依赖项添加到应用程序的连接器和库。

注意 :如果使用与StreamingJob不同的类作为应用程序的主类/入口点,我们建议您相应地更改pomxml文件中的mainClass设置。这样,Flink就可以直接从JAR文件运行应用程序,而无需另外指定主类。

要构建包含连接器和库所需的所有依赖项的应用程序JAR,可以使用以下shade插件定义:

原文链接:301 Moved Permanently


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zz/10697551.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-10
下一篇 2023-05-10

发表评论

登录后才能评论

评论列表(0条)

保存