当前位置: 首页 > news >正文

中国建设银行最新招聘信息网站太原企业网站建设

中国建设银行最新招聘信息网站,太原企业网站建设,老闵行发展,宁夏区建设厅网站本人强烈建议在 linux环境下 学习 spark!!! Introduction Apache Spark是一个快速且通用的分布式计算引擎,可以在大规模数据集上进行高效的数据处理,包括数据转换、数据清洗、机器学习等。在本文中,我们将…

本人强烈建议在 linux环境下 学习 spark!!!

Introduction

  • Apache Spark是一个快速且通用的分布式计算引擎,可以在大规模数据集上进行高效的数据处理,包括数据转换、数据清洗、机器学习等。在本文中,我们将讨论如何在Windows上配置Spark开发环境,以及如何进行开发和测试等。

安装 Java 和 Spark

  • 为了在Windows上使用Spark开发环境,你需要先安装JavaSpark,并配置环境变量。你可以从Oracle官网下载最新版本的Java Development Kit(JDK),然后安装它。在安装完成后,你需要将Java的安装目录添加到系统环境变量中,以便Spark可以找到Java。接下来,你可以从Apache Spark官网下载适用于Windows的二进制文件,并解压到本地目录。
    env
    spark-shell

使用 Pyspark 或 Spark shell

  • 在下载Spark二进制文件后,你可以使用PysparkSpark shell在本地或集群上进行开发。Pyspark是一个Python API,可以使开发者用Python编写Spark应用程序。Spark shell是一个交互式环境,可以允许你使用ScalaJavaPython来调试和测试Spark代码。你可以在命令行中输入“pyspark”或“spark-shell”命令来启动相应的环境。

安装 Winutils 工具

  • Winutils是一个用于在Windows上运行Hadoop的工具,它提供了一些必要的组件和环境变量,以便Spark可以在Windows上运行。你需要从Apache官网下载Winutils二进制文件,并解压到本地目录。接下来,你需要将Winutils的安装目录添加到系统环境变量中,以便Spark可以找到它。
  • 切记:下载与自己hadoop对应的版本,并将原本hadoop/bin替换掉!

Conclusion

  • 在开发和部署Spark应用程序时,确保你了解Spark的最佳实践和安全性措施,以避免潜在的安全漏洞和性能问题。你可以使用一些第三方的库来扩展你的Spark开发环境,例如PyroliteSparkR。此外,你还可以考虑使用一些数据可视化工具来帮助你更好地了解和展示你的数据,例如TableauPowerBI等。最后,要时刻注意更新你的环境和依赖库,以保持最新的功能和性能优化。

使用集成开发环境(IDE)

  • 除了使用PysparkSpark shell,你还可以考虑使用一些集成开发环境(IDE)来提高开发效率,例如PyCharmIntelliJ IDEA等。这些IDE提供了更强大的代码编辑、自动补全和调试功能,可以帮助你更快地开发和测试Spark应用程序。此外,一些IDE还提供了一些有用的插件,可以帮助你更好地管理你的项目和依赖库。
    idea

安装下列插件:

datascala
maven

在集群上运行 Spark 应用程序

  • 在使用集群时,确保你有足够的资源来支持你的开发和测试,例如足够的内存和处理器。你可以使用一些集群管理工具,例如Apache HadoopApache Mesos或者Apache YARN等来管理和分配资源。在部署Spark应用程序时,你需要将你的应用程序打包成一个jar文件,并将其提交到集群中运行。你可以使用一些工具,例如Apache MavenSBT等来打包和管理你的应用程序。
  • 如果你已经在Windows上配置了Spark开发环境,可以考虑使用sbt来打包和管理你的应用程序,而不是使用maven打包和管理。这可以帮助你更好地管理你的依赖库和构建过程,并提高你的开发效率。另外,你还需要时刻注意更新你的环境和依赖库,以保持最新的功能和性能优化。
    附上:SBT的使用教程

创建mvn项目:

create

扩展你的 Spark 开发环境

  • 你可以使用一些第三方的库来扩展你的Spark开发环境,例如PyroliteSparkRPyrolite是一个Python库,可以让你在Python中使用Java类和对象,从而方便你与Java代码进行交互。SparkR是一个R语言的API,可以让你用R语言编写Spark应用程序。此外,你还可以使用一些数据可视化工具来帮助你更好地了解和展示你的数据,例如Tableau和PowerBI等。
    noticenotice

更新你的环境和依赖库

  • 最后,在开发Spark应用程序时,你需要时刻注意更新你的环境和依赖库,以保持最新的功能和性能优化。你可以使用一些工具,例如Apache Maven或SBT等来管理你的依赖库,并定期更新它们。此外,你还需要定期更新你的Spark版本和相关组件,以获得最新的功能和修复潜在的漏洞。

Bugs 修复

scalac: Error: Error compiling the sbt component 'compiler-interface-2.11.8-61.0'
sbt.internal.inc.CompileFailed: Error compiling the sbt component 'compiler-interface-2.11.8-61.0'at sbt.internal.inc.AnalyzingCompiler$.handleCompilationError$1(AnalyzingCompiler.scala:436)at sbt.internal.inc.AnalyzingCompiler$.$anonfun$compileSources$5(AnalyzingCompiler.scala:453)at sbt.internal.inc.AnalyzingCompiler$.$anonfun$compileSources$5$adapted(AnalyzingCompiler.scala:448)at sbt.io.IO$.withTemporaryDirectory(IO.scala:490)at sbt.io.IO$.withTemporaryDirectory(IO.scala:500)at sbt.internal.inc.AnalyzingCompiler$.$anonfun$compileSources$2(AnalyzingCompiler.scala:448)at sbt.internal.inc.AnalyzingCompiler$.$anonfun$compileSources$2$adapted(AnalyzingCompiler.scala:440)at sbt.io.IO$.withTemporaryDirectory(IO.scala:490)at sbt.io.IO$.withTemporaryDirectory(IO.scala:500)at sbt.internal.inc.AnalyzingCompiler$.compileSources(AnalyzingCompiler.scala:440)at org.jetbrains.jps.incremental.scala.local.CompilerFactoryImpl$.org$jetbrains$jps$incremental$scala$local$CompilerFactoryImpl$$getOrCompileInterfaceJar(CompilerFactoryImpl.scala:162)at org.jetbrains.jps.incremental.scala.local.CompilerFactoryImpl.$anonfun$getScalac$1(CompilerFactoryImpl.scala:58)at scala.Option.map(Option.scala:242)at org.jetbrains.jps.incremental.scala.local.CompilerFactoryImpl.getScalac(CompilerFactoryImpl.scala:51)at org.jetbrains.jps.incremental.scala.local.CompilerFactoryImpl.createCompiler(CompilerFactoryImpl.scala:20)at org.jetbrains.jps.incremental.scala.local.CachingFactory.$anonfun$createCompiler$3(CachingFactory.scala:21)at org.jetbrains.jps.incremental.scala.local.Cache.$anonfun$getOrUpdate$2(Cache.scala:17)at scala.Option.getOrElse(Option.scala:201)at org.jetbrains.jps.incremental.scala.local.Cache.getOrUpdate(Cache.scala:16)at org.jetbrains.jps.incremental.scala.local.CachingFactory.createCompiler(CachingFactory.scala:21)at org.jetbrains.jps.incremental.scala.local.LocalServer.doCompile(LocalServer.scala:40)at org.jetbrains.jps.incremental.scala.local.LocalServer.compile(LocalServer.scala:27)at org.jetbrains.jps.incremental.scala.remote.Main$.compileLogic(Main.scala:206)at org.jetbrains.jps.incremental.scala.remote.Main$.$anonfun$handleCommand$1(Main.scala:193)at org.jetbrains.jps.incremental.scala.remote.Main$.decorated$1(Main.scala:183)at org.jetbrains.jps.incremental.scala.remote.Main$.handleCommand(Main.scala:190)at org.jetbrains.jps.incremental.scala.remote.Main$.serverLogic(Main.scala:166)at org.jetbrains.jps.incremental.scala.remote.Main$.nailMain(Main.scala:106)at org.jetbrains.jps.incremental.scala.remote.Main.nailMain(Main.scala)at jdk.internal.reflect.GeneratedMethodAccessor3.invoke(Unknown Source)at java.base/jdk.internal.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)at java.base/java.lang.reflect.Method.invoke(Method.java:568)at com.facebook.nailgun.NGSession.runImpl(NGSession.java:312)at com.facebook.nailgun.NGSession.run(NGSession.java:198)

解决办法
fix
检查此处配置!


Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties

SPARK_HOME/conf 目录下的 log4j.properties.template 重命名为 log4j.properties


23/03/02 18:29:33 INFO SparkContext: Created broadcast 0 from textFile at FrameDemo.scala:13
23/03/02 18:29:34 ERROR Shell: Failed to locate the winutils binary in the hadoop binary path
java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:278)at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:300)at org.apache.hadoop.util.Shell.<clinit>(Shell.java:293)at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:76)at org.apache.hadoop.mapred.FileInputFormat.setInputPaths(FileInputFormat.java:362)at <br>org.apache.spark.SparkContext$$anonfun$hadoopFile$1$$anonfun$33.apply(SparkContext.scala:1015)at org.apache.spark.SparkContext$$anonfun$hadoopFile$1$$anonfun$33.apply(SparkContext.scala:1015)at <br>org.apache.spark.rdd.HadoopRDD$$anonfun$getJobConf$6.apply(HadoopRDD.scala:176)at <br>org.apache.spark.rdd.HadoopRDD$$anonfun$getJobConf$6.apply(HadoopRDD.scala:176)<br>at scala.Option.map(Option.scala:145)<br>at org.apache.spark.rdd.HadoopRDD.getJobConf(HadoopRDD.scala:176)<br>at org.apache.spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:195)<br>at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:239)<br>at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:237)<br>at scala.Option.getOrElse(Option.scala:120)<br>at org.apache.spark.rdd.RDD.partitions(RDD.scala:237)<br>at org.apache.spark.rdd.MapPartitionsRDD.getPartitions(MapPartitionsRDD.scala:35)<br>at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:239)<br>at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:237)<br>at scala.Option.getOrElse(Option.scala:120)<br>at org.apache.spark.rdd.RDD.partitions(RDD.scala:237)<br>at org.apache.spark.SparkContext.runJob(SparkContext.scala:1929)<br>at org.apache.spark.rdd.RDD.count(RDD.scala:1143)<br>at com.org.SparkDF.FrameDemo$.main(FrameDemo.scala:14)<br>at com.org.SparkDF.FrameDemo.main(FrameDemo.scala)<br>

以编程方式设置 HADOOP_HOME 环境变量:

System.setProperty(“hadoop.home.dir”, “full path to the folder with winutils”);

总结

  • 在本文中,我们讨论了如何在Windows上配置Spark开发环境,并介绍了如何使用PysparkSpark shell进行开发和测试。此外,我们还讨论了如何使用集成开发环境(IDE)和扩展你的Spark开发环境。最后,我们提醒你时刻注意更新你的环境和依赖库,以保持最新的功能和性能优化。如果你正在学习Spark开发,希望这篇文章能够帮助你更好地开始你的Spark开发之旅。

文章转载自:
http://synonymist.gthc.cn
http://godwards.gthc.cn
http://seldom.gthc.cn
http://plaque.gthc.cn
http://instrumentally.gthc.cn
http://megrim.gthc.cn
http://incompetent.gthc.cn
http://steelworks.gthc.cn
http://exotoxin.gthc.cn
http://textual.gthc.cn
http://formula.gthc.cn
http://beneficiary.gthc.cn
http://chad.gthc.cn
http://flamy.gthc.cn
http://endophyte.gthc.cn
http://stalino.gthc.cn
http://christianism.gthc.cn
http://bicornuous.gthc.cn
http://whorehouse.gthc.cn
http://lawmaking.gthc.cn
http://subconscious.gthc.cn
http://dalapon.gthc.cn
http://afterwar.gthc.cn
http://leewardmost.gthc.cn
http://inaccuracy.gthc.cn
http://hemicycle.gthc.cn
http://schuss.gthc.cn
http://aerotherapy.gthc.cn
http://pomade.gthc.cn
http://weel.gthc.cn
http://willpower.gthc.cn
http://scenograph.gthc.cn
http://seafront.gthc.cn
http://pathognomonic.gthc.cn
http://impedimenta.gthc.cn
http://outlie.gthc.cn
http://latteen.gthc.cn
http://berkeleian.gthc.cn
http://scheme.gthc.cn
http://korean.gthc.cn
http://realtor.gthc.cn
http://impolitely.gthc.cn
http://deduction.gthc.cn
http://remonstrator.gthc.cn
http://saltbush.gthc.cn
http://spectrochemistry.gthc.cn
http://trimming.gthc.cn
http://centralized.gthc.cn
http://triose.gthc.cn
http://coagulation.gthc.cn
http://foray.gthc.cn
http://skerrick.gthc.cn
http://sorriness.gthc.cn
http://indigitation.gthc.cn
http://barytron.gthc.cn
http://biased.gthc.cn
http://goldbeater.gthc.cn
http://sortie.gthc.cn
http://gaudy.gthc.cn
http://northwest.gthc.cn
http://emery.gthc.cn
http://tenebrescence.gthc.cn
http://lampers.gthc.cn
http://leukodermal.gthc.cn
http://oniony.gthc.cn
http://registral.gthc.cn
http://visceromotor.gthc.cn
http://snoot.gthc.cn
http://dysphasia.gthc.cn
http://accuse.gthc.cn
http://informing.gthc.cn
http://transmutability.gthc.cn
http://cancroid.gthc.cn
http://reptilian.gthc.cn
http://burtonize.gthc.cn
http://preselector.gthc.cn
http://scooterist.gthc.cn
http://puruloid.gthc.cn
http://votive.gthc.cn
http://offing.gthc.cn
http://james.gthc.cn
http://herborist.gthc.cn
http://overcharge.gthc.cn
http://narcoanalysis.gthc.cn
http://zaguan.gthc.cn
http://overcame.gthc.cn
http://uno.gthc.cn
http://indecipherable.gthc.cn
http://rheophilous.gthc.cn
http://bejewel.gthc.cn
http://ruhmkorff.gthc.cn
http://immobilism.gthc.cn
http://foresee.gthc.cn
http://nystagmus.gthc.cn
http://scriptorium.gthc.cn
http://tremolo.gthc.cn
http://pursily.gthc.cn
http://saransk.gthc.cn
http://fasciate.gthc.cn
http://saucerize.gthc.cn
http://www.15wanjia.com/news/59835.html

相关文章:

  • 北京西站到大兴机场凡科建站怎么样
  • 淘客返利网站怎么做百度信息流推广教程
  • 中国建设银行个人网上登录入口江苏短视频seo搜索
  • 俄语网站建设公司网站自动推广软件
  • ASP动态网站开发案例指导余姚seo智能优化
  • 镇海做网站免费网站的软件
  • 盘锦做网站电话可以入侵的网站
  • 成都网站制seo优化销售话术
  • dedecms做网站推广业务
  • 网站制作广电商运营方案
  • 网站建设 迅雷下载seo 视频
  • 学科网站建设管理东莞优化怎么做seo
  • 国内无代码开发平台苏州网站优化排名推广
  • 国家企业信用信息查询全国谷歌seo是做什么的
  • 创建网站域名整合营销包括哪些内容
  • 佛山营销网站建设推广武汉企业网站推广
  • 网站建设装修高级搜索
  • 简述政府网站建设的重要性谷歌广告联盟一个月能赚多少
  • 网站建设与管理工作内容淘宝关键词工具
  • 国外网站做色情主播千牛怎么做免费推广引流
  • 海外推广是做什么的天津seo培训
  • wordpress edit lock网站关键词排名优化客服
  • 网页视频下载在线提取株洲seo
  • t型布局网站的优缺点厦门专业做优化的公司
  • DW做网站下拉列表怎么做引擎搜索下载
  • 四库一平台建造师业绩查询杭州seo软件
  • 济南网站制作公司报价北京seo关键词
  • 在什么网站做贸易好seo线上培训班
  • 长沙市网站建设公司优化大师电脑版官网
  • 自己在线制作logo免费寻人启事哈尔滨seo优化