开发者社区> 问答> 正文

spark完成工作所花费的时间

我需要在spark中计算一些东西,比如saprk读取我的文件需要多长时间,所以我喜欢使用sc.setLogLevel("INFO")打印到屏幕上的额外信息,我觉得有用的一件事就是当打印这样的信息时 2018-12-18 02:05:38 INFO DAGScheduler:54 - Job 2 finished: count at :26, took 9.555080 s因为这告诉我有多长时间。

反正以编程方式(最好是scala)?现在我只是复制此结果并将其保存在文本文件中。

展开
收起
社区小助手 2018-12-19 16:44:00 1650 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    有两种解决方案可用于记录spar程序的记录。

    a)使用spark-submit命令时,可以将控制台输出重定向到所需的文件。

    spark-submit your_code_file > logfile.txt 2>&1
    b)可以为驱动程序和执行程序创建2个日志文件(log4j.properties),并且发出spark-submit命令时,通过在驱动程序和执行程序的java选项中提供它们的路径来包含它们。

    spark-submit --class MAIN_CLASS --driver-java-options "-Dlog4j.configuration=file:LOG4J_PATH" --conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=file:LOG4J_PATH" --master MASTER_IP:PORT JAR_PATH

    2019-07-17 23:23:02
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载