开发者社区> 问答> 正文

计算`Spark Dataframe的连续行上的编辑距离

我有一个数据框如下:

import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.Column
import org.apache.spark.sql.functions._
import spark.implicits._

// some data...
val df = Seq(
(1, "AA", "BB", ("AA", "BB")),
(2, "AA", "BB", ("AA", "BB")),
(3, "AB", "BB", ("AB", "BB"))
).toDF("id","name", "surname", "array")

df.show()
我期待计算连续行中“数组”列之间的编辑距离。作为示例,我想计算第1列(“AA”,“BB”)中的“数组”实体与第2列(“AA”,“BB”)中的“数组”实体之间的编辑距离。这是我正在使用的编辑距离函数:

def editDist2A: Int = {
val startRow = (0 to b.size).toList
a.foldLeft(startRow) { (prevRow, aElem) =>

(prevRow.zip(prevRow.tail).zip(b)).scanLeft(prevRow.head + 1) {
  case (left, ((diag, up), bElem)) => {
    val aGapScore = up + 1
    val bGapScore = left + 1
    val matchScore = diag + (if (aElem == bElem) 0 else 1)
    List(aGapScore, bGapScore, matchScore).min
  }
}

}.last
}
我知道我需要为这个函数创建一个UDF,但似乎无法做到。如果我按原样使用该函数并使用Spark Windowing来获取前一行:

// creating window - ordered by ID
val window = Window.orderBy("id")

// using the window with lag function to compare to previous value in each column
df.withColumn("edit-d", editDist2(($"array"), lag("array", 1).over(window))).show()
我收到以下错误:

:245: error: type mismatch;
found : org.apache.spark.sql.ColumnName
required: Iterable[?]

   df.withColumn("edit-d", editDist2(($"array"), lag("array", 1).over(window))).show()

展开
收起
社区小助手 2018-12-12 15:05:54 3083 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    可以使用Spark自己的levenshtein功能。此函数需要两个字符串进行比较,因此不能与数组一起使用。

    // creating window - ordered by ID
    val window = Window.orderBy("id")

    // using the window with lag function to compare to previous value in each column
    df.withColumn("edit-d", levenshtein(($"name"), lag("name", 1).over(window)) + levenshtein(($"surname"), lag("surname", 1).over(window))).show()
    给出所需的输出:

    idnamesurnamearrayedit-d
    1AABB[AA, BB]null
    2AABB[AA, BB]0
    3ABBB[AB, BB]1
    2019-07-17 23:20:13
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载