当前位置: 首页 > 知识库问答 >
问题:

如何在Spark SQL中按列降序排序?

颜镜
2023-03-14

我尝试了df.orderby(“col1”).show(10),但它是按升序排序的。df.sort(“col1”)。show(10)也按升序排序。我查看了stackoverflow,发现的答案都是过时的或引用了RDDS。我想在Spark中使用原生的dataframe。

共有1个答案

余信然
2023-03-14

您还可以通过导入spark sql函数对列进行排序

import org.apache.spark.sql.functions._
df.orderBy(asc("col1"))

import org.apache.spark.sql.functions._
df.sort(desc("col1"))

正在导入sqlcontext.implicits._

import sqlContext.implicits._
df.orderBy($"col1".desc)

import sqlContext.implicits._
df.sort($"col1".desc)
 类似资料:
  • 问题内容: 如何在如下所示的SQLAlchemy查询中使用ORDER BY ? 此查询有效,但以升序返回: 如果我尝试: 然后我得到:。 问题答案: 来自@ jpmc26的用法

  • 我正在使用PySpark(Python 2.7.9/Spark 1.3.1),并有一个需要过滤的dataframe GroupObject 但它会抛出以下错误。

  • 问题内容: 如何按降序对列表进行排序? 问题答案: 在一行中,使用: 将函数传递给:

  • 我试图实现对存储在列表中的对象字段值的排序。 我找到了下面的解决方案来比较字符串,但是我如何比较字符串值并相应地排序? 我想先排序"Y"状态值然后"N"

  • 所以我有一个列表视图,我想在其中按降序排列NumberOfRecords。我有一个自定义数组适配器,但在将数据放入ArrayList之前,我调用了排序类,这是我接收JSON的异步任务: 这是我的排序类: } 但我得到的结果是: 我的排序实现错了吗?或者我应该在返回之前把它解析成整数吗?

  • 本文向大家介绍MongoDB中如何按时间戳(降序)排序,包括了MongoDB中如何按时间戳(降序)排序的使用技巧和注意事项,需要的朋友参考一下 要按时间戳排序,请在MongoDB中使用sort()。让我们创建一个包含文档的集合- 在find()方法的帮助下显示集合中的所有文档- 这将产生以下输出- 以下是按时间戳排序的查询(降序)- 这将产生以下输出-