当前位置: 首页 > 文档资料 > Angel 中文文档 >

LPA

优质
小牛编辑
141浏览
2023-12-01

LPA

LPA(label propagation algorithm)算法是一种基于图的半监督学习方法,在社区发现领域有广泛的应用。

1. 算法介绍

LPA算法利用已标记节点的标签信息去预测未标记节点的标签信息。我们基于Spark On Angel实现了大规模网络上的标签传播算法。 其中ps维护节点的最新的节点的标签值,Spark端维护网络的邻接表。每轮根据节点邻居标签对节点进行更新。在执行一定轮数之后终止。

2. 运行

参数

IO参数

  • input: hdfs路径,输入网络数据,每行两个长整形id表示的节点,以空白符或者逗号分隔,表示一条边
  • output: hdfs路径, 输出节点对应的标签值, 每行一条数据,表示节点对应的标签值,以tap符分割
  • sep: 分隔符,输入中每条边的起始顶点、目标顶点之间的分隔符: tab, 空格, 逗号

算法参数

  • partitionNum: 输入数据分区数
  • psPartitionNum:参数服务器上模型的分区数量
  • storageLevel:RDD存储级别,DISK_ONLY/MEMORY_ONLY/MEMORY_AND_DISK
  • maxIter: 算法的最大迭代轮数
  • needReplicaEdge: 是否需要将边进行反向构造无向图

资源参数

  • ps个数和内存大小:ps.instance与ps.memory的乘积是ps总的配置内存。为了保证Angel不挂掉,需要配置ps上数据存储量大小两倍左右的内存。
  • Spark的资源配置:num-executors与executor-memory的乘积是executors总的配置内存,最好能存下2倍的输入数据。 如果内存紧张,1倍也是可以接受的,但是相对会慢一点。 比如说100亿的边集大概有160G大小, 20G * 20 的配置是足够的。 在资源实在紧张的情况下, 尝试加大分区数目!

任务提交示例

input=hdfs://my-hdfs/data
output=hdfs://my-hdfs/output

source ./spark-on-angel-env.sh
$SPARK_HOME/bin/spark-submit \
  --master yarn-cluster\
  --conf spark.ps.instances=1 \
  --conf spark.ps.cores=1 \
  --conf spark.ps.jars=$SONA_ANGEL_JARS \
  --conf spark.ps.memory=10g \
  --name "lpa angel" \
  --jars $SONA_SPARK_JARS  \
  --driver-memory 5g \
  --num-executors 1 \
  --executor-cores 4 \
  --executor-memory 10g \
  --class org.apache.spark.angel.examples.graph.LPAExample \
  ../lib/spark-on-angel-examples-3.1.0.jar
  input:$input output:$output sep:tab storageLevel:MEMORY_ONLY useBalancePartition:true \
  partitionNum:4 psPartitionNum:1 maxIter:100 needReplicaEdge:true

常见问题

-

项目地址:https://github.com/Angel-ML/angel
官网:https://angelml.ai/