当前位置: 首页 > 工具软件 > Luigi > 使用案例 >

luigi学习1

萧建木
2023-12-01

一、luigi介绍

luigi是基于python语言的,可帮助建立复杂流式批处理任务管理系统。这些批处理作业典型的有hadoop job,数据库数据的导入与导出,或者是机器学习算法等等。

luigi的github:https://github.com/spotify/luigi

目前已经有一些抽象层次较低的数据处理工具,比如hive,pig,cascading等。luigi并不是要取代他们,而是帮助你管理这些作业,luigi的task可以是一个hive查询,java写的hadoop作业,一个scala写的spark作业或一个python程序等。luigi提供了互相依赖的大量作业的工作流程管理,所以程序员可以把他们的精力放到作业本身。

目前有一些相似的项目比如Oozie和Azkaban。一个重要的区别是luigi并不仅仅为hadoop作业,它可以很方便的扩展其他类型的任务。

二、luigi官网的hello world例子

2.1top Artists例子的目的

这个例子的目的想要集合一些生产数据的流,然后找到前10个artists,并把最终的结果保存到数据库

2.2Aggregate Artist Streams

class AggregateArtists(luigi.Task):
    date_interval = luigi.DateIntervalParameter()

    def output(self):
        return luigi.LocalTarget("data/artist_streams_%s.tsv" % self.date_interval)

    def requires(self):
        return [Streams(date) for date in self.date_interval]

    def run(self):
        artist_count = defaultdict(int)

        for input in self.input():
            with input.open('r') as in_file:
                for line in in_file:
                    timestamp, artist, track = line.strip().split()
                    artist_count[artist] += 1

        with self.output().open('w') as out_file:
            for artist, count in artist_count.iteritems():
                print >> out_file, artist, count

对于这个类的解释:

requires方法:这个方法指定了本task需要的依赖,在这个例子中,AggregateArttists依赖一个Stream作业,Stream作业需要一个日期作为参数。

参数:每一个作业都可以定义一个或者多个参数,这些参数需要定义在类级别。比如上面这个类就有一个参数date_interval

output方法:定义了作业结果的保存地。

run方法:对于普通的task,你需要实现run方法。在run方法中可以是任何东西,可以创建子进程,进行长时间的算术运算等等。对于一些task的子类,你就不需要实现run方法了,比如JobTask要求你实现mapper和reducer方法。

LocalTarget:这是一个内置的类,可以帮助你很容易的读取或者写本地磁盘。并且保证对磁盘的操作是原子性的。

2.3Streams

class Streams(luigi.Task):
    date = luigi.DateParameter()

    def run(self):
        with self.output().open('w') as output:
            for _ in range(1000):
                output.write('{} {} {}\n'.format(
                    random.randint(0, 999),
                    random.randint(0, 999),
                    random.randint(0, 999)))

    def output(self):
        return luigi.LocalTarget(self.date.strftime('data/streams_%Y_%m_%d_faked.tsv'))

 

 这个类没有依赖,最终产生的效果是在本地文件系统上产生一个结果文件。

2.4在本地执行

PYTHONPATH='' luigi --module top_artists AggregateArtists --local-scheduler --date-interval 2012-06

 

执行完成之后,在当前目录下产生了一个data目录,data目录下的内容如下:

(my_python_env)[root@hadoop26 data]# ls
artist_streams_2012-06.tsv    streams_2012_06_06_faked.tsv  streams_2012_06_12_faked.tsv  streams_2012_06_18_faked.tsv  streams_2012_06_24_faked.tsv  streams_2012_06_30_faked.tsv
streams_2012_06_01_faked.tsv  streams_2012_06_07_faked.tsv  streams_2012_06_13_faked.tsv  streams_2012_06_19_faked.tsv  streams_2012_06_25_faked.tsv
streams_2012_06_02_faked.tsv  streams_2012_06_08_faked.tsv  streams_2012_06_14_faked.tsv  streams_2012_06_20_faked.tsv  streams_2012_06_26_faked.tsv
streams_2012_06_03_faked.tsv  streams_2012_06_09_faked.tsv  streams_2012_06_15_faked.tsv  streams_2012_06_21_faked.tsv  streams_2012_06_27_faked.tsv
streams_2012_06_04_faked.tsv  streams_2012_06_10_faked.tsv  streams_2012_06_16_faked.tsv  streams_2012_06_22_faked.tsv  streams_2012_06_28_faked.tsv
streams_2012_06_05_faked.tsv  streams_2012_06_11_faked.tsv  streams_2012_06_17_faked.tsv  streams_2012_06_23_faked.tsv  streams_2012_06_29_faked.tsv

 

 streams_*:就是stream作业生成的。

artist_*:是AggregateArtists生成的,就一个文件而已

2.5扩展

再次运行上面的执行命令发现并没有执行任何操作,因为所有任务的output已经存在。这意味着luigi的task都是幂等的,也就是说不管执行多少次,作业的输出应该是不变的。

--local-scheduler告诉luigi不要去连接scheduler server。这是不推荐的运行方式,这种方式也就用在测试阶段。

转载于:https://www.cnblogs.com/dongdone/p/5702935.html

 类似资料: