安装 Mercurial 是简单的。 Linux, MacOS X, 和其它 Unix 的变体,参照 UnixInstall 目录。 在 Windows 中,参照 WindowsInstall 的说明. 你完成后回到这里。 注: 本教程假定你正在运行 Mercurial 0.7 以上版本。换句话说,如果你有 0.6 版的,本教程不适用。本教程是为 Mercurial 0.7 进行了升级。 Merc
以下是下载、编译并安装 Disque 的完整步骤: 执行命令 git clone https://github.com/antirez/disque.git ,使用 Git 克隆 Disque 的项目文件夹。 执行 cd disque 命令,切换至 Disque 的项目文件夹。 执行 make 命令,编译 Disque 。 可选:执行 make test ,测试刚刚编译好的 Disque 程序。
攻击方式 主动攻击 包括篡改数据流或伪造数据流,这种攻击试图改变系统资源或影响系统运行。 被动攻击 对信息的保密性进行攻击,即通过窃听网络上传输的信息并加以分析从而获得有价值的情报,但它并不修改信息的内容。它的目标是获得正在传送的信息,其特点是偷听或监视信息的传递。被动攻击只对信息进行监听,不对其进行修改。被动攻击包括信息内容泄露和业务流分析2大类 病毒类型 文件型 感染可执行文件,包括EXE和C
1.1 清理已安装的 docker yum remove docker \ > docker-client \ > docker-client-latest \ > docker-common \ > docker-latest \ >
1.1 修改系统配置 [root@node16 security]# vim /etc/security/limits.conf * soft nofile 65536 * hard nofile 65536 * soft nproc 2048 * hard nproc 4096 [root@node16 security]# vim /etc/sysctl.conf vm.max_map_
以一个三台机器(storm01:192.168.3.250,storm02:192.168.3.251,storm03:192.168.3.252)的kafka集群部署为例。 详细步骤: kafka集群依赖Zookeeper集群,首先要保证Zookeeper集群正常运行。 1. 解压 tar zxvf kafka_2.9.2-0.8.1.1.tgz; mv kafka_2.9.2-0.8.1.1
完成《大数据组件安装环境准备》章节操作。 1 yum 安装 1.1 安装 zookeeper yum install zookeeper 1.2 修改配置文件 cd /usr/lib/zookeeper/conf mv zoo_sample.cfg zoo.cfg vim zoo.cfg dataDir=/var/lib/zookeeper/data //data 文件,自定义,需要自己
(1)mapred-site.xml <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> (2)yarn-site.xml <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_s
大数据基本环境。 Zookeeper 集群正常运行。 2. 安装 将storm解压到/opt目录下。(master) tar zxvf apache-storm-0.9.4.tar.gz mv apache-storm-0.9.4 storm 修改 conf/storm.yaml 配置文件,如参考资料。(master) 将配置好的安装文件同步到其他的slave01、slave02节点上。(mas
采用最简配置进行安装。 1. yum 安装 1.1 安装组件 yum install hadoop-hdfs-namenode # 在将要运行 NameNode 的节点上安装。 yum install hadoop-hdfs-datanode # 在将要运行 DataNode 的节点上安装。 1.2 修改配置文件 使用 yum 安装的 cdh 版本 hdfs 配置文件在 /etc/hadoop/
2. 主从安装 redis解压到/opt目录下 tar zxvf redis-2.8.17.tar.gz 编译 make 安装 make install 修改配置文件 redis.conf port 12002 //(将原来端口号6379改为12002) dir /redisData/12002 //(指定持久化位置) 启动redis red
1.1 前置条件 完成《大数据组件安装环境准备》章节操作。 完成《HDFS安装》章节操作。 完成《Zookeeper 安装》章节操作。 1.2 安装组件 yum install hbase hbase-master hbase-regionserver –y #在每台机器上安装 hbase-master 和 hbase-regionserver,按需安装即可,需要启动该进程则安装。 1.3 修
1.1 运行命令 # cd /home/wlj # wget http://downloads.mongodb.org/linux/mongodb-linux-x86_64-rhel70-3.2.12.tgz?_ga=1.28205556.912007513.1487138979 # tar -zxvf mongodb-linux-x86_64-rhel70-3.2.12.gz # mv mong
HAWQ安装方式之RPM包安装
集群规划为3个节点,每个节点的ip、主机名和部署的组件分配如下: ip 主机名 组件 192.168.117.51 Goblin_01 NameNode、Hive、ResourceManager、impala 192.168.117.52 Goblin_02 DataNode、SSNameNode、NodeManager、impala 192.168.117.53 Goblin_03 DataNo