当前位置: 首页 > news >正文

武汉百度竞价优就业seo课程学多久

武汉百度竞价,优就业seo课程学多久,白城市网站建设,好的做外贸的网站有哪些简介 注意: 在部署spark集群前,请部署好Hadoop集群,jdk8【当然Hadoop集群需要运行在jdk上】,需要注意hadoop,spark的版本,考虑兼容问题。比如hadoop3.0以上的才兼容spark3.0以上的。 下面是Hadoop集群部署…

简介

 

注意:

在部署spark集群前,请部署好Hadoop集群,jdk8【当然Hadoop集群需要运行在jdk上】,需要注意hadoop,spark的版本,考虑兼容问题。比如hadoop3.0以上的才兼容spark3.0以上的。

下面是Hadoop集群部署的链接,个人笔记,已经成功部署两次了,实时更新,分【一】【二】两部分,需要的自己看。不懂欢迎问,看到了解答。(链接失效的话请参考个人主页)

hadoop集群部署【一】HDFS集群icon-default.png?t=N7T8http://t.csdnimg.cn/BVKlqhadoop集群部署【二】YARN,MapReduce集群icon-default.png?t=N7T8http://t.csdnimg.cn/aJJt7

 搭建准备工作:

需要python环境,上传Anaconda,找到放置的位置。

安装Anaconda

在node1(我的第一台机器名)安装Anaconda(我的是Anaconda3-2021.05-Linux-x86_64.sh         版本python3.8)

sh ./Anaconda3-2021.05-Linux-x86_64.sh

然后一直空格,出现[yes|no] 就回答yes,懂?

出现这样的就填你要把anaconda安装到哪里。(路径)

完成后结果(退出终端,重新进来)

更改conda国内源

vim ~/.condarc(新建的,一般里面没东西)

channels:- defaults
show_channel_urls: true
default_channels:- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
custom_channels:conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudmsys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudbioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudmenpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudpytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudsimpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud

终端输入 

python

 创建spark运行的虚拟环境

conda create -n pyspark python=3.8
 切换虚拟环境
conda activate pyspark

 

Spark Local部署

上传解压spark

(我的是 spark-3.2.0-bin-hadoop3.2.tgz)

通过什么工具不管,能上传就行。

找到spark上传的位置,cd 进到该目录,不进去也行,自己在前面加路径哈!解压。

 tar -zxvf spark-3.2.0-bin-hadoop3.2.tgz -C /export/server spark-3.2.0-bin-hadoop3.2/

-C 参数后跟解压到哪(路径)

cd /export/server    #填你自己解压的路径

 建立软链接

 ln -s spark-3.2.0-bin-hadoop3.2/ spark
ll

 配置环境变量

vim /etc/profile

export SPARK_HOME=/export/server/spark
export PYSPARK_PYTHON=/export/server/anaconda3/envs/pyspark/bin/python3.8
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
:wq
source /etc/profile
vim /root/.bashrc

添加 

export JAVA_HOME=/export/server/jdk
export PYSPARK_PYTHON=/export/server/anaconda3/envs/pyspark/bin/python3.8
:wq

启动spark local模式

pyspark

进入spark的bin路径下

cd /export/server/spark/bin  # 注意路径
./pyspark

 运行下面代码,结果参考上图

sc.parallelize([1,2,3,4,5]).map(lambda x:x *10).collect()

可以通过游览器输入node1:4040查看监控页面(多个进程不会起冲突,具体监控页面的端口看上图spark版本下面第二行)

Ctrl+d退出

scala交互式界面
./spark-shell

 Ctrl+d退出

提交python文件(参考spark自带的案例文件pi.py    求圆周率,参数10 迭代十次)
./spark-submit --master local[*] /export/server/spark/examples/src/main/python/pi.py 10

 提交文件没有监控界面

http://www.rdtb.cn/news/22862.html

相关文章:

  • 百度如何收录网站如何优化关键词
  • 山东大良网站建设灰色词首页排名接单
  • 章丘哪里做网站淘宝数据分析
  • wordpress 443端口网站关键词优化排名推荐
  • 济南科技市场做网站今日西安头条最新消息
  • 淄博政府网站建设托管最新的新闻 今天
  • 长春阿凡达网站建设页面seo是什么意思
  • 求哪位大神发人和动物做愛视频网站贵阳网站优化公司
  • 国内有哪些做卡通素材的网站2021年热门关键词
  • 宠物网站建设策划方案做网络推广怎么收费
  • 网站 内页网站如何添加友情链接
  • 手机对比参数配置长沙优化官网服务
  • 自己做信息网站全网最好的推广平台
  • 快云助手网站建设视频seo推广排名软件
  • 开放平台作用发挥明显基本seo
  • vs2015可以做网站么武汉seo托管公司
  • 制作商业网站站长工具seo综合查询5g
  • 惠州市嘉峪关seo
  • 房产网站建设方案百度seo排名优化是什么
  • 接做网站的私活怎么报价搜索引擎app
  • 呼市做开发网站的公司保定seo排名外包
  • 做照片的ppt模板下载网站四川网站推广公司
  • 如何用表格做网站中国万网域名注册服务内容
  • 优化网站关键词怎么做武汉大学人民医院地址
  • 大连网站建设特色站内优化包括哪些
  • 科技企业网站模板seo的作用主要有
  • 转转假网站怎么做百度开户推广多少钱
  • 网站网页制作专业公司seo权重查询
  • 南宁网站建设培训有哪些谷歌广告投放教程
  • js网站源码竞价账户托管公司