hadoop 2.0还是2.20之后有相容windows的版本,然而大部分都是部署在linux上的。记得刚出win版本的那天,我兴冲冲的下载部署了一整天还是遇到各种问题没能部署成功。至今为止还没见到有哪个公司把hadoop生产环境部署在windows上的。
为什么hadoop job执行的时候 其他的执行绪不能执行首先,一个job具体启动多少个map,是由你配置的inputformat来决定的。inputformat在分配任务之前会对输入进行切片。最终启动的map数目,就是切片的结果数目。具体来看 一、如果使用是自定义的inputformat,那么启动多少个map 需要获取mapreduce的执行资讯,比如执行状态,map,reduce的执行进度. hadoop 50030埠提供web ui服务,没找到提供json或者xml的服务方式. 于是,查询hadoop 50030的载入
linux为什么不能执行windows程式首先系统是不一样的。windows系统是避源的,linux 系统是开源的,Linux系统一般是命令列的,而windows 系统是偏向于图形化的。就像苹果手机是不能允许安卓手机的软体的。但是Linux系统在不多的强大。不断的创新,图形化已经做的非常好了,软体也越来越丰富了。在Linux上面执行windows程式变得没有那么困难了--wine。
可以尝试使用wine 来执行windows系统。Linux的学习是一个过程,需要不断的去探索。更多的知识建议参考《Linux就该这样学》,加油吧,不断探索Linux的奥秘吧
python执行hadoop用到什么库# map: 对序列的每个元素进行一个指定的 *** 作 >>>lst = map(lambda x: "%02d" % x, range(10)) >>>lst ['00', '01', '02', '03', '04', '05', '06', '07', '08', '09'] >>># reduce: 对序列每个元素进行一种“累进” *** 作 >>>rst = reduce(lambd...
怎么检视hadoop能不能执行看各个节点的程序,是不是都起来了,通过web查各个节点的状态,是不是都正常
一般都是上传 一个档案,看看成不成功
然后执行那个wordcount的,统计单词的数量,如果执行都没有问题,就OK了
windows下的exe为什么在linux下不能执行
linux下需要安装wine来相容windows下的程式。
一. 安装Wine
Wine适应于所有流行的UNIX作业系统,包括Ubuntu、Debian、Red Hat、SUSE、Mandriva、FreeBSD、Solaris和Mac OS X。
在Ubuntu上:
一、通过Unbuntu软体中心安装
1、 开启Applications(应用程式)>Ubuntu Sofare Center(Unbuntu软体中心),开启Ubuntu软体中心。
然后点选Edit(编辑)>Sofare Sources(软体源)。选择Other Sofare(其他软体)选项卡,点选Add(新增)。然后输入下列apt行:ppa:ubuntu-wine/ppa
2、Allsofares右侧选单中选择“PPA for Ubuntu Wine Team”,然后选择Microsoft Windows Compatibility Layer(Development files) – wine1.3-dev。点选Install(安装)。这会安装最新的Wine软体包,包括开发库。
提示:解除安装现有的Wine软体包,以确保最大的相容性。另外,如果想干净安装,可以删除Wine使用者目录,为此可以从主目录中使用命令rm -r -v .wine。
二、通过终端安装
终端输入[如何在Ubuntu14.04中安装和执行Windows应用程式]
sudo add-apt-repository ppa:ubuntu-wine/ppa
sudo apt-get update
apt-get install wine1.7
wine --version
[Wine完全解除安装]
二、安装Wine支援包
现在,需要安装非开源(但免费)的支援包。这包括微软Core Fonts、Visual C++执行时环境等软体包。
安装Cabextract:
需要该软体包来解压缩微软.cab档案。
$ sudo apt-get install cabextract
在Windows上执行Hadoop,配置好java,cygwin,hadoop之后,要怎么做启动cygwin就可以 *** 作hadoop了。比如start-all.sh、jps、s-all.sh等
游戏的执行和机器的CPU,记忆体,独立显示核心等硬体配置有直接的关系,另外也和系统,驱动,其他软体等也有联络。当前,是否可以玩一个游戏,首先需要检视游戏执行的配置要求和机器的配置要求做一个对比,检视机器的配置是否符合。如果可以满足游戏的最低执行需求,则可以支援。"
在Linux上安装Hadoop之前,需要先安装两个程序:1. JDK 1.6或更高版本
2. SSH(安全外壳协议),推荐安装OpenSSH。
下面简述一下安装这两个程序的原因:
1. Hadoop是用Java开发的,Hadoop的编译及MapReduce的运行都需要使用JDK。
2. Hadoop需要通过SSH来启动salve列表中各台主机的守护进程,因此SSH也是必须安装的,即使是安装伪分布式版本(因为Hadoop并没有区分集群式和伪分布式)。对于伪分布式,Hadoop会采用与集群相同的处理方式,即依次序启动文件conf/slaves中记载的主机上的进程,只不过伪分布式中salve为localhost(即为自身),所以对于伪分布式Hadoop,SSH一样是必须的。
一、安装JDK 1.6
安装JDK的过程很简单,下面以Ubuntu为例。
(1)下载和安装JDK
确保可以连接到互联网,输入命令:
sudo apt-get install sun-java6-jdk
输入密码,确认,然后就可以安装JDK了。
这里先解释一下sudo与apt这两个命令,sudo这个命令允许普通用户执行某些或全部需要root权限命令,它提供了详尽的日志,可以记录下每个用户使用这个命令做了些什么 *** 作同时sudo也提供了灵活的管理方式,可以限制用户使用命令。sudo的配置文件为/etc/sudoers。
apt的全称为the Advanced Packaging Tool,是Debian计划的一部分,是Ubuntu的软件包管理软件,通过apt安装软件无须考虑软件的依赖关系,可以直接安装所需要的软件,apt会自动下载有依赖关系的包,并按顺序安装,在Ubuntu中安装有apt的一个图形化界面程序synaptic(中文译名为“新立得”),大家如果有兴趣也可以使用这个程序来安装所需要的软件。(如果大家想了解更多,可以查看一下关于Debian计划的资料。)
(2)配置环境变量
输入命令:
sudo gedit /etc/profile
输入密码,打开profile文件。
在文件的最下面输入如下内容:
#set Java Environment
export JAVA_HOME= (你的JDK安装位置,一般为/usr/lib/jvm/java-6-sun)
export CLASSPATH=".:$JAVA_HOME/lib:$CLASSPATH"
export PATH="$JAVA_HOME/:$PATH"
这一步的意义是配置环境变量,使你的系统可以找到JDK。
(3)验证JDK是否安装成功
输入命令:
java -version
查看信息:
java version "1.6.0_14"
Java(TM) SE Runtime Environment (build 1.6.0_14-b08)
Java HotSpot(TM) Server VM (build 14.0-b16, mixed mode)
二、配置SSH免密码登录
同样以Ubuntu为例,假设用户名为u。
1)确认已经连接上互联网,输入命令
sudo apt-get install ssh
2)配置为可以无密码登录本机。
首先查看在u用户下是否存在.ssh文件夹(注意ssh前面有“.”,这是一个隐藏文件夹),输入命令:
ls -a /home/u
一般来说,安装SSH时会自动在当前用户下创建这个隐藏文件夹,如果没有,可以手动创建一个。
接下来,输入命令:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
解释一下,ssh-keygen代表生成密钥-t(注意区分大小写)表示指定生成的密钥类型dsa是dsa密钥认证的意思,即密钥类型-P用于提供密语-f指定生成的密钥文件。(关于密钥密语的相关知识这里就不详细介绍了,里面会涉及SSH的一些知识,如果读者有兴趣,可以自行查阅资料。)
在Ubuntu中,~代表当前用户文件夹,这里即/home/u。
这个命令会在.ssh文件夹下创建两个文件id_dsa及id_dsa.pub,这是SSH的一对私钥和公钥,类似于钥匙及锁,把id_dsa.pub(公钥)追加到授权的key里面去。
输入命令:
cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys
这段话的意思是把公钥加到用于认证的公钥文件中,这里的authorized_keys是用于认证的公钥文件。
至此无密码登录本机已设置完毕。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)