登陆后,显示的是路由器设置页面。这个不同的路由器设置页面会有所不同。
点路由器页面菜单,可以进行具体的设置。比如无线路由器里的无线设置--安全设置里可以设置网络密码。
某些设置需要重启路由才会生效,设置完成后可以点系统工具里重启路由项重启。也可以按路由器上重启按钮,或者断电重插重启。
对于无线路由器来说,修改路由器登陆页面密码比较重要,可以防止共享无线网络下被人修改路由器设置。你可以登陆路由器设置页面进行修改。
1.首先是域名、主机,你需要去域名主机服务商那里购买。如果你是第一次架设你的网站,可以先用免费的空间和域名练手。免费的空间可以考虑外国的,或者是免费的云主机( *** 作比较复杂,例如新浪的SAE,百度的BAE,老外的OpenShift等)。而免费的域名可以考虑一下DOT.TK的.TK顶级域名。
2.本机需要安装FTP工具,例如FlashFXP等。
环境及软件准备:win7(64位)
cygwin 1.7.9-1
jdk-6u25-windows-x64.zip
hadoop-0.20.2.tar.gz
1.安装jdk,并置java环境变量包括:JAVA_HOME,PATH,CLASSPATH
2.安装Hadoop,版本为0.20.2,我是直接放到/home目录下,并解压
tar –zxvf
hadoop-0.20.2.tar.gz
3.配置Hadoop,需要修改hadoop的配置文件,它们位于conf子目录下,分别是hadoop-env.sh、core-site.xml、hdfs-site.xml
和mapred-site.xml
(1) 修改hadoop-env.sh:
只需要将JAVA_HOME 修改成JDK 的安装目录即可
export
JAVA_HOME=/cygdrive/d/java/jdk1.6.0_25
(注意:路径不能是windows 风格的目录d:\java\jdk1.6.0_25,而是LINUX
风格/cygdrive/d/java/jdk1.6.0_25)
(2) 修改core-site.xml:(指定namenode)
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
(3)修改hdfs-site.xml(指定副本为1)
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
(4) 修改mapred-site.xml (指定jobtracker)
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
4.验证安装是否成功,并运行Hadoop
(1) 验证安装
$ bin/hadoop
Usage: hadoop [--config confdir] COMMAND
where COMMAND is one of:
namenode -format format the DFS filesystem
secondarynamenode run the DFS secondary namenode
namenode run the DFS namenode
datanode run a DFS datanode
dfsadmin run a DFS admin client
mradmin run a Map-Reduce admin client
fsck run a DFS filesystem checking utility
fs run a generic filesystem user client
balancer run a cluster balancing utility
jobtracker run the MapReduce job Tracker node
pipes run a Pipes job
tasktracker run a MapReduce task Tracker node
job manipulate MapReduce jobs
queue get information regarding JobQueues
version print the version
jar <jar>run a jar file
distcp <srcurl><desturl>copy file or directories recursively
archive -archiveName NAME <src>* <dest>create a hadoop archive
daemonlog get/set the log level for each daemon
or
CLASSNAME run the class named CLASSNAME
Most commands print help when invoked w/o parameters.
(2) 格式化并启动Hadoop
bi
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)