win7系统配置怎么设置详解博客

win7系统配置怎么设置详解博客,第1张

把电脑、路由器、网线等连接好。打开浏览器,输入192.168.1.1,如果已经连接成功,会跳出路由器设置登陆窗口。输入用户名和密码,完成登陆。一般默认账户和密码是admin,具体可以查看路由器说明书。

登陆后,显示的是路由器设置页面。这个不同的路由器设置页面会有所不同。

点路由器页面菜单,可以进行具体的设置。比如无线路由器里的无线设置--安全设置里可以设置网络密码。

某些设置需要重启路由才会生效,设置完成后可以点系统工具里重启路由项重启。也可以按路由器上重启按钮,或者断电重插重启。

对于无线路由器来说,修改路由器登陆页面密码比较重要,可以防止共享无线网络下被人修改路由器设置。你可以登陆路由器设置页面进行修改。

环境及软件准备:

win7(64位)

cygwin 1.7.9-1

jdk-6u25-windows-x64.zip

hadoop-0.20.2.tar.gz

1.安装jdk,并置java环境变量包括:JAVA_HOME,PATH,CLASSPATH

2.安装Hadoop,版本为0.20.2,我是直接放到/home目录下,并解压

tar –zxvf

hadoop-0.20.2.tar.gz

3.配置Hadoop,需要修改hadoop的配置文件,它们位于conf子目录下,分别是hadoop-env.sh、core-site.xml、hdfs-site.xml

和mapred-site.xml

(1) 修改hadoop-env.sh:

只需要将JAVA_HOME 修改成JDK 的安装目录即可

export

JAVA_HOME=/cygdrive/d/java/jdk1.6.0_25

(注意:路径不能是windows 风格的目录d:\java\jdk1.6.0_25,而是LINUX

风格/cygdrive/d/java/jdk1.6.0_25)

(2) 修改core-site.xml:(指定namenode)

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

(3)修改hdfs-site.xml(指定副本为1)

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

(4) 修改mapred-site.xml (指定jobtracker)

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

4.验证安装是否成功,并运行Hadoop

(1) 验证安装

$ bin/hadoop

Usage: hadoop [--config confdir] COMMAND

where COMMAND is one of:

namenode -format format the DFS filesystem

secondarynamenode run the DFS secondary namenode

namenode run the DFS namenode

datanode run a DFS datanode

dfsadmin run a DFS admin client

mradmin run a Map-Reduce admin client

fsck run a DFS filesystem checking utility

fs run a generic filesystem user client

balancer run a cluster balancing utility

jobtracker run the MapReduce job Tracker node

pipes run a Pipes job

tasktracker run a MapReduce task Tracker node

job manipulate MapReduce jobs

queue get information regarding JobQueues

version print the version

jar <jar>run a jar file

distcp <srcurl><desturl>copy file or directories recursively

archive -archiveName NAME <src>* <dest>create a hadoop archive

daemonlog get/set the log level for each daemon

or

CLASSNAME run the class named CLASSNAME

Most commands print help when invoked w/o parameters.

(2) 格式化并启动Hadoop

bi


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/9884943.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-03
下一篇 2023-05-03

发表评论

登录后才能评论

评论列表(0条)

保存