电脑出现缺少文件zliba.dll是什么原因?

电脑出现缺少文件zliba.dll是什么原因?,第1张

一、直接拷贝该文件系统目录里:\x0d\x0a 1、Windows \x0d\x0a95/98/Me系统,将zlib.dll复制到C:\Windows\System目录下。\x0d\x0a 2、Windows \x0d\x0aNT/2000系统,将zlib.dll复制到C:\WINNT\System32目录下。\x0d\x0a 3、Windows \x0d\x0aXP/WIN7/Vista系统,将zlib.dll复制到C:\Windows\System32目录下。\x0d\x0a4、如果您的系统是64位的请将文件复制到C:\Windows\SysWOW64目录\x0d\x0a打开"开始-运行-输入"regsvr32 zlib.dll",回车即可解决。\x0d\x0a通过脚本之家下载dll的朋友,可将下面的代码保存为“注册.bat“,放到dll文件同级目录(只要在同一个文件夹里面有这两个文件即可),双击注册.bat,就会自动完成zlib.dll注册(win98不支持)。\x0d\x0a下面是32系统的注册bat文件(64位的请将下面的system32替换为SysWOW64即可。)\x0d\x0a@echo 开始注册\x0d\x0acopy zlib.dll %windir%\system32\\x0d\x0aregsvr32 %windir%\system32\zlib.dll /s\x0d\x0a@echo zlib.dll注册成功\x0d\x0a@pause

环境及软件准备:win7(64位)cygwin 1.7.9-1jdk-6u25-windows-x64.ziphadoop-0.20.2.tar.gz1.安装jdk,并置java环境变量包括:JAVA_HOME,PATH,CLASSPATH2.安装Hadoop,版本为0.20.2,我是直接放到/home目录下,并解压tar –zxvf hadoop-0.20.2.tar.gz3.配置Hadoop,需要修改hadoop的配置文件,它们位于conf子目录下,分别是hadoop-env.sh、core-site.xml、hdfs-site.xml 和mapred-site.xml(1) 修改hadoop-env.sh:只需要将JAVA_HOME 修改成JDK 的安装目录即可export JAVA_HOME=/cygdrive/d/java/jdk1.6.0_25(注意:路径不能是windows 风格的目录d:\java\jdk1.6.0_25,而是LINUX 风格/cygdrive/d/java/jdk1.6.0_25)(2) 修改core-site.xml:(指定namenode)<configuration><property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration> (3)修改hdfs-site.xml(指定副本为1)<configuration><property> <name>dfs.replication</name> <value>1</value> </property> </configuration> (4) 修改mapred-site.xml (指定jobtracker)<configuration><property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration> 4.验证安装是否成功,并运行Hadoop(1) 验证安装$ bin/hadoop Usage: hadoop [--config confdir] COMMAND where COMMAND is one of: namenode -format format the DFS filesystem secondarynamenoderun the DFS secondary namenode namenode run the DFS namenode datanode run a DFS datanode dfsadmin run a DFS admin client mradmin run a Map-Reduce admin client fsck run a DFS filesystem checking utility fs run a generic filesystem user client balancer run a cluster balancing utility jobtracker run the MapReduce job Tracker node pipesrun a Pipes job tasktracker run a MapReduce task Tracker node job manipulate MapReduce jobs queueget information regarding JobQueues version print the version jar <jar> run a jar file distcp <srcurl><desturl>copy file or directories recursively archive -archiveName NAME <src>* <dest>create a hadoop archive daemonlogget/set the log level for each daemon or CLASSNAMErun the class named CLASSNAME Most commands print help when invoked w/o parameters. (2) 格式化并启动Hadoopbin/hadoop namenode –formatbin/start-all.sh(3) 查看Hadoop命令行查看:$ jps 1608 NameNode 6572 Jps 6528 JobTracker (注意:win7下cygwin中DateNode和TaskTracker进程是无法显示的,好像是cygwin的问题)


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/12205213.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-21
下一篇 2023-05-21

发表评论

登录后才能评论

评论列表(0条)

保存