做一个十万用户级别的社区类app,请问设计以及后期维护团队至少需要几人?另外,数据库和服务器要求什

做一个十万用户级别的社区类app,请问设计以及后期维护团队至少需要几人?另外,数据库和服务器要求什,第1张

软件开发公司排行榜
极其流行,同样也是竞争力极其大的一种商业模式。虽然国内软件开发公司都发展壮大起来了,但是各地软件开发公司的实力及资质仍然参差不齐。下面为大家介绍下近期国内软件开发公司的排名汇总。
1:华盛恒辉科技有限公司
上榜理由:华盛恒辉是一家专注于高端软件定制开发服务和高端建设的服务机构,致力于为企业提供全面、系统的开发制作方案。在开发、建设到运营推广领域拥有丰富经验,我们通过建立对目标客户和用户行为的分析,整合高质量设计和极其新技术,为您打造创意十足、有价值的企业品牌。
在军工领域,合作客户包括:中央军委联合参谋(原总参)、中央军委后勤保障部(原总后)、中央军委装备发展部(原总装)、装备研究所、战略支援、军事科学院、研究所、航天科工集团、中国航天科技集团、中国船舶工业集团、中国船舶重工集团、第一研究所、训练器材所、装备技术研究所等单位。
在民用领域,公司大力拓展民用市场,目前合作的客户包括中国中铁电气化局集团、中国铁道科学研究院、济南机务段、东莞轨道交通公司、京港地铁、中国国电集团、电力科学研究院、水利部、国家发改委、中信银行、华为公司等大型客户。
2:五木恒润科技有限公司
上榜理由:五木恒润拥有员工300多人,技术人员占90%以上,是一家专业的军工信息化建设服务单位,为军工单位提供完整的信息化解决方案。公司设有股东会、董事会、监事会、工会等上层机构,同时设置总经理职位,由总经理管理公司的具体事务。公司下设有研发部、质量部、市场部、财务部、人事部等机构。公司下辖成都研发中心、西安研发中心、沈阳办事处、天津办事处等分支机构。
3、浪潮
浪潮集团有限公司是国家首批认定的规划布局内的重点软件企业,中国著名的企业管理软件、分行业ERP及服务供应商,在咨询服务、IT规划、软件及解决方案等方面具有强大的优势,形成了以浪潮ERP系列产品PS、GS、GSP三大主要产品。是目前中国高端企业管理软件领跑者、中国企业管理软件技术领先者、中国最大的行业ERP与集团管理软件供应商、国内服务满意度最高的管理软件企业。
4、德格Dagle
德格智能SaaS软件管理系统自德国工业40,并且结合国内工厂行业现状而打造的一款工厂智能化信息平台管理软件,具备工厂ERP管理、SCRM客户关系管理、BPM业务流程管理、
OMS订单管理等四大企业业务信息系统,不仅满足企业对生产进行简易管理的需求,并突破局域网应用的局限性,同时使数据管理延伸到互联网与移动商务,不论是内部的管理应用还是外部的移动应用,都可以在智能SaaS软件管理系统中进行业务流程的管控。
5、Manage
高亚的产品 (8Manage) 是美国经验中国研发的企业管理软件,整个系统架构基于移动互联网和一体化管理设计而成,其源代码编写采用的是最为广泛应用的
Java / J2EE 开发语言,这样的技术优势使 8Manage
可灵活地按需进行客制化,并且非常适用于移动互联网的业务直通式处理,让用户可以随时随地通过手机apps进行实时沟通与交易。

大数据 hadoop 要不要raid5

单词计数是最简单也是最能体现MapReduce思想的程序之一,可以称为MapReduce版”Hello World”,该程序的完整代码可以在Hadoop安装包的”src/examples”目录下找到。

大数据探秘:到底要不要考研

想好你考研的原因是什么?或许你就会给自己找到答案了于和平

raid5数据问题

不能,就像新磁盘在磁盘管理里要重分区格式化才能识别,但是那样的话,RAID模式下写进的数据也没了,因为RAID写进的数据在一块磁盘上是零散了,甚至这块磁盘的文件系统都是零散的,不完整的。及时运气好正好这块磁盘上有较完整的文件系统的元数据,是你在别的电脑上能看到了文件,但是这些文件常识打开,绝对汇报错的。或许你运气好到极点,看到了一个文本文档能打开,不过那估计也是4KB以下的内容。。。文件大小 小于 RAID条带大小除以RAID磁盘数量,并且跟文件系统簇大小也有关系的。意思就是基本上你无法在另一台电脑上去读取这块磁盘。说了这么多就是希望你能深入的了解下,大概的情况。

大数据告诉你要不要当公务员

做不完题是正常的。行测考试时间为120分钟,除去涂答题卡的时间,平均每道题算下来只有50多秒的时间来答。对于我们考生而言,应当首先集中优势兵力,把能做、会做、好做的题都做好,保证正确率

什么是RAID5 RAID5数据恢复原理

这种问题是比较复杂的,服务器硬盘,结构都是比较复杂的,简单讲下,RAID5至少需要3块硬盘组合的,需要同型号,同容量的硬盘组合的,如果服务器坏了,那就需要标记硬盘在存储器中的位置的,以便后期恢复数据使用的

服务器坏了,至少是2块硬盘出问题了,所以,坏了,就不要 *** 作的,保护好现场,找专业数据恢复人员恢复数据,一般数据都是可以恢复的,推荐西安军王数据,专业数据恢复机构,如果只是服务器磁盘整列坏了,恢复的希望很大的

大数据一定需要Hadoop吗

是的。目前还没有什么技术可以代替Hadoop。

使用HDFS的mand命令去查看hdfs上的文件,或者使用默认的Hadoop的web管理器查看,从hadoop0223后,hadoop设计了一套Rest风格的接口,通过协议访问的方式,去浏览和 *** 作HDFS上的数据。

大数据告诉你大学期间要不要考驾照

关于大学毕业生需不需要考驾照这个问题,一般来说,极少有找工作时要求有驾照的工作单位,所以考驾照并不是必须的。但是,总的来说,尤其是男生,肯定是想自己开车的。因此考驾照的最佳时间莫过于大学期间,随便找个寒暑假学上一两个月,基本上都能拿到驾照。如果在校期间不及时考到驾照,恐怕以后工作了的话,就没有那么多时间来考了。所以能在大学时候考到驾照就尽量考,不能的话也不要太勉强自己。
当然,还有一个问题就是大学毕业前要修够课外学分,如果你的课外学分修不够的话,可以考个驾照,这个可以作为2分的课外学分,为你的毕业加学分的,所以大学期间最好考一个驾照。

大数据:Hadoop入门

什么是大数据:
(1)大数据是指在一定时间内无法用常规软件对其内容进行抓取,管理和处理的数据 ,简而言之就是数据量非常大,大到无法用常规工具进行处理,如关系型数据库,数据仓库等。这里“大”是一个什么量级呢?如在阿里巴巴每天处理数据达到20PB(即20971520GB)
2大数据的特点:
(1)体量巨大。按目前的发展趋势来看,大数据的体量已经到达PB级甚至EB级。
(2)大数据的数据类型多样,以非结构化数据为主,如网络杂志,音频,视屏,,地理位置信息,交易数据,社交数据等。
(3)价值密度低。有价值的数据仅占到总数据的一小部分。比如一段视屏中,仅有几秒的信息是有价值的。
(4)产生和要求处理速度快。这是大数据区与传统数据挖掘最显著的特征。
3除此之外还有其他处理系统可以处理大数据。
Hadoop (开源)
Spark(开源)
Storm(开源)
MongoDB(开源)
IBM PureDate(商用)
Oracle Exadata(商用)
SAP Hana(商用)
Teradata AsterData(商用)
EMC GreenPlum(商用)
HP Vertica(商用)
注:这里我们只介绍Hadoop。
二:Hadoop体系结构
Hadoop来源:
Hadoop源于Google在2003到2004年公布的关于GFS(Google File System),MapReduce和BigTable的三篇论文,创始人Doug Cutting。Hadoop现在是Apache基金会顶级项目,“
Hadoop”一个虚构的名字。由Doug Cutting的孩子为其玩具大象所命名。
Hadoop的核心:
(1)HDFS和MapReduce是Hadoop的两大核心。通过HDFS来实现对分布式储存的底层支持,达到高速并行读写与大容量的储存扩展。
(2)通过MapReduce实现对分布式任务进行处理程序支持,保证高速分区处理数据。
3Hadoop子项目:
(1)HDFS:分布式文件系统,整个Hadoop体系的基石。
(2)MapReduce/YARN:并行编程模型。YARN是第二代的MapReduce框架,从Hadoop 02301版本后,MapReduce被重构,通常也称为MapReduce V2,老MapReduce也称为 MapReduce V1。
(3)Hive:建立在Hadoop上的数据仓库,提供类似SQL语音的查询方式,查询Hadoop中的数据,
(5)HBase:全称Hadoop Database,Hadoop的分布式的,面向列的数据库,来源于Google的关于BigTable的论文,主要用于随机访问,实时读写的大数据。
(6)ZooKeeper:是一个为分布式应用所设计的协调服务,主要为用户提供同步,配置管理,分组和命名等服务,减轻分布式应用程序所承担的协调任务。
还有其它特别多其它项目这里不做一一解释了。
三:安装Hadoop运行环境
用户创建:
(1)创建Hadoop用户组,输入命令:
groupadd hadoop
(2)创建hduser用户,输入命令:
useradd –p hadoop hduser
(3)设置hduser的密码,输入命令:
passwd hduser
按提示输入两次密码
(4)为hduser用户添加权限,输入命令:
#修改权限
chmod 777 /etc/sudoers
#编辑sudoers
Gedit /etc/sudoers
#还原默认权限
chmod 440 /etc/sudoers
先修改sudoers 文件权限,并在文本编辑窗口中查找到行“root ALL=(ALL)”,紧跟后面更新加行“hduser ALL=(ALL) ALL”,将hduser添加到sudoers。添加完成后切记还原默认权限,否则系统将不允许使用sudo命令。
(5)设置好后重启虚拟机,输入命令:
Sudo reboot
重启后切换到hduser用户登录
安装JDK
(1)下载jdk-7u67-linux-x64rpm,并进入下载目录。
(2)运行安装命令:
Sudo rpm –ivh jdk-7u67-linux-x64rpm
完成后查看安装路径,输入命令:
Rpm –qa jdk –l
记住该路径,
(3)配置环境变量,输入命令:
Sudo gedit /etc/profile
打开profile文件在文件最下面加入如下内容
export JAVA_HOME=/usr/java/jdk7067
export CLASSPATH=$ JAVA_HOME/lib:$ CLASSPATH
export PATH=$ JAVA_HOME/bin:$PATH
保存后关闭文件,然后输入命令使环境变量生效:
Source /etc/profile
(4)验证JDK,输入命令:
Java –version
若出现正确的版本则安装成功。
配置本机SSH免密码登录:
(1)使用ssh-keygen 生成私钥与公钥文件,输入命令:
ssh-keygen –t rsa
(2)私钥留在本机,公钥发给其它主机(现在是localhost)。输入命令:
ssh-copy-id localhost
(3)使用公钥来登录输入命令:
ssh localhost
配置其它主机SSH免密登录
(1)克隆两次。在VMware左侧栏中选中虚拟机右击,在d出的快捷键菜单中选中管理---克隆命令。在克隆类型时选中“创建完整克隆”,单击“下一步”,按钮直到完成。
(2)分别启动并进入三台虚拟机,使用ifconfig查询个主机IP地址。
(3)修改每台主机的hostname及hosts文件。
步骤1:修改hostname,分别在各主机中输入命令。
Sudo gedit /etc/sysconfig/neork
步骤2:修改hosts文件:
sudo gedit /etc/hosts
步骤3:修改三台虚拟机的IP
第一台对应node1虚拟机的IP:1921681130
第二台对应node2虚拟机的IP:1921681131
第三台对应node3虚拟机的IP:1921681132
(4)由于已经在node1上生成过密钥对,所有现在只要在node1上输入命令:
ssh-copy-id node2
ssh-copy-id node3
这样就可以将node1的公钥发布到node2,node3。
(5)测试SSH,在node1上输入命令:
ssh node2
#退出登录
exit
ssh node3
exit
四:Hadoop完全分布式安装
1 Hadoop有三种运行方式:
(1)单机模式:无须配置,Hadoop被视为一个非分布式模式运行的独立Java进程
(2)伪分布式:只有一个节点的集群,这个节点即是Master(主节点,主服务器)也是Slave(从节点,从服务器),可在此单节点上以不同的java进程模拟分布式中的各类节点
(3)完全分布式:对于Hadoop,不同的系统会有不同的节点划分方式。
2安装Hadoop
(1)获取Hadoop压缩包hadoop-260targz,下载后可以使用VMWare Tools通过共享文件夹,或者使用Xftp工具传到node1。进入node1 将压缩包解压到/home/hduser目录下,输入命令: #进入HOME目录即:“/home/hduser”
cd ~
tar –zxvf hadoop-260targz
(2)重命名hadoop输入命令:
mv hadoop-260 hadoop
(3)配置Hadoop环境变量,输入命令:
Sudo gedit /etc/profile
将以下脚本加到profile内:
#hadoop
export HADOOP_HOME=/home/hduser/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
保存关闭,最后输入命令使配置生效
source /etc/profile
注:node2,和node3都要按照以上配置进行配置。
3配置Hadoop
(1)hadoop-envsh文件用于指定JDK路径。输入命令:
[hduser@node1 ~]$ cd ~/hadoop/etc/hadoop
[hduser@node1 hadoop]$ gedit hadoop-envsh
然后增加如下内容指定jDK路径。
export JAVA_HOME=/usr/java/jdk170_67
(2)打开指定JDK路径,输入命令:
export JAVA_HOME=/usr/java/jdk170_67
(4)core-sitexml:该文件是Hadoop全局配置,打开并在元素中增加配置属性如下:

fsdefaultFs hdfs:node1:9000 hadooptmpdir file:/home/hduser/hadoop/tmp 这里给出了两个常用的配置属性,fsdefaultFS表示客户端连接HDFS时,默认路径前缀,9000是HDFS工作的端口。Hadooptmpdir如不指定会保存到系统的默认临时文件目录/tmp中。 (5)hdfs-sitexml:该文件是hdfs的配置。打开并在元素中增加配置属性。 (6)mapred-sitexml:该文件是MapReduce的配置,可从模板文件mapred-sitexmltemplate中复制打开并在元素中增加配置。 (7)yarn-sitexml:如果在mapred-sitexml配置了使用YARN框架,那么YARN框架就使用此文件中的配置,打开并在元素中增加配置属性。 (8)复制这七个命令到node2,node3。输入命令如下: scp –r /home/hduser/hadoop/etc/hadoop/ hduser@node2:/home/hduser/hadoop/etc/ scp –r /home/hduser/hadoop/etc/hadoop/ hduser@node3:/home/hduser/hadoop/etc/ 4验证: 下面验证hadoop是否正确 (1)在Master主机(node1)上格式化NameNode。输入命令: [hduser@node1 ~]$ cd ~/hadoop [hduser@node1 hadoop]$ bin/hdfs namenode –format (2)关闭node1,node2 ,node3,系统防火墙并重启虚拟机。输入命令: service iptables s sudo chkconfig iptables off reboot (3)输入以下启动HDFS: [hduser@node1 ~]$ cd ~/hadoop (4)启动所有 [hduser@node1 hadoop]$ in/start-allsh (5)查看集群状态: [hduser@node1 hadoop]$ bin/hdfs dfsadmin –report (6)在浏览器中查看hdfs运行状态,网址::node1:50070 (7)停止Hadoop。输入命令: [hduser@node1 hadoop]$ in/s-allsh 五:Hadoop相关的shell *** 作 (1)在 *** 作系统中/home/hduser/file目录下创建file1txt,file2txt可使用图形界面创建。 file1txt输入内容: Hello World hi HADOOP file2txt输入内容 Hello World hi CHIAN (2)启动hdfs后创建目录/input2 [hduser@node1 hadoop]$ bin/hadoop fs –mkdir /input2 (3)将file1txtfile2txt保存到hdfs中: [hduser@node1 hadoop]$ bin/hadoop fs –put -/file/filetxt /input2/ (4)[hduser@node1 hadoop]$ bin/hadoop fs –ls /input2

RAID5 数据恢复费用要多少

具体我也不知道,之前到爱特数据恢复机构恢复过,花钱2000不到,貌似具体也要看什么问题。我那问题比较复杂,花2000能搞定,也是很出乎意料

1希望你们认真看一下楼主的要求\x0d\PC机100台\x0d\像一楼这位大哥说的,便宜几千块服务器。。。你觉得这种机器能保证100台的运行吗?人家既然有100台客户端,同时在线的肯定也比较多,你这个配置不是太坑爹?\x0d\2服务器的选购对于你们的系统具体要求是很重要的,这一点一楼说到一点,你们系统的计算性、复杂性、要求 都是相关的。这一点 需要贵公司/单位 配置一个较好的服务器,在目前来说,IBM/DELL和配置不错,具体配置尽量好,个人认为5W比较正常,服务器的硬盘不是关键,因为这种服务器重要性是它的运算速度,如果条件允许,可以考虑把中间层/域控制器/数据服务器分配到三台服务器上,这样每台承受的压力较小,运算速度更好,服务器的网络接口尽量是1000M。\x0d\3另外、一个客户端的运行因素很多,不光是服务器,你们的网络保证,客户端PC配置情况也同样重要。\x0d\至于二楼这位打广告的 就别来了\x0d\\x0d\希望对你有帮助

伴随着互联网的发展快速,就离不了网络服务器的支撑点,如今对IDC大数据中心主机房的需求也愈来愈多!网络服务器归类规范有很多,尤其是目前网络服务器类型愈来愈多,作用也更加强劲,无论是依照主要用途作用,或是依照构造都是有一定的种类规范。下边咱们来说一下网络服务器都有哪些归类。
1按运用层级区划为新手入门网络服务器、调研组级服务器、单位级服务器和公司级服务器四类。
(1)新手入门网络服务器
(2)调研组级服务器
(3)单位级服务器
(4)公司级服务器
2按网络服务器的处理器架构(也就是网络服务器CPU所运用的计算机指令)区划把网络服务器分成CISC构架网络服务器、RISC构架网络服务器和VLIW构架网络服务器三种。
(1)CISC构架网络服务器
(2)RISC构架网络服务器
(3)VLIW构架网络服务器
3按网络服务器按应用领域区划为通用性网络服务器和专用网络服务器两大类。
(1)通用性网络服务器
(2)专用网络服务器
4按网络服务器的主机箱构造来区划,能够把网络服务器区划为“台式一体机网络服务器”、“机架式网络服务器”、“服务器机柜式网络服务器”和“刀式网络服务器”四类。
(1)台式一体机网络服务器
(2)机架式网络服务器
(3)服务器机柜式网络服务器
(4)刀式网络服务器

韩信点兵,多多益善。

现在不光在线服务吃机器,背后跑各种大数据查询的,人工智能算法的,你给他们多少他们就能用多少。巨头的服务器数量是几十万甚至百万量级的。比如说,好几年前Google的服务器数量是两百五十万台。

这是Facebook其中一个数据中心,一眼望不到头。

再来一张aws和azure数据中心的天下布武,只有非洲还是处女地。每个数据中心一般有几千到几万甚至十几万服务器不等。当然,这些服务器他们也不是都自己用。

下图是来自公开资料中Twitter各种服务器的比例,我没有泄露公司的机密。可以看到数据以及消息的存储和处理占了很高的比例。

有朋友说水平高的程序员可以用很少的机器跑很高的并发,这诚然是一种水平,不过让非常多的机器一起跑还能做的结果准确和很高的稳定性,这也是一种水平。哪种水平更高,就仁者见仁,智者见智了。

所谓的大数据平台不是独立存在的,比如百度是依赖搜索引擎获得大数据并开展业务的,阿里是通过电子商务交易获得大数据并开展业务的,腾讯是通过社交获得大数据并开始业务的,所以说大数据平台不是独立存在的,重点是如何搜集和沉淀数据,如何分析数据并挖掘数据的价值。
我可能还不够资格回答这个问题,没有经历过一个公司大数据平台从无到有到复杂的过程。不过说说看法吧,也算是梳理一下想法找找喷。
这是个需求驱动的过程。
曾经听过spotify的分享,印象很深的是,他们分享说,他们的hadoop集群第一次故障是因为,机器放在靠窗的地方,太阳晒了当机了(笑)。从简单的没有机房放在自家窗前的集群到一直到现在复杂的数据平台,这是一个不断演进的过程。
对小公司来说,大概自己找一两台机器架个集群算算,也算是大数据平台了。在初创阶段,数据量会很小,不需要多大的规模。这时候组件选择也很随意,Hadoop一套,任务调度用脚本或者轻量的框架比如luigi之类的,数据分析可能hive还不如导入RMDB快。监控和部署也许都没时间整理,用脚本或者轻量的监控,大约是没有ganglia、nagios,puppet什么的。这个阶段也许算是技术积累,用传统手段还是真大数据平台都是两可的事情,但是为了今后的扩展性,这时候上Hadoop也许是不错的选择。
当进入高速发展期,也许扩容会跟不上计划,不少公司可能会迁移平台到云上,比如AWS阿里云什么的。小规模高速发展的平台,这种方式应该是经济实惠的,省了运维和管理的成本,扩容比较省心。要解决的是选择平台本身提供的服务,计算成本,打通数据出入的通道。整个数据平台本身如果走这条路,可能就已经基本成型了。走这条路的比较有名的应该是netflix。
也有一个阶段,你发现云服务的费用太高,虽然省了你很多事,但是花钱嗖嗖的。几个老板一合计,再玩下去下个月工资发布出来了。然后无奈之下公司开始往私有集群迁移。这时候你大概需要一群靠谱的运维,帮你监管机器,之前两三台机器登录上去看看状态换个磁盘什么的也许就不可能了,你面对的是成百上千台主机,有些关键服务必须保证稳定,有些是数据节点,磁盘三天两头损耗,网络可能被压得不堪重负。你需要一个靠谱的人设计网络布局,设计运维规范,架设监控,值班团队走起724小时随时准备出台。然后上面再有平台组真的大数据平台走起。
然后是选型,如果有技术实力,可以直接用社区的一整套,自己管起来,监控部署什么的自己走起。这个阶段部署监控和用户管理什么的都不可能像两三个节点那样人肉搞了,配置管理,部署管理都需要专门的平台和组件;定期Review用户的作业和使用情况,决定是否扩容,清理数据等等。否则等机器和业务进一步增加,团队可能会死的很惨,疲于奔命,每天事故不断,进入恶性循环。
当然有金钱实力的大户可以找Cloudera,Hortonworks,国内可以找华为星环,会省不少事,适合非互联网土豪。当然互联网公司也有用这些东西的,比如Ebay。
接下去你可能需要一些重量的组件帮你做一些事情。
比如你的数据接入,之前可能找个定时脚本或者爬log发包找个服务器接收写入HDFS,现在可能不行了,这些大概没有高性能,没有异常保障,你需要更强壮的解决方案,比如Flume之类的。
你的业务不断壮大,老板需要看的报表越来越多,需要训练的数据也需要清洗,你就需要任务调度,比如oozie或者azkaban之类的,这些系统帮你管理关键任务的调度和监控。
数据分析人员的数据大概可能渐渐从RDBMS搬迁到集群了,因为传统数据库已经完全hold不住了,但他们不会写代码,所以你上马了Hive。然后很多用户用了Hive觉得太慢,你就又上马交互分析系统,比如Presto,Impala或者SparkSQL。
你的数据科学家需要写ML代码,他们跟你说你需要Mahout或者Spark MLLib,于是你也部署了这些。
至此可能数据平台已经是工程师的日常工作场所了,大多数业务都会迁移过来。这时候你可能面临很多不同的问题。
比如各个业务线数据各种数据表多的一塌糊涂,不管是你还是写数据的人大概都不知道数据从哪儿来,接下去到哪儿去。你就自己搞了一套元数据管理的系统。
你分析性能,发现你们的数据都是上百Column,各种复杂的Query,裸存的Text格式即便压缩了也还是慢的要死,于是你主推用户都使用列存,Parquet,ORC之类的。
又或者你发现你们的ETL很长,中间生成好多临时数据,于是你下狠心把pipeline改写成Spark了。
再接下来也许你会想到花时间去维护一个门户,把这些零散的组件都整合到一起,提供统一的用户体验,比如一键就能把数据从数据库chua一下拉到HDFS导入Hive,也能一键就chua一下再搞回去;点几下就能设定一个定时任务,每天跑了给老板自动推送报表;或者点一下就能起一个Storm的topology;或者界面上写几个Query就能查询Hbase的数据。这时候你的数据平台算是成型了。
当然,磕磕碰碰免不了。每天你都有新的问题和挑战,否则你就要失业了不是?
你发现社区不断在解决你遇到过的问题,于是你们架构师每天分出很多时间去看社区的进展,有了什么新工具,有什么公司发布了什么项目解决了什么问题,兴许你就能用上。
上了这些乱七八糟的东西,你以为就安生了?Hadoop平台的一个大特点就是坑多。尤其是新做的功能新起的项目。对于平台组的人,老板如果知道这是天然坑多的平台,那他也许会很高兴,因为跟进社区,帮忙修bug,一起互动其实是很提升公司影响力的实情。当然如果老板不理解,你就自求多福吧,招几个老司机,出了问题能马上带路才是正道。当然团队的技术积累不能不跟上,因为数据平台还是乱世,三天不跟进你就不知道世界是什么样了。任何一个新技术,都是坑啊坑啊修啊修啊才完善的。如果是关键业务换技术,那需要小心再小心,技术主管也要有足够的积累,能够驾驭,知道收益和风险。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13291290.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-09
下一篇 2023-07-09

发表评论

登录后才能评论

评论列表(0条)

保存