1,研发(基本吧,产品总得有人来做)
2,调优(主要是Mysql调优,在符合业务需求的情况下尽可能提高TPS)
3,运维(小公司不会像大公司一样还标配运维,通常后端兼任运维职能)
扩展下:
研发:php入行,选个好框架(推荐Yaf),然后研发过程中多注意下性能,多用php本身的函数来解决需求,php本身函数丰富,而且都是C扩展,性能非常可靠。
调优:这个我实在不知道该放到研发还是运维,所以就单独拿出来说。因为其历茄实对于服务器性能的调优本身两边都需要进行,一是研发时注意,二是各个软件(主要是DB)的配置项。我的调优很粗暴,用阿里云的压力测试(耗费了公司一些钱财,罪过罪过)每次压一分到5分钟,然后看看瓶颈在哪里,把配置项全部列出来,肉眼+自行判断调整哪个参数看看能不能提升性能(233),我也会在代码中把每个核心部分的消耗时间打入日志,来判断到底该进行哪里的优化。
运维:主要分三部分,
快速部署:虽然是小公司,但是老板有些资源,所以可以预计绝桥上线第一波的压力不小,如果产品良好的情况下压力只能会越来越大,所以要求如果感觉到系统有压力后,需要快速进行横向扩展系统,这里我选用的Puppet,理由很简单:老牌,使用广泛,社区强大。
监控报警:这是运维的眼睛,我选用的zabbix,理由跟上面一样:老牌,使用广泛,社区强大。
日志采集:因为是集群的原因,看日志不方便,最开始是用nfs来收集,后来随着日志越来越分散,日志越来越大,没用多久就被我抛弃了,然后在朋友的推荐下使用ELK进行日志采集和查看。理由只是因为没有别的更好选择(朋友强烈推荐这个,其他的都是没有啥强大社区,这个看着更肢宏察靠谱点)
我刚开始做Web开发的时候,根本没有前端,后端之说。
原因很简单,那个时候服务器端的代码就是一切: 接受浏览器的请求,实现业务逻辑,访问数据库码迅,用JSP生成HTML,然后发送给浏览器。
即使后来Javascript在浏览器中添加了一些AJAX的效果,那也是锦上添花,绝对不敢造次。因为页面的HTML主要还是用所谓“ 套模板 ”的方式生成:美工生成HTML模板,程序员用JSP,Veloctiy,FreeMaker等技术把动态的内容添加上去,仅此而已。
那个时候最流行的图是这个样子:
在最初的J2EE体系中,这个 表示层 可不仅仅是浏览器中运行的页面,还包括Java写的桌面端,只是Java在桌面端太不争气, 没有发展起来。
每个程序员都是所谓 “全栈”工程师 ,不仅要搞定HTML, JavaScript, CSS,还要实现业务逻辑,编写访问数据库的代码。等到部署的时候,就把所有的代码打成一个WAR包,往Tomcat指定的目录一扔,测试一下没问题,收工回家!
不差钱的公司会把程序部署到Weblogic,Websphere这样的应用服务器中,还会用上高大上的EJB。
虽然看起来生活“简单”又“惬意”,但实际上也需要实现那些多变的、不讲逻辑的业务需求,苦逼的本质并没有改变。
随着大家对浏览器页面的 视觉和交互 要求越来越高,“套模板”的方式渐渐无法满足要求,这个所谓的表示层慢慢地迁移到浏览器当中去了,一大批像Angular, ReactJS之类的框架崛起,前后端分离了!
后端的工程师只负责提供接口和数据,专注于业务逻辑的实现,前端取到数据后在浏览器中展示,各司其职。
像Java这样的语言很适合去实现复杂的业务逻辑,尤其是一些MIS系统,行业软件如税务、电力、烟草、金融,通信等等。 所以剥离表示层,只做后端挺合适的。
但是如果仅仅是实现业务逻辑,那后端也不会需要这么多技术了,搞定SSH/SSM就行了。
互联网,尤其是移动互联网开始兴起以后,海量的用户呼啸而来,一个单机部署的小小War包肯定是撑不住了,必须得做分布式。
原来的单个Tomcat得变成Tomcat的 集群 ,前边弄个Web服务器做请求的 负载均衡, 不仅如此,还得考虑状态问题,session的一致性。
(注:参见文章《小白科普:分布式和集群》)
业务越来越复杂,我们不得不把某些业务放到一个机器(或集群)上,把另外一部分业务放到另外一个机器(或集群)上,虽然系统的计算能力,处理能力大大增强,但是这些系统之间的通信就变成了头疼的问题, 消息队列 (MQ), RPC框架 (如Dubbo)应运而生,为了提高通信效率,各种 序列化的工具 (如Protobuf)也争先空后地问世。
单个数据库也撑不住了,那就做数据库的 读写分离 ,如果还不行,就做 分库和分表 ,把原有的数据库垂直地切一切,或者水平地切一切, 但不管怎么切,都会让应用程序的访问非常麻烦,因为数据要跨库做Join/排序,还需要事务,为了解决这个问题,又有各种各样“ 数据访问中间件 ”的工具和产品诞生。
为了最大程度地提高性能,缓存肯定少不了,可以在本机做缓存(如Ehcache),也可以做 分布式缓存 (如Redis),如何搞 数据分片 ,数据迁移,失效转移,这又是一个超级大的主题了。
互联网用户喜欢上传图片和文件,还得搞一个 分布式的文件系统 (如FastDFS),要求高可用,高可靠。
数据量大了,搜索的需求就自然而然地浮出水面,你得弄一个支持全文索引的 搜索引擎 (如Elasticsearch ,Solr)出来。
林子大了,什么鸟都有,必须得考虑 安全 ,数据的加密/解密,签名、证睁模模书,防止SQL注入,XSS/CSRF等各种攻击。
前面提悉缓到了这么多的系统,还都是分布式的,每次上线,运维的同学说:把这么多系统协调好,把老子都累死了。
得把持续集成做好,能自动化地部署,自动化测试(其实前端也是如此),后来出现了一个革命化的技术 docker , 能够让开发、测试、生成环境保持一致,系统原来只是在环境(如Ngnix, JVM,Tomcat,MySQL等)上部署代码,现在把代码和环境一并打包, 运维的工作一下子就简化了。
公司自己购买服务器比较贵,维护也很麻烦,又难于d性地增长,那就搞点虚拟的服务器吧,硬盘、内存都可以动态扩展(反正是虚拟的), 访问量大的时候多用点,没啥访问量了就释放一点,按需分配,很方便,这就是 云计算 的一个场景。
随着时间的推移,各个公司和系统收集的数据越来越多,都堆成一座大山了,难道就放在那里白白地浪费硬盘空间吗?
有人就惊奇地发现,咦,我们利用这些数据搞点事情啊, 比如把数据好好分析一下,预测一下这个用户的购买/阅读/浏览习惯,给他推荐一点东西嘛。
可是这么多数据,用传统的方式计算好几天甚至好几个月才能出个结果,到时候黄花菜都凉了,所以也得利用分布式的技术,想办法把计算分到各个计算机去,然后再把计算结果收回来, 时势造英雄, Hadoop 及其生态系统就应运而生了。
之前听说过一个大前端的概念,把移动端和网页端都归结为“前端”,我这里造个词“大后端”,把那些用户直接接触不到的、发生在服务器端的都归结进来。
现在无论是前端还是后端,技术领域多如牛毛,都严重地细分了,所以 我认为真正的全栈工程师根本不存在,因为一个人精力有限,不可能搞定这么多技术领域,太难了 。
培训机构所说的“全栈”,我认为就是前后端还在拉拉扯扯,藕断丝连,没有彻底分离的时候的“全栈”工程师。
那么问题来了, 后端这么多东西,我该怎么学?
之前写过一篇文章叫做《上天还是入地》,说了学习的广度和深度,在这里也是相通的。
往深度挖掘,可以成为某个技术领域的专家,如搜索方面的专家、安全方面的专家,分布式文件的专家等等,不管是哪个领域,重点都不是学会使用某个工具和框架, 而是保证你可以自己的知识和技术去搞定这个领域的顶尖问题。
往广度发展,各个技术领域都要了解,对于某种需求,能够选取合适的软件和技术架构来实现它,把需求转化成合适的技术组件,让这些组件以合适的方式连接、部署、运行,这也需要持续地学习和不断的经验积累。
最后,以一张漫画来结束吧!
C/C++高级工程师学习路线图:
前端比后端工没则资低吗?或者说前端没有后端吃香?假如你非要说开发web 3D的比java程序员高。或者说玩hadoop比js开发工资高,这样比较本身不具有权威性。要比较首先要看二者在同等水平下进行核对比较,这样才有可比性。
从地域上来看,北京的前端工程师平均工资为18690元,说明前端程序员在一线城市待遇还是不错的。这里的前端工资指的是做的普通web开发的前端,个体的差异比较大,所以只可能用平均工资来做比较。
看了后端的工资,我们可以看到北京后端的平均工资为18700元,说明前后端的薪资待遇整体上还是差不多的。说后端工资高的也是对的,因为5年之后,后端程序员的工资会逐步居上。
现在去一家公司去做前后端的普通开发,前后端也许是同一个价格。前端的工作输出结果是客户能够直接看到的结果。后端的开发体现在服务器端。用户实际上看不到后端的,二者相辅相成,使得互联网输出谈察蚂的产品更多地为用户服务。
如果你从事前端或者只是简简单单的为了生存,那么这二者也许没有什么区别。一个是交互设计,一个是业务逻辑。产品上的需求都有很多,都是IT互联网产业链的最低端,所以无论从事哪个,最终的结果都是一样,论谁更吃香本身没有可比性。
如果你不是简简单单的为了生存,如果你对IT技术有着浓厚的兴趣,建议好好的研究一个平台,做更深,比如说后含埋端的技术路线,一直从架构师干到首席CTO。那个时候也许你就知道所谓的从事前端或者后端哪个更吃香了。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)