1、唤醒iPhone,在主界面找到“设置”,在设置里找到“无线局域网”,部分版本称为“WiFi”。
2、找到你所连接的无线局域网,例如“i4Team”点击该无线局域网信号右边的“i”这里我们会看到各种参数,修改其中的DNS为“114、114、114、114”。
3、修改完毕后点击左上角的“无线局域网”返回上一级。这样你iPhone上的APPstore载入速度就会快多了。很多果粉反映说苹果App Store下载速度太慢这个问题,那么app store下载应用为什么这么慢下面小编就为大家介绍App store下载慢原因及解决方法,来看看吧!
App Store下载速度慢的原因:
1、国内用户从苹果软件商店下载软件速度很慢这是大家都知道的事实,究其原因就是苹果没有在我国大陆设置软件下载服务器。这就导致我们只能去国外的服务器完成下载工作,这样自然没有从国内服务器下载的快。
2、iTunes作为一款网络软件,当我们需要下载的时候,需要DNS域名解析分配给用户下载软件所用的服务器,这样我们就能通过解析出来的IP连接到服务器主机下载需要的软件了,但是由于我国的宽带网络基本上被几家大的运营商所掌控,带宽不高的同时用户却很多,这就导致在相同DNS域名解析请求很多的时候对国外网站的处理时间很长。这样也就影响了下载速度。
iTunes下载软件过程简介:
下面我们就简略讲述一下以正常途径从iTunes App Store中得到一个应用的过程。
我们先来介绍一下CDN这个概念,CDN的全称是Content Delivery Network,即内容分发网络。其基本思路是尽可能避开互联网上有可能影响数据传输速度和稳定性的瓶颈和环节,使内容传输的更快、更稳定。
目前,国内访问量较高的大型网站如新浪、网易等,均使用CDN网络加速技术,虽然网站的访问巨大,但无论在什么地方访问都会感觉速度很快。而一般的网站如果服务器在网通,电信用户访问很慢,如果服务器在电信,网通用户访问又很慢。
对于苹果公司来说他们用的是美国的AkamaiCDN服务。Akamai是国际上最大的CDN服务商,它巨大的网络分发能力在峰值时可达到15Gbps。Akamai公司是为数不多的旨在消除Internet瓶颈和提高下载速度的几家新公司之一。
这样我们就知道了,当我们从iTunes AppStore下载软件的时候,都会通过本地DNS连接到Akamai的服务器上请求解析分配给我们使用的下载服务器。这时会根据我们使用的DNS的IP的地址来分配下载服务器的IP地址,对于我国的用户来讲,一般主流宽带上网用户用的不是联通就是电信,DNS服务器的地址一般也是自动获取的,这样做的结果就是CDN服务器会得到大量来自同一地点的DNS请求,于是用户们会得到一个相同的下载服务器地址,加上我国用户的带宽相对较小下载速度慢也是合乎情理的。
App store下载慢解决方法:
唤醒iPhone,在主界面找到“设置”
在设置里找到“无线局域网”,部分版本称为“WiFi”
找到你所连接的无线局域网,例如这里的“CMCC-EDU”
点击该无线局域网信号右边的“i”
这里我们会看到各种参数,修改其中的DNS为“114114114114”
修改完毕后点击左上角的“无线局域网”返回上一级。这样你iPhone上的APP store载入速度就会快多了。
以上就是App store下载慢原因及解决方法,现在大家明白了吗?其实方法很简单,希望能对大家有所帮助!
卡塔尔断交潮发生后,美国调查人员认为,俄罗斯黑客入侵了卡塔尔国家新闻机构,并植入一则假新闻,挑起了卡塔尔外交危机。美方安全机构公布调查结果称,所搜集的情报显示,黑进卡塔尔国营通讯社并植入假新闻的,正是俄罗斯黑客。
自去年以来,俄罗斯黑客就一直被指责 *** 纵美国大选,帮助特朗普赢得总统职位。白宫幕僚长普里巴斯也透露,特朗普本人也相信俄罗斯曾经干扰美国大选期间的民主党大会。
今年5月,法国总统大选第二轮投票前夕,马克龙竞选团队成千上万的信息和文件在网络散播。美国国家安全局局长罗杰斯随后表示,美国早就“察觉了”法国大选中“俄罗斯的活动”,指责俄罗斯黑客干涉法国总统大选。
对于这些黑客干扰事件,并没有十分确切的证据,俄罗斯方面也从未承认过。
俄罗斯黑客到底有多厉害?
从攻击数量来说,著名网络传输服务供应商Akamai每季都会统计全球网络现状。Akamai公司最新的报告显示,在198个国家的对外攻击流量排名中,俄罗斯以7%的比例排在巴西(25%)、美国(23%)、德国(9%)之后,位列第四。
而美国媒体爆料称,俄罗斯最近对一个面向黑客的网站进行了一项调查,82%的受访者都认为,俄罗斯拥有世界上最好的黑客,只有5%的人觉得美国黑客更优秀。美国情报部门在2015年发布的《全球威胁评估》中也称,俄罗斯拥有技术最先进的黑客。
俄罗斯黑客“干过几票大案”
2014年,俄罗斯4名黑客制造了号称“美国史上最大数据盗窃案之一”的雅虎账号盗窃案。他们使用未经授权的方式访问雅虎系统,盗窃至少5亿个雅虎账户的信息。这些被黑的雅虎帐号当中,约有超过150万个属于美国联邦政府以及美军人员,包括白宫官员、国会议员、CIA(中央情报局)、FBI(联邦调查局)、NSA(国家安全局)的员工、美国当时现任及前任国务院官员,以及1个美国空军情报大队指挥官。
2017年4月,一位名为Roman Seleznev的俄罗斯黑客打破了“黑客史上最长入狱监禁惩罚”记录,因利用POS机破解手段造成169亿美元损失,被法院判监禁27年。这名黑客从2009年到2013年的3年间,针对POS销售系统植入了恶意软件,倒卖付款者支付信息,使超过500家美国企业及3700家金融机构受到影响,造成至少169亿美元损失。
2016年里约奥运会,俄罗斯先是多达100多位运动员被国际奥委会禁止参赛;此后,俄罗斯残奥代表团更是被全员禁止参加里约残奥会。这一举动似乎惹恼了俄罗斯黑客。在残奥会期间,俄罗斯一个名为“奇幻熊(Fancy Bears)”的黑客组织入侵了世界反兴奋剂机构(WAD)的服务器,曝光了一系列体育明星使用“禁药”的信息。被曝光的美国和英国运动员人数最多,包括了大小威、纳达尔等网球名将,以及里约奥运会体 *** 4金得主西蒙拜尔斯、长跑双料冠军法拉赫等里约奥运会金牌得主。这一事件也成为了“乌龙最多”的里约奥运会上最大的看点。
web10时代是一个群雄并起,逐鹿网络的时代,虽然各个网站采用的手段和方法不同,但第一代互联网有诸多共同的特征,表现在:一、web10基本采用的是技术创新主导模式,信息技术的变革和使用对于网站的新生与发展起到了关键性的作用。新浪的最初就是以技术平台起家,搜狐以搜索技术起家,腾讯以即时通讯技术起家,盛大以网络游戏起家,在这些网站的创始阶段,技术性的痕迹相当之重。
二、web10的盈利都基于一个共通点,即巨大的点击流量。无论是早期融资还是后期获利,依托的都是为数众多的用户和点击率,以点击率为基础上市或开展增值服务,受众群众的基础,决定了盈利的水平和速度,充分地体现了互联网的眼球经济色彩。
三、web10的发展出现了向综合门户合流现象,早期的新浪与搜狐、网易等,继续坚持了门户网站的道路,而腾讯、MSN、GOOGLE等网络新贵,都纷纷走向了门户网络,尤其是对于新闻信息,有着极大的、共同的兴趣。这一情况的出现,在于门户网站本身的盈利空间更加广阔,盈利方式更加多元化,占据网站平台,可以更加有效地实现增值意图,并延伸由主营业务之外的各类服务。
四、web10的合流同时,还形成了主营与兼营结合的明晰产业结构。新浪以新闻+广告为主,网易拓展游戏,搜狐延伸门户矩阵,各家以主营作为突破口,以兼营作为补充点,形成拳头加肉掌的发展方式。
五、web10不以html为言,在10时代,动态网站已经广泛应用,比如论坛等
web20
2001年秋天互联网公司(dot-com)泡沫的破灭标志着互联网的一个转折点。许多人断定互联网被过分炒作,事实上网络泡沫和相继而来的股市大衰退看起来像是所有技术革命的共同特征。股市大衰退通常标志着蒸蒸日上的技术已经开始占领中央舞台。假冒者被驱逐,而真正成功的故事展示了它们的力量,同时人们开始理解了是什么将一个故事同另外一个区分开来。
“Web 20”的概念开始于一个会议中,展开于O'Reilly公司和MediaLive国际公司之间的头脑风暴部分。所谓互联网先驱和O'Reilly公司副总裁的戴尔·多尔蒂(Dale Dougherty)注意到,同所谓的“崩溃”迥然不同,互联网比其他任何时候都更重要,令人激动的新应用程序和网站正在以令人惊讶的规律性涌现出来。更重要的是,那些幸免于当初网络泡沫的公司,看起来有一些共同之处。那么会不会是互联网公司那场泡沫的破灭标志了互联网的一种转折,以至于呼吁“Web 20”的行动有了意义?我们都认同这种观点,Web 20会议由此诞生。
在那个会议之后的一年半的时间里,“Web 20”一词已经深入人心,从Google上可以搜索到950万以上的链接。但是,至今关于Web 20的含义仍存在极大的分歧,一些人将Web 20贬低为毫无疑义的一个行销炒作口号,而其他一些人则将之理解为一种新的传统理念。
本文就是来尝试澄清Web 20本来意义。
在我们当初的头脑风暴中,我们已经用一些例子,公式化地表达了我们对Web 20的理解:
Web 10 Web 20
DoubleClick Google AdSense
Ofoto Flickr
Akamai BitTorrent
mp3com Napster
大英百科全书在线(Britannica Online) 维基百科全书(Wikipedia)
个人网站 博客(blogging)
evite upcomingorg和EVDB
域名投机 搜索引擎优化
页面浏览数 每次点击成本
屏幕抓取(screen scraping) 网络服务(web services)
发布 参与
内容管理系统 维基
目录(分类) 标签(“分众分类”,folksonomy)
粘性 聚合
这个列表还会不断继续下去。但是到底是什么,使得我们认定一个应用程序或一种方式为作所谓“Web 10”,而把另外一个叫做“Web 20”呢?(这个问题尤为紧迫,因为Web 20的观念已经传播的如此广泛,以至于很多公司正在将这个词加到他们的行销炒作中,但却没有真正理解其含义。同时这个问题也尤为困难,因为许多嗜好口号的创业公司显然不是Web 20,而一些我们认为是Web 20的应用程序,例如Napster和BitTorrent,甚至不是真正适当的网络程序!)我们首先来探讨一些原则,这些原则是通过Web 10的一些成功案例,以及一些最为有趣的新型应用程序来体现的。
1 互联网作为平台
正如许多重要的理念一样,Web 20没有一个明确的界限,而是一个重力核心。不妨将Web 20视作一组原则和实践,由此来把距离核心或远或近的网站组成为一个类似太阳系的网络系统,这些网站或多或少地体现着Web 20的原则。
图1为Web 20的“模拟图”,该图是在名为“O'Reilly的朋友”(Friend Of O’reilly, FOO)的会议的一个研讨会上产生的。这个图基本上仍处于演化阶段,但已经描绘出了 从Web 20核心理念中衍生出的许多概念。
例如,在2004年10月的第一次Web 20的会议上,约翰·巴特利(John Battelle)和我在我们各自的开场白中列举了一组初步的原则。
这些原则中的第一条就是“互联网作为平台”。这也曾是Web 10的宠儿网景公司(Netscape)的战斗口号,而网景在同微软的大战中陨落了。此外,我们早先的Web 10的楷模中的两个,DoubleClick和Akamai公司,皆是将网络当作平台的先驱。人们往往不认为这是一种网络服务,但事实上,广告服务是第一个被广泛应用的网络服务,同时也是第一个被广泛应用的混合处理(mashup),如果用另一个近来流行的词来说的话。每个旗帜广告(banner ad)都是用来在两个网站之前无缝合作,向位于另外一台计算机上的读者传递一个整合好的页面。
Akamai也将网络看作平台,并且在一个更深入的层次上,来搭建一个透明的缓存和内容分发网络,以便降低宽带的拥塞程度。
虽然如此,这些先驱提供了有益的对比,因为后来者遇到同样问题的时候,可以将先驱们的解决方案进一步延伸,从而对新平台本质的理解也更为深刻了。DoubleClick和Akamai都是Web 20的先驱,同时我们也可以看到,可以通过引入更多Web 20的设计模式,来实现更多的应用。
让我们对这三个案例中的每一个都作一番深究,来探讨其间的一些本质性的差别。
Netscape 对 Google
如果Netscape可以称为Web 10的旗手,那么Google几乎可以肯定是Web 20的旗手,只要看看他们的首次公开上市(IPO)是如何地揭示了各自的时代就清楚了。所以我们就从这两个公司和其定位的差别入手。
Netscape以传统的软件摹本来勾勒其所谓“互联网作为平台”:他们的旗舰产品是互联网浏览器,一个桌面应用程序。同时,他们的战略是利用他们在浏览器市场的统治地位,来为其昂贵的服务器产品建立起市场。从理论上讲,在浏览器中控制显示内容和程序的标准,赋予了Netscape一种市场支配力,如同微软公司在个人计算机市场上所享受的一样。很像当初“自行的马车”(horseless carriage)将汽车描绘为一种熟知事物的延伸,Netscape曾推销一种网络桌面(webtop)来替代传统的桌面(desktop),并且计划借助信息更新,以及由购买了Netscape服务器的信息提供者来推送的各种小程序,来开发推广这种网络桌面。
最终,浏览器和网络服务器都变成了“日用品”,同时价值链条也向上移动到了在互联网平台上传递的服务。
作为对比,Google则以天生的网络应用程序的角色问世,它从不出售或者打包其程序,而是以服务的方式来传递。客户们直接或间接地为其所使用的服务向Google付费。原有软件工业缺陷荡然无存。没有了定期的软件发布,只需要持续的改善。没有了许可证或销售,只需要使用。没有了为了让用户在其设备上运行软件而不得不进行的平台迁移,只需要搭建宏大的、由众多个人计算机组成的、可伸缩的网络,其上运行开源 *** 作系统,及其及自行研制的应用程序和工具,而公司之外的任何人则永远无法接触到这些东西。
在其底层,Google需要一种Netscape从未需要过的能力:数据库管理。Google远远不只是一个软件工具的集合,它是一个专业化的数据库。没有这些数据,那些工具将毫无用武之地;没有这些软件,数据也将无可控制。软件许可证制度和对应用程序接口(API)的控制——上一个时代的法宝——已经毫不相关了,因为Google的软件只需要执行而从不需要分发,也因为如果不具备收集和管理数据的能力,软件本身就没有什么用处了。事实上,软件的价值是同它所协助管理的数据的规模和活性成正比的。
Google的服务不是一个简单的服务器,虽然其服务是通过大规模的互联网服务器集合来传递的;其服务也不是一个浏览器,虽然这种服务是被用户在浏览器中体验到的。Google的旗舰产品——搜索服务,甚至不托管它让用户来搜寻的内容。很像一个电话通话过程,不仅发生在通话的两端,而且发生在中间的网络上。作为用户和其在线体验的一个中介,Google作用于浏览器、搜索引擎和最终的内容服务器之间的空间中。
虽然Netscape和Google都可以被描述为软件公司,但显然Netscape可以归到Lotus,Microsoft,Oracle,SAP,以及其他发源于上个世纪八十年代软件革命的那些公司所组成的软件世界。而Google的同伴们,则是像eBay,Amazon,Napster,及至DoubleClick和Akamai这样的互联网公司。
DoubleClick对Overture和AdSense
同Google类似,DoubleClick是一个名副其实的互联网时代的孩子。它把软件作为一种服务,在数据管理方面具有核心竞争力,并且正如上文所述,它是一个早在连网络服务的名字还不曾有的时候,就已然开始其服务的先驱。然而,DoubleClick最终还是被其商业模式局限住了。它所贯彻的是九十年代的互联网观念。这种观念围绕着出版,而不是参与;围绕着广告客户,而不是消费者,来进行 *** 纵;围绕着规模,认为互联网会被如MediaMetrix等网络广告评测公司尺度下的所谓顶级网站所统治。
结果是,DoubleClick得意地在其网站上引用道:“超过2000种的成功应用”。而相对比的是,Yahoo!公司的搜索市场(从前的Overture)和Google的AdSense产品,已经在为几十万的广告客户服务。
Overture和Google的成功源自于对克里斯·安德森(Chris Anderson)提到的所谓“长尾”的领悟,即众多小网站集体的力量提供了互联网的大多数内容。DoubleClick的产品要求一种签订正式的销售合同,并将其市场局限于很少的几千个大型网站。Overture和Google则领会到如何将广告放置到几乎所有网页上。更进一步地,它们回避了发行商和广告代理们所喜爱的广告形式,例如旗帜广告和d出式广告,而采用了干扰最小的、上下文敏感的、对用户友好的文字广告形式。
Web 20的经验是:有效利用消费者的自助服务和算法上的数据管理,以便能够将触角延伸至整个互联网,延伸至各个边缘而不仅仅是中心,延伸至长尾而不仅仅是头部。
毫不奇怪,其他Web 20的成功故事也显示着同样的轨迹。eBay扮演着一个自动的中间媒介的角色,使个体之间发生的几个美元的偶然性的交易成为可能。Napster(虽然已经出于法律原因而关闭)将其网络建立在一个集中的歌曲数据库之上,但是它让每一个下载者都成为一台服务器,从而使其网络逐渐扩大。
Akamai 对 BitTorrent
同DoubleClick类似,Akamai的业务重点面向网络的头部,而不是尾部;面向中心,而不是边缘。虽然它服务于那些处于网络边缘的个体的利益,为他们访问位于互联网中心的高需求的网站铺平了道路,但它的收入仍然来自从那些位于中心的网站。
BitTorrent,像P2P风潮中的其他倡导者一样,采用了一种激进的方式来达到互联网去中心化(internet decentralization)的目的。每个客户端同时也是一个服务器;文件被分割成许多片段,从而可以由网络上的多个地方提供,透明地利用了网络的下载者来为其他下载者提供带宽和数据。事实上,文件越流行下载得越快,因为有更多的用户在为这个文件提供带宽和各个片段。
BitTorrent由此显示出Web 20的一个关键原则:用户越多,服务越好。一边是Akamai必须增加服务器来改善服务,另一边是BitTorrent用户将各自的资源贡献给大家。可以说,有一种隐性的“参与体系”内置在合作准则中。在这种参与体系中,服务主要扮演着一个智能代理的作用,将网络上的各个边缘连接起来,同时充分利用了用户自身的力量。
2 利用集体智慧
在诞生于Web 10时代并且存活了下来,而且要继续领导Web 20时代的那些巨人的成功故事的背后,有一个核心原则,就是他们借助了网络的力量来利用集体智慧:
--超级链接是互联网的基础。当用户添加新的内容和新的网站的时候,将被限定在一种特定的网络结构中,这种网络结构是由其他用户发现内容并建立链接的。如同大脑中的神经突触,随着彼此的联系通过复制和强化变得越来越强,而作为所有网络用户的所有活动的直接结果,互联的网络将有机地成长。
--Yahoo!是第首例伟大的成功故事,诞生于一个分类目录,或者说是链接目录,一个对数万甚至数百万网络用户的最精彩作品的汇总。虽然后来Yahoo!进入了创建五花八门的内容的业务,但其作为一个门户来收集网络用户们集体作品的角色,依然是其价值核心。
--Google在搜索方面的突破在于PageRank技术,该技术令其迅速成为搜索市场上毫无争议的领导者。PageRank是一种利用了网络的链接结构,而不是仅仅是使用文档的属性,来实现更好的搜索效果的方法。
--eBay的产品是其全部用户的集体活动,就向网络自身一样,eBay随着用户的活动而有机地成长,而且该公司的角色是作为一个特定环境的促成者,而用户的行动就发生在这种环境之中。更重要的是,eBay的竞争优势几乎都来自于关键性的大量的买家和卖家双方,而这正是这一点使得后面许多竞争者的产品的吸引力显著减低。
--Amazon销售同Barnesandnoblecom等竞争者相同的产品,同时这些公司从卖方获得的是同样的产品描述、封面和目录。所不同的是,Amazon已然缔造出了一门关于激发用户参与的科学。Amazon拥有比其竞争者高出一个数量级以上的用户评价,以及更多的邀请来让用户以五花八门的方式,在近乎所有的页面上进行参与,而更为重要的是,他们利用用户的活动来产生更好的搜索结果。Barnesandnoblecom的搜索结果很可能指向该公司自己的产品,或者是赞助商的结果,而Amazon则始终以所谓“最流行的”打头,这是一种实时计算,不仅基于销售,而且基于其他一些被Amazon内部人士称为围绕着产品“流动”(flow)的因素。由于拥有高出对手一个数量级的用户参与,Amazon销售额超出竞争对手也就不足为奇了。
现在,具备了这种洞察力,并且可能会将之延伸开来的那些创新型的公司,正在互联网上留下他们的印迹。
维基百科全书(Wikipedia)是一种在线百科全书,其实现基于一种看似不可能的观念。该观念认为一个条目可以被任何互联网用户所添加,同时可以被其他任何人编辑。无疑,这是对信任的一种极端的实验,将埃里克·雷蒙德(Eric Raymond)的格言(源自开放源码软件的背景之下):“有足够的眼球,所有的程序缺陷都是肤浅的”(with enough eyeballs, all bugs are shallow)运用到了内容的创建之中。维基百科全书已然高居世界网站百强之列,并且许多人认为它不久就将位列十强。这在内容创建方面是一种深远的变革。
像delicious(美味书签)和Flickr这样的网站,其公司已经在近期获得了广泛的关注,并且已经在一种被人们成为“分众分类”(folksonomy,有别于传统分类法)的概念上成为先行者。“分众分类”是一种使用用户自由选择的关键词对网站进行协作分类的方式,而这些关键词一般称为标签(tags)。标签化运用了像大脑本身所使用的那种多重的、重叠的关联,而不是死板的分类。举一个经典的例子,在Flickr网站上,一幅小狗照片可能被加上“小狗”和“可爱”这样的标签,从而允许系统依照用户行为所产生的自然的方式来进行检索。
协作式垃圾信息过滤产品,例如Cloudmark,就聚集了电子邮件用户们对于“一封邮件是或者不是垃圾邮件”的众多相互独立的决策,从而胜过了依赖于分析邮件本身的那些系统。
伟大的互联网成功者并不主动地到处推销其产品,这几乎成为公理。他们采用“病毒式营销”(viral marketing)的方式,也就是说,一些推介会直接从一个用户传播到另外一个用户。如果一个网站或产品依赖广告来进行宣传,你几乎可以断定它不是Web 20。
即便许多互联网基础设施本身,包括在大多数网络服务器中用到的Linux,Apache,MySQL,以及Perl,PHP或Python代码,也都依靠开放源码的对等生产(peer-production)的方式。其中包含了一种集体的、网络赋予的智慧。在SourceForgenet网站上列有至少10万种开放源码软件项目。任何人都可以添加一个项目,任何人都可以下载并使用项目代码。
同时,由于作为用户使用的结果,新的项目从边缘迁移到中心。一个对软件的有机的接受过程几乎完全依靠病毒式营销。同时,作为用户应用的结果,新的项目从边缘迁移到中心,这是一种几乎完全依靠病毒式营销的,有机的软件采用过程,。
经验是:源于用户贡献的网络效应,是在Web 20时代中统治市场的关键。
平台总是打败应用程序
在过去每次同对手的竞争中,微软都成功地打用了平台这张牌,打败了即便是最占主导地位的应用程序。Windows平台让微软以Excel取代了Lotus 1-2-3,以Word取代了WordPerfect,,以Internet Explorer取代了Netscape浏览器。
不过这次,冲突不是在平台和应用程序之间,而是在两种平台之间。每个平台皆有一种截然不同的商业模式:一方面,一个独立软件商具有广泛的用户基础并且将应用程序接口和 *** 作系统紧密集成,从而对程序设计模式予以控制;另一方面,是一个没有所有者的系统,由一组协议、开放标准和对合作的共识来连结到一起。
Windows系统代表了由软件程序接口来进行专有控制的高峰。Netscape曾尝试用微软当初对付其对手所使用的手段,来同微软进行争夺,但是失败了。然而拥有互联网开放标准的Apache却已经繁荣了起来。此番上演的战局,已经不再是实力悬殊的平台对决孤立的软件了,而是变成了平台对决平台。问题在于,哪个平台,或者更深远地来说哪个体系,以及哪个商业模式,最能适应未来的机遇。
Windows对于早期的PC时代的问题是一种卓越的解决方案。它统一了程序开发者的竞技场,解决了很多困扰这个领域的问题。但这种由单一供方控制的一刀切的方法,已经不再是适宜的解决方案,而成为了一种问题。面向交流的系统需要协同性,互联网作为一个平台当然也是如此。除非供方可以控制每一例交互的两个终端,这种通过软件的程序接口来锁定用户的可能性微乎其微。
任何企图通过控制平台来推销应用程序的Web 20提供商,从定义上讲,已经丧失了这个平台的优越性。
这并不是说锁定和竞争优势的机会不复存在了,而是说我们相信这种机会不是通过控制软件程序接口和协议来取得的。新的游戏规则正在浮现。那些能够理解这些新的游戏规则,而不是企图回到PC软件时代旧有规则的公司,才有可能在Web 20时代获得成功。
博客和大众智慧
Web 20时代一项最受追捧的特性就是博客的兴起。个人主页从互联网早期就已经存在了,而个人日记和每日发表观点的专栏就更渊源久远了,那么到底有什么让人大惊小怪的呢?
归根底地,博客只是一种日记形式个人网页。但正如里奇·斯格仁塔(Rich Skrenta)指出的,博客的按时间顺序来排列的结构“看起来像是一个微不足道的变化,但却推动着一个迥然不同的分发、广告和价值链。”
其中一大变化就是一项称为RSS的技术。RSS是自早期计算机高手们认识到CGI(公共网关接口)可用来创建以数据库为基础的网站以来,在互联网根本结构方面最重要的进步。RSS使人们不仅仅链接到一个网页,而且可以订阅这个网页,从而每当该页面产生了变化时都会得到通知。斯格仁塔将之称为“增量的互联网”(incremental web)。其他人则称之为“鲜活的互联网”(live web)。
当然,现在所谓“动态网站”(即具有动态产生的内容的、由数据库驱动的网站)取代了十年前的静态网站。而动态网站的活力不仅在于网页,而且在链接方面。一个指向网络博客的链接实际上是指向一个不断更新的网页,包括指向其中任何一篇文章的“固定链接”(permalinks),以及每一次更新的通知。因此,一个RSS是比书签或者指向一个单独网页的链接要强大得多。
RSS同时也意味着网页浏览器不再只是限于浏览网页的工具。尽管诸如Bloglines之类的RSS聚合器(RSS aggregators)是基于网络的,但其他的则是桌面程序,此外还有一些则可以用在便携设备上来接受定期更新的内容。
RSS现在不仅用于推送新的博客文章的通知,还可以用于其他各种各样的数据更新,包括股票报价、天气情况、以及。这类应用实际上是对RSS本源的一种回归:RSS诞生于1997年,是如下两种技术的汇合:一种是戴夫·温纳(Dave Winer)的“真正简单的聚合”(Really Simple Syndication)技术,用于通知博客的更新情况;另一种是Netscape公司提供的“丰富站点摘要”(Rich Site Summary)技术,该技术允许用户用定期更新的数据流来定制Netscape主页。后来Netscape公司失去了兴趣,这种技术便由温纳的一个博客先驱公司Userland承接下来。不过,在现在的应用程序实现中,我可以看出两者共同的作用。
但是,RSS只是令博客区别于同普通网页的一部分原因。汤姆·科特斯(Tom Coates)这样评论固定链接的重要性:
“现在它可能看上去像是一项普普通通的功能,但它却有效地将博客从一个易于发布(ease-of-publishing)的现象,进一步转变为互相交叉的社区的一种对话式的参与。这是首次使得对其他人的网站上的很特定的帖子表态和谈论变得如此地容易。讨论出现了,聊天也出现。同时,其结果是出现了友谊或者友谊更加坚定了。固定链接是第一次也是最为成功的一次在博客之间搭建桥梁的尝试。”
在许多方面,RSS同固定链接的结合,为HTPP(互联网协议)增添了NNTP(新闻组的网络新闻协议)的许多特性。所谓“博客圈”(blogosphere),可以将其视作一种同互联网早期的、以对话方式来灌水的新闻组和公告牌相比来说,新型的对等(peer-to-peer)意义上的等价现象。人们不仅可以相互订阅网站并方便地链接到一个页面上的特定评论,而且通过一种称为引用通告(trackbacks)的机制,可以得知其他任何人链接到了他们的页面,并且可以用相互链接或者添加评论的方式来做出回应。
有趣的是,这种双向链接(two-way links)曾是象Xanadu之类的早期超文本系统的目标。超文本纯粹论者已然将引用通告颂扬为向双向链接迈进了一步。但需要注意的是,引用通告不是一个真正的双向链接,确切地讲是一种(潜在地)实现了双向链接效果的对称式单向链接。其间的区别看起来可能很细微,但实际上却是巨大的。诸如Friendster, Orkut和LinkedIn那样的社交网络系统(social networking systems),需要接受方做出确认以便建立某种连接,从而缺少像互联网架构本身那样的可伸缩性。正如照片共享服务Flickr网站的创始人之一卡特里纳·费克(Caterina Fake)所指出的,注意力仅在碰巧时才礼尚往来。(Flickr因此允许用户设置观察列表,即任何用户都可以通过RSS来订阅其他所有用户的照片流。注意的对象将会被通知,但并不一定要认可这种连接。)
如果Web 20的一个本质是利用集体智慧,来将互联网调试为一种所谓的全球的大脑,那么博客圈就是前脑中喋喋不休的呓语,那种我们整个头脑中都能听到的声音。这可能并不反映出大脑的往往是无意识的深层结构,但却是一种有意识的思考的等价物。作为一种有意识的思考和注意力的反映,博客圈已经开始具有强有力的影响。
首先,因为搜索引擎使用链接结构来辅助预测有用的页面,作为最多产和最及时的链接者,博客们在修整搜索引擎结果方面充当着一种不成比例的角色。其次,因为博客社区是如此多地自相引用,关注其他博客的博客们开阔了他们的视野和能力。此外,评论家们所批判的“回音室”(echo chamber)也是一种放大器。
如果只是一种放大器,那么撰写博客将会变得无趣。但是像维基百科全书一样,博客将集体智慧用作一种过滤器。被詹姆士·苏瑞奥维奇(James Suriowecki)称为“大众智慧”(the wisdom of crowds)的规律起了作用,并且就像PageRank技术所产生的结果胜过分析任何单一文档一样,博客圈的集体关注会筛选出有价值的东西。
虽然主流媒体可能将个别的博客视为竞争者,但真正使其紧张的将是同作为一个整体的博客圈的竞争。这不仅是网站之间的竞争,而且是一种商业模式之间的竞争。Web 20的世界也正是丹·吉尔默(Dan Gillmor)的所谓“个人媒体”(We,the media)的世界。在这个世界中,是所谓“原本的听众”,而不是密实里的少数几个人,来决定着什么是重要的。
3 数据是下一个Intel Inside
现在每一个重要的互联网应用程序都由一个专门的数据库驱动:Google的网络爬虫, Yahoo!的目录(和网络爬虫),Amazon的产品数据库,eBay的产品数据库和销售商,MapQuest的地图数据库,Napster的分布式歌曲库。正如哈尔·瓦里安(Hal Varian)
1看看origin服务器是不是关了,点击下方地址查看
2无法刷出游戏库,无法刷出好友列表
这个基本上是网络问题,多登陆几次就行了
这是因为升级服务器国内没有,国外才有。
打开路径C:\Windows\System32\drivers\etc,右键用记事本打开hosts
然后添加下面这行 IP 网址 到文本末尾,用的是origin香港的IP节点,关闭保存后再开origin试试
——(小鸟云)为你解决一切!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)