包括,你访问自己微博也会计算在内。
拓展:
1、独立访客就是独立(IP)访客(Unique Vistor)一般地,我们可以用两个数值标准来统计访问某网站的访客,即"访问次数"和"独立访客(问)数",访问次数和独立访客数是两个不同的概念。访问次数就相当于一个展览会的访问人次,某个参观者出入展馆10次的话,这10次都被记入访问次数中,相当于网络中的PV值。
2、独立访客数则相当于带身份z参观展览会的访问人数,每一个出示身份z参观展览的人,无论出入几次,都只计作一次独立访问。这里所说的"身份z",在网络上就是访客的IP地址或Cookie。网站统计工具对于网站独立访客数的计算,主要是依据浏览器的"cookie" 来判定的。在浏览器cookie数据不清除的情况下,即使用多个IP切换来登录一个网站,也会只记为一个访客数。
基础及关联算法
这一层算法的主要作用是为微博推荐挖掘必要的基础资源、解决推荐时的通用技术问题、完成必要的数据分析为推荐业务提供指导。
这一部分中常用的算法和技术如下:
分词技术与核心词提取
是微博内容推荐的基础,用于将微博内容转化为结构化向量,包括词语切分、词语信息标注、内容核心词/实体词提取、语义依存分析等。
分类与 anti-spam
用于微博内容推荐候选的分析,包含微博内容分类和营销广告/色情类微博识别;
内容分类采用决策树分类模型实现,共 3 级分类体系,148 个类别;营销广告/色情类微博的识别,采用贝叶斯与最大熵的混合模型。
聚类技术
主要用于热点话题挖掘,以及为内容提供关联资源。属于微博自主研发的聚类技术 WVT 算法(word vector topic),依据微博内容特点和传播规律设计。
传播模型与用户影响力分析
开展微博传播模型研究和用户网络影响力分析(包含深度影响力、广度影响力和领域内影响力)。
主要推荐算法
1 Graph-based 推荐算法
微博具有这样的特点:用户贡献内容,社会化途径传播,带来信息的爆炸式传播。之所以称作 graph-based 推荐算法,而不是业界通用的 memory-based 算法,主要原因在于:
我们的推荐算法设计是建立在社交网络之上,核心点在于从社交网络出发,融入信息传播模型,综合利用各类数据,为用户提供最佳的推荐结果;比如很多时候,我们只是信息传播的关键环节,加入必要的推荐调控,改变信息传播通路,后续的传播沿着原来的网络自然的传播。
Feed 流推荐(我们称作趋势),是我们最重要的产品,而结果必须包含用户关系。
从 graph 的宏观角度看,我们的目标是建立一个具有更高价值的用户关系网络,促进优质信息的快速传播,提升 feed 流质量;其中的重要工作是关键节点挖掘、面向关键节点的内容推荐、用户推荐。
对这部分的算法做相应的梳理,如下面的表格:
这里的困难点在于 graph 的“边”怎样量化与取舍,依据多个“边”与“节点”的综合评分计算,以及与网络挖掘分析结果的融合。
这部分的算法研发中,产出了如下的数据附产品:
2 Content-based 推荐算法
Content-based 是微博推荐中最常用也是最基础的推荐算法,它的主要技术环节在于候选集的内容结构化分析和相关性运算。
正文页是 content-based 应用最广的地方,以它为例,简要的说一下
内容分析的很多点已在前面描述过了,这里重点说 2 个地方:
内容质量分析,主要采用微博曝光收益+内容信息量/可读性的方法来综合计算。微博曝光收益是借助用户群体行为,衡量内容优劣;内容信息量计算比较简单,即是微博关键词的 idf 信息迭代;对于内容可读性的衡量,我们做了一个小的分类模型,分别以可读性较好的新闻语料和可读性较差的口语化语料为训练样本,通过提取里面的各类词搭配信息,计算新微博具有良好可读性的概率。
词扩展,content-based 的效果取决于内容分析的深度。微博的内容比较短,可提取的关键信息比较少,做相关运算时容易因为数据稀疏而导致推荐召回率和准确率的难以权衡;我们引入 word2vec 技术,优化了词扩展效果,后面又以此为基础开展词聚类的工作,实现了推荐召回率和准确率的同步提升。
相关计算的技术点在于向量的量化和距离度量,我们通常使用“tfidf 权重量化 + 余弦距离”或者“topic 概率 + KLD 距离“的两种方法。
3 Model-based 推荐算法
微博作为中国最大的社会化媒体产品,具有海量的用户和信息资源;这就给推荐带来了 2 个挑战:
来源融合与排序
候选的极大丰富,意味着我们有更多的选择,于是我们推荐结果的产生包含两层:多种推荐算法的初选与来源融合排序的精选,为了得到更客观准确的排序结果,我们需要引入机器学习模型,来学习隐藏在用户群体行为背后的规律。
内容动态分类和语义相关
微博 UGC 的内容生产模式,以及信息快速传播和更新的特点,意味着之前人工标注样本,训练静态分类模型的方法已经过时了,我们需要很好的聚类模型把近期的全量信息聚合成类,然后建立语义相关,完成推荐。
Model-based 算法就是为了解决上述的问题,下面是我们两块最重要的机器学习工作:
3 1 CTR/RPM(每千次推荐关系达成率)预估模型,采用的基本算法为 Logistic regression,下面是我们 CTR 预估模型整体的架构图:
这部分工作包含样本选择、数据清洗、特征提取与选择、模型训练、在线预估和排序。值得一提的是,模型训练前的数据清洗和噪音剔除非常重要,数据质量是算法效果的上界,我们之前就在这个地方吃过亏。
Logisitic regression 是一个 2 分类概率模型
优化的目标在于最大化“样本正确分类概率的连乘值“;我们借助 yahoo 研发的 vowpal_wabbit 机器学习平台来完成模型特征值求解的最优化过程。
3 2 LFM(Latent Factor Model):LDA、矩阵分解(SVD++、SVD Feature)
LDA 是 2014 年初重点开展的项目,现在已经有了较好的产出,也在推荐线上产品中得到了应用;LDA 本身是一个非常漂亮和严谨的数学模型,下面是我们一个 LDA topic 的例子,仅供参考。
至于矩阵分解,2013 年的时候做过相应的尝试,效果不是特别理想,没有继续投入。
隐语义模型是推荐精度最高的单一模型,其困难在于数据规模大时,计算效率会成为瓶颈;我们在这个地方开展了一些工作,后续会有同学专门介绍这一块。
混合技术
三个臭皮匠顶个诸葛亮,每一种方法都有其局限性,将不同的算法取长补短,各自发挥价值,是极为有效的方式。微博推荐算法主要采用了下面的混合技术:
时序混合:
即在推荐过程的不同时间段,采用不同的推荐算法;以正文页为例,在正文页曝光的前期阶段,采用 content-based + ctr 预估的方法生成推荐结果,待产生的足量可信的用户点击行为后,再采用 user-based 协同过滤的方法得到推荐结果,如下图所示:
这样利用 content-based 很好的解决了冷启动的问题,又充分发挥了 user-based CF 的作用,实现1+1>2 的效果。
分层模型混合:
很多情况下,一个模型无法很好的得到想要的效果,而分层组合往往会取得比较好的效果,分层模型混合即“将上一层模型的输出作为下层模型的特征值,来综合训练模型,完成推荐任务“。比如我们在做微博首页右侧的 ctr 预估排序时,采用分层逻辑回归模型,解决了不同产品间特征天然缺失与样本量差异、曝光位置带来的效果偏差等问题。
你的微博火不火可以用访问量来得出结论,新浪微博有关于这个访问量的数据模块,我们可以通过它直接看出你微博最近的访问情况首先我们打开新浪微博,大家一定要记得登陆哦~~~
登录进去之后我们点击页面右上角的“微博”字样(如图红色框内所示)
进入到自己微博页面后,我们拖到最下面,这里会显示一个本周微博访问次数和本周评论数,现在我们看到的就是微博访问量了。
如何提高访问量呢?我们可以通过转发一些热门微博或者自己发布一些微博来提高访问量,这里就是微博的发布框,我们还可以发布一些视频、和话题。
写到这里这篇经验就算结束了,大家看明白了吗?如果对你有帮助可以点击右上角的“投票”或“收藏”。如果大家还有哪里不懂,可以在下面的“回复”给我留言,我看到留言后会回复大家的!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)