2020年人工智能落地发展趋势

2020年人工智能落地发展趋势,第1张

作者 | 网络大数据

来源 | raincent_com

转眼间,2019年只剩下不到两个月了。人工智能的热度依旧,只是在资本市场,看空的投资人也越来越多了。从当年大数据的发展趋势看,这种情况反而对产业发展是有利的。因为这意味着,进入赛道的野蛮竞争玩家会越来越少。

对于已经拿到赛道入场券的选手来说,如何合理配置手中的资源成为生死存亡的关键,同时细分市场上的领头羊可能在这样焦灼的市场竞争中成长为独角兽。

对于从事大数据与人工智能相关领域多年的人来说,其最终目标还是“从数据中挖掘价值”。在挖掘价值时,具体某类技术只是整个过程中某个阶段的辅助工具,单纯某类技术解决不了所有问题。因此,我们基于“最终目标”划分三大类场景去运用“大数据”和“人工智能”构建整体解决方案:

一、寻找业务增长点:数据建模能力成为核心,当前Fintech/Regtech领域需求广泛

核心要素:帮助企业解决经营决策中遇到的数据支撑问题。无论是营销还是风控,最终都是通过一些报表、模型去辅助业务人员做决策。 解决方案:机器学习类产品已经成为金融行业寻求业务增长点的标配工具,同时越来越多的传统行业也开始使用大数据、人工智能等技术做辅助决策。 解决方案难点:由于跟业务结合紧密,虽然已经在不同行业开始落地,但实际进展缓慢。由于业务的特殊性,往往不能够单单通过算法本身去解决所有业务问题。这同时也意味着,交付目标以及实施周期的不确定性。

二、加深业务壁垒:知识中枢成为重要工具,当前金融/安全等行业试点较多

核心要素:对现有业务实现优化。 解决方案:在这一场景中,知识中枢运用较多。我们将三大块技术:知识图谱、搜索引擎、深度图谱糅合进知识中枢的概念中。首先通过搜索引擎进行行业知识检索,再通过知识图谱进行概念串联,最后通过深度图谱进行行业知识推理。 解决方案难点:如何将行业知识抽象出来,形成公司内部的知识系统,从而有针对性地对现有业务流程、具体业务点进行整体优化。

三、降低业务成本:自动化成为基础要素,当前能源/交通等行业突破开始

核心要素:如何减少人工干预。 解决方案:现有的场景中,偏业务性质的自动化可以通过RPA等技术实现。RPA本身技术门槛不高,但在NLP、OCR、CV等AI技术带领下,已逐步被用在越来越多的场景中。另一方面,由于图像识别以及5G、边缘计算的推动,越来越多的安防监控、无人巡检等AIOT场景开始落地。相对于RPA,AIOT的场景给客户业务带来的颠覆跟价值更大。 解决方案难点:现实场景中的有效样本较少,影响模型的准确率和落地。

下面我们将结合三种不同的场景来阐述六大AI趋势。

趋势一:Fintech/Regtech AI落地过程中,AI平台逐步成为事实标准

AI平台,在很多地方又称为AI中台/数据科学平台/机器学习平台/人工智能平台,主要涵盖的功能除了传统统计分析软件包含的功能以外,还包括大数据、分布式计算平台、NLP、CV等能力。

行业先行者在探索AI落地过程中,逐步意识到AI平台的重要性。从一开始只针对几个小的业务线进行试点,到后续在更多的场景中推动落地,大家达成共识:与数据中台类似,烟囱式的各自为政只会使得后续AI的落地愈加艰难。

AI平台在Fintech市场的爆发,验证了一个基本事实:只要业务领域有足够通用的需求,就会出现足够通用的平台。数据库本身是上一个数据的事实标准,而AI平台则没有一个明确的定位。由于这个想象空间,AI平台便成了各大玩家的必争之地。

趋势二:数据建模开始在非金融行业的龙头企业流行,国产化趋势明显

AI平台在其他行业的试点也如同星星之火。虽然其他传统行业的信息化水平普遍比金融略低,但也在迎头赶上。往往这些行业取得的成果比金融要多,这是因为满地都是顺手可摘的果子,成果落地比金融行业相对容易。

这些企业原本可能使用的是SAS、SPSS或者Matlab等国外产品,现在可能在试用国产AI平台。一方面是因为SAS等产品不足以支撑最新流行的框架算法,另一方面也有国产化层面的考量。

AI平台作为人工智能基础平台,本身需要对各领域专业算法具备深入理解以及实现的能力。同时作为平台,也有通用性、高性能以及安全可靠等各方面的平台需求,对相关研发人员有极高的技术要求。当前,国产平台跟SAS等比较,整体还是略占劣势,但是在某些细分领域已经实现了超越。

趋势三:图谱应用开始在全行业推广,伪需求略多,注意辨别

图谱类的应用,主要对应于上面提到的“知识中枢”。基于“知识中枢”去做特定行业的图谱类应用已经在市场上流行了一段时间。

只是,一方面由于客户对这块有不切实际的要求,另一方面,大多数实施图谱应用的厂商能力参差不齐,实际项目也没办法最终落地。

2020年对大多数图谱类应用,客户会有一个更清醒的认识:做什么它擅长,做什么它不行,应该怎样做,都会有一定的经验。这也对图谱应用有更高的技术层面的要求,同时也对NLP算法以及图谱算法有更多落地层面的考量,包括性能、实施周期、最终效果等。

趋势四:深度图谱在反欺诈、反洗钱、犯罪团伙分析等场景开始落地

由于深度学习自身相关技术的停滞,将深度学习与图谱结合成为了学术界的主攻方向。而在反欺诈、反洗钱、犯罪团队分析等场景下,复杂网络分析已经成为主流的分析手段。通过深度学习与图谱的融合,深度图谱给传统的图谱分析带来了图谱推理的能力,从而将原有的模型精度提升到另一个高度。

然而,一旦涉及到落地,故事并没有那么简单。一方面,同大多数AI应用一样,落地过程是比较曲折和复杂的。本身模型精度需要不断迭代,同时也需要对业务非常熟悉的人员进行及时反馈,这就导致对业务跟算法的要求都非常高,一旦实施过程中出现偏差,容易有挫败感。另外,在一些对实时性要求比较高的场景中,对底层图数据库的性能也有要求。而当前的市场上,图数据库厂商虽然多,但大多数时候没有懂技术的人员去调优,使得真正能同时满足性能要求和算法要求的图数据库凤毛麟角。

趋势五:视频图像类应用的碎片化与场景化成为AI快速落地推广的拦路虎

CV类场景是引爆AI大火的导火索,同时,由于大多图像场景偏识别类,跟业务离得比较远,可以大规模地在市场上扩张。

不过,我们可以惊奇地看到,CV类的需求还在不停地膨胀。这是因为,当前市场的CV巨头在人脸、车辆等通用需求方面进行了大规模落地,而对于一些偏碎片化的场景,比如设备故障识别、异常识别,甚至特殊场景的人脸识别,都缺乏足够的技术支撑与耐心去推动落地。

因此,怎样提升CV场景落地的效率成为大多数CV从业者的主要工作方向,这里面包括多个维度:第一,从科研层面去革新算法,第二,从工具层面去落实标注、训练、部署等的一体化平台,第三,从市场角度定义行业通用化的场景,第四,从技术角度去优化模型,从而降低实施成本。

在这个大背景下,四大CV独角兽也好,互联网巨头也好,都试图去推动平台的落地。然而,在这样的“四维”要求下,要踏踏实实地在细分场景中打磨通用模型、平台,谈何容易。但这也让耕耘细分行业的小CV厂商有足够的空间去摸索。

趋势六:AIOT物联网场景没有大规模的需求爆发,细分行业开始出现落地

我们看到,所谓的AIOT场景,主要还是CV类场景带动,但一些深入需求(如需要传感器数据参与的预测性维护类场景)落地较少。

这跟“智能制造”的特点比较相关。客户在车间现场通常需要一个开箱即用的产品,而大多数AI类场景需要足够多的时间去打磨。另外,大多数工业场景需要的不仅仅是大量有价值的数据,还需要对工业场景有深刻的理解。

首先,“大量有价值”的数据本身不大可能获得。比如,在预测性维护的场景下,所谓“有价值”,就是指相同或者类似的设备历史上出现故障的时候对应的数据,这种数据当然很少。其次,在部分异常数据的加持下,一般的统计分析算法可能分析不出什么。这跟金融类的风控场景不同,风控场景考验的是人性,从人性的角度去做一定深度的分析,并结合算法就可以取得不错的效果。而对于设备,这里需要的是一个深刻理解机械原理的算法专家。

即使面对这样的困境,我们还是看到了一些制造业企业开始摩拳擦掌,虽然深入的AI算法用不上,简单的BI也能提供价值嘛。

只是感叹,Predix还是出来太早了,那2020年会有突破吗还是得看“智能制造”的内生动力多大,期望一些细分场景会有落地。

人工智能的2019年注定是平静的一年,因为技术爆发以及投资引导时期已过,避免不了被冷清。然而,正如大多数技术周期一样,当技术本身有价值且具备落地能力的时候,技术落地的过程逐步展开。

我们相信对于大多数在探索人工智能落地过程的从业人员来说,故事才刚刚开始。而对于参与炒作概念的玩家来说,也找到了新的方向:区块链。

从更宏观的数字化转型的角度来看,还有太多的事情值得大家去落实。抓紧2019年的尾巴好好做几个落地项目吧。

您好,同一幅照片占用存储空间最大的因素是其分辨率和像素数量。分辨率指的是照片的长宽比,而像素数量则指的是每英寸所包含的像素数量。照片的分辨率越高,其占用的存储空间就越大,而像素数量越多,其占用的存储空间也越大。此外,照片的格式也会影响其占用的存储空间,一般来说,JPEG格式的照片占用的存储空间比其他格式的照片小。

位图图像的每个像素通常由若干个二进制位(bits)进行存储。每个像素需要存储的位数称为“位深度”(bit depth),也叫“色深”(color depth)或“色彩位数”(color bit),通常用比特(bit)表示。

位深度越大,单个像素储存的信息就越多,可以表达更多的色彩细节和渐变效果,图像质量也就越高。常用的位深度有1位、8位、16位和24位等,其中1位表示黑白图像,8位表示256种颜色,16位表示65536种颜色,24位表示约1600万种颜色。

需要注意的是,在位图图像中,每个像素储存的信息仅仅是颜色信息,而不包含几何形状信息。因此,位图图像通常难以无损地缩放或放大。同时,位图图像在放大时容易出现锯齿等失真现象,因此不适合用于印刷等需要高精度的图像处理领域。

#include <stdioh>

#include <stdlibh>

#include <malloch>

#define STACK_INIT_SIZE 100

#define STACKINCREMENT 10

int visited[20]={0};

typedef struct

{

char vexs[20];/顶点表/

int edges[20][20];

int n,e;

}Mgraph;

typedef struct BiTNode

{

int data;

struct BiTNode lchild,rchild;

}

BiTNode,BiTree;

typedef struct SqStack

{

int base;

int top;

int stacksize;

}

SqStack;

void InitStack(SqStack S)

{

S->base=(int)malloc(STACK_INIT_SIZEsizeof(int));

S->top=S->base;

S->stacksize=STACK_INIT_SIZE;

}

void Push(SqStack S,int e)

{

if(S->top-S->base>=S->stacksize)

{

S->base=(int)realloc(S->base,

(S->stacksize+STACKINCREMENT)sizeof(int));

S->top=S->base+S->stacksize;

S->stacksize+=STACKINCREMENT;

}

(S->top)=e;

S->top++;

}

int Pop(SqStack S)

{

S->top --;

return S->top;

}

int StackEmpty(SqStack S)

{

if(S->top == S->base )

return 1;

else

return 0;

}

void CreateMGraph(Mgraph G)

{

int i,j,k;

printf("输入顶点和边数\n");

scanf("%d %d", &G->n,&G->e);

getchar();

printf("输入%d个顶点\n",G->n);

for(i=0;i<G->n; i++ )

G->vexs[i]=getchar();

for (i = 0;i<G->n; i++)

for (j = 0;j <G->n; j++)

G->edges[i][j]=0;

printf("输入%d条边:\n",G->e);

for(k = 0;k<G->e;k++)

{

scanf("%d%d",&i,&j);

G->edges[i][j]=1;

}

}

void DFSM(Mgraph G, int i)

{

int j;SqStack S;

InitStack(&S);

printf("访问:%c",G->vexs[i]);

visited[i]=1;

Push(&S,i);

while(!StackEmpty(&S))

{

i=Pop(&S);

j=0;

while(j<G->n)

{

if(G->edges[i][j]==1&&!visited[j])

{

printf("访问:%c",G->vexs[j]);

visited[j]=1;

Push(&S,j);

}

else

j++;

}

}

}

main()

{

Mgraph G;

CreateMGraph(&G);

DFSM(&G,0);

}

有问题联系

以上就是关于2020年人工智能落地发展趋势全部的内容,包括:2020年人工智能落地发展趋势、同一幅照片占用存储空间最大的是、位图图像的每个像素由若干位什么进行存储等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/10185675.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-06
下一篇 2023-05-06

发表评论

登录后才能评论

评论列表(0条)

保存