要减少AI系统的偏见 我们本身就得减少一些偏见用词

要减少AI系统的偏见 我们本身就得减少一些偏见用词,第1张

AI正以相当显眼得方式重塑着我们的世界,数据驱动着全球数字生态系统,AI技术则揭示了数据中的模式。智能手机,智能家居以及智慧城市在影响着我们生活和交互方式,AI系统越来越多用于公司招聘、医疗诊断和司法裁决。这是一个乌托邦时代还是反乌托邦时代,全看你怎么看。

AI的潜在威胁早已被人说烂了,杀人机器人以及大规模失业,甚至还有人担心人类灭绝。而乐观主义者预测AI到2030年将会为全球经济带来15万亿美元的价值。

我们当然需要考虑AI对我们社会所带来的影响。其中一个引人注目的点是,AI系统加剧了现有的社会歧视。先进的机器翻译系统会产生性别歧视的输出,图像识别系统把黑人归分为大猩猩。

之所以会出现这些问题是因为,AI系统会采用类似于神经网络的数字模型来识别训练时候的数据。如果数据本身就是歪曲的,那么它固有的偏见就会自然地被训练过的AI系统学习和复制。这种带有偏见的自主技术是有问题的,因为他们会边缘化女性、少数民族以及老年人,从而加剧社会失衡。

如经典电影X战警,X战警在英文里是X MEN,用的是男性的单词,还有黑衣人Man in Black,同样也是用的男性的单词。尽管电影方已经开始意识到性别歧视问题,在电影中新增女性角色,或直接由女性演员接替成为主角,如Iron Man钢铁侠,虽然漫威宣布下一任钢铁侠是一位女性,但其名字仍然为Man而不是Woman。

要减少AI系统的偏见,我们本身就得减少这些偏见用词,虽然很不幸,我们不能完全消灭这些偏见,但我们必须要朝着这个方向前进,就像电影方一样。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2655614.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-13
下一篇 2022-08-13

发表评论

登录后才能评论

评论列表(0条)

保存