思维早操:算法偏见的产生机制

算法偏见 新闻生产 算法歧视_算法偏见

考研指南

上海院校考研指南:|||||||||

江苏院校考研指南:

浙江院校考研指南:

西北院校考研指南:|

算法偏见 新闻生产 算法歧视_算法偏见

西方新闻业信任危机和专业性危机的背景下,算法中立的支持者试图通过算法的中立与传统媒体的编辑价值观划清界限。算法对新闻生产的介入似乎用“技术中立”的姿态昭示着新闻客观性的“回归”与“在场”。与此同时有关“算法偏见”( bias)和“算法歧视”( )的讨论日渐兴起。人们发现算法并非万能,也非完美。美国非盈利新闻机构“为了公众”()对一家公司开发的犯罪评估系统“替代性制裁的惩戒性罪犯管理分析”( for ,)的评分方式进行研究,发现针对同样罪行有色人种可能会得到比白人更高的犯罪分数。

在新闻生产中,算法偏见带来的后果是严重的,尤其在内容生产阶段,算法偏见将导致结论错误,媒体将不是社会的“瞭望者”,而是“误导者”。

1.算法设计者的偏见

算法设计者的偏见是指由于算法设计者自身有意或无意的偏见造成算法设计出现偏差。算法设计一般包括理解问题、选择算法设计技术、设计并描述算法、手工运行算法、分析算法的效率、实现算法等6个步骤。算法设计者在算法设计中居于核心地位。对问题的理解、对数据的选取、对变量的选择、对算法的综合评价等都贯穿着人为因素。当然即便算法设计者力求做到客观、公正,其无意识的认知偏见也会通过算法设计中对标准的选择体现出来,如指标标准、数据提取、语用分析和结果解读等。

既然算法是由人设计的,那么算法不可能比算法设计者更客观。算法不可避免地会反映设计者对周遭事物和问题的认识。2015年平面设计师约翰娜·布莱( Burai)用谷歌搜索“手”的图片,发现检索结果上边的全是白人的手。社会学家泽奈普·图费克奇( )认为,要想真正让算法变得更加公正,算法设计者要清醒地意识到自己并不代表中立和公正的立场,而是有着天然偏见的人。

2.输入数据的偏见

在被数据量化的世界中,数据本身与现实世界重合的程度决定了数据的可靠性。在现实中算法依赖的数据往往是有局限的、有缺陷的,甚至是错误的。因为算法是从有局限的训练数据集中学习,可以说,任何一个数据集都会蕴含偏见。

无论算法多完美,输入数据有偏见,最后的结论必定有偏见。微软纽约研究院高级研究员汉娜·瓦拉赫(Hanna )认为,机器学习的程序是通过社会中已存在的数据进行训练,只要这个社会还存在偏见,机器学习便会重现这些偏见。例如采用算法进行自动化新闻写作的美联社,需要时常向系统输入报道范本、更新数据,如果自动化新闻写作系统输入数据出错,则算法生成的新闻就会出错。

3.算法局限的偏见

虽然在大数据时代一切皆可量化,但现实生活并不能总是被数学“模仿”。即使是最复杂的算法和最大限度的大数据挖掘,也会将多维度的问题变成简单的模型,把复杂的世界模拟得简单。因此,算法系统本身不是十全十美的,也是有局限的。

© 版权声明

相关文章

暂无评论

none
暂无评论...