主页 > M伴生活 >人工智慧的极限?那些删不完的网路仇恨言论 >

人工智慧的极限?那些删不完的网路仇恨言论

2020-06-16


人工智慧的极限?那些删不完的网路仇恨言论

Facebook 非常擅长移除平台上的色情、暴力、犯罪等内容,社群巨头在 16 日公布了「年度透明度报告」(Facebook Transparency Report),详细列出各种违反社群準则内容被移除的比例,但详细观察后会发现,「仇恨言论」移除的比例相当低,难不成是世界和平,大家都口说好话不再攻击彼此了吗?不,这背后其实跟人工智慧(AI)系统的能力极限有关。究竟为什幺 AI 下围棋能赢人类、 AI 机器人都能获得公民权的现在,仍赶不上仇恨言论增生的速度呢?

Facebook 公布年度透明度报告,仇恨言论移除比例最低

在外界纷纷期待 Facebook 拿出魄力整顿平台仇恨内容的态势下,Facebook 大幅提高了今年(2018)内容审查团队的预算,预计在今年底前聘用 1 万名审查人员。

16 日公布的「年度透明度报告」(Facebook Transparency Report)多达 86 页报告中,Facebook 公布今年第一季共删除了 5.83 亿个假帐号、8 亿 6,580 万则贴文,Facebook 将这些内容分为六大类,从数字来看,系统主动清除暴力内容比例是 86%、色情内容 96%,垃圾内容比例更高达 100%,令人意外的是,仇恨言论比例只有 38%,是所有类别最低的。

歧视用语使用情境不同,仇恨言论难判断

但这其实不能完全责怪 Facebook,原因是目前人工智慧(AI)对于仇恨言论定义的理解仍不够深刻。

举例来说,歧视性用语在某些情况下也会用于戏谑、自我解嘲等目的,而这些用语大多只在特定语境(包括个人主观因素、地域差异、时代差异影响)才会产生歧视性意义,所以并没有明确标準可判定某种用语是否为歧视,人类对「贬义、侵略性的内容」判定很主观,甚至因人而异,不要说机器,甚至连人类自己判断可能都没统一的标準。

Facebook 产品管理副总裁罗森(Guy Rosen)就点出其中的困难处:

人工智慧的极限?那些删不完的网路仇恨言论 没有明确的标準可判定某种用语是否歧视,人类对「贬义、侵略性的内容」判定很主观,甚至因人而异。

除了用词本身,使用情境也是一大关键,假设有一个用户,只是单纯发文讲述他被当众羞辱的经验,描述的文字引用包含仇恨内容的原句,那这样的贴文算不算仇恨言论内容?应不应该强制移除?身为人类的我们都能同意这样的内容不算数,但 AI 又该如何理解这两者之间的细微差别呢?

另外,从文化面来说,有些字眼也许在某些文化中是贬抑,但在另一种文化却没有这个意思,又或者是同形异义,这些又该如何让 AI 理解呢?

祖克柏乐观看待,5 到 10 年内开发新 AI 工具

如同祖克柏自己贴文所说:「我今年的首要任务是要让人们感到安全。」为了将伤害降到最低,即使拥有大量科技资源的 Facebook,仍倾向使用人工审查来把关内容。

今年刚落幕的开发者大会 F8,Facebook 也谈到,「要完全理解人类的语境,还是需要透过人类的双眼,我们的团队会亲自审查,确定没问题。」

人工智慧的极限?那些删不完的网路仇恨言论

祖克柏表示,未来 5 至 10 年内,Facebook 可开发出精準理解语意细微差异的 AI 工具。

祖克柏也在听证会表示,他相信未来 5 到 10 年内,Facebook 可开发出能精準理解语意细微差异的人工智慧工具,将能更準确标记仇恨言论,他对这样的未来相当乐观。




上一篇: 下一篇: