为什么人工智能仍然不擅长发现网络暴力?
但是由于这些网站每天都会出现大量的帖子,即使是这种人和机器的结合也很难跟上。人工智能要真正检测到互联网上的仇恨言论或暴力,还有很长的路要走。
机器学习,科技公司依靠人工智能技术来发现恼人的内容,并找出如何在大量数据中发现模式;它可以识别特定语境下的攻击性语言、视频或图片。这是因为这些帖子遵循了人工智能可以训练的模式。比如你给一个机器学习算法很多枪的图像或者写的宗教诽谤,它就能学会在其他图像和文字中找到这些东西。
但是,在美国,人工智能并不擅长理解一些事情,比如谁在写或上传图片,或者在周围的社会或文化环境中什么可能是重要的。
俄勒冈大学人工智能和机器学习副教授丹尼尔洛德(Daniel Lowd)表示,语境“非常重要”,尤其是在涉及到煽动暴力的言论时。
这个评论表面上听起来可能很暴力,但实际上是对暴力的讽刺。或者,它们可能听起来无害,但对于了解最新消息或创造当地文化的人来说,它们是危险的。
洛德说:“几句话的影响很大程度上取决于文化背景。他指出,即使是人类的版主也很难在社交网络上分析这一点。
识别暴力
即使视频中出现暴力,也并不总是那么简单,更不用说经过训练的机器——能发现它或决定如何处理它。视频或照片中可能看不到武器,或者看起来暴力的东西实际上可能是模拟的。
此外,灯光或背景图像等因素也会影响电脑。
加州大学洛杉矶分校(UCLA)研究内容节制和社交媒体的助理教授莎拉t罗伯茨(Sarah T. Roberts)表示,人工智能很难在视频中发现暴力,尤其是在计算方面。
她说:“这种媒体的复杂性,以及每秒多少帧、如何赋予录制内容意义等细节都非常困难。”
她说,用人工智能从一段视频中收集意义并不容易。它通过社交网络每天观看的大量视频来做到这一点。例如,在YouTube上,用户上传的视频超过每分钟400小时,即——个,每天超过57.6万小时。
“这些公司交易数十万小时的视频,”罗伯茨说。“这其实是他们乞求的,也是他们想要的。”