算法间隙:男人真的看到社交媒体以外的其他内容吗?因此,性别后强烈过滤算法

算法间隙:男人真的看到社交媒体以外的其他内容吗?因此,性别后强烈过滤算法

算法差距:这就是为什么在社交媒体上向男女展示不同内容的原因,这就是为什么它如此危险

触发警告:注意,以下文章涉及陈述(性)暴力。

Ellie*是社交媒体- 经理,住在伦敦。如果她在早上的仪式中检查自己的个人社交媒体帐户,那么您的提要实际上总是会根据自己的兴趣立即填写。时尚展示,食谱,伦敦餐厅推荐,有趣的模因的常见组合关系,有关左翼政治的信息。

与她的合作伙伴Rob*(担任工程师)的合作伙伴Rob*在社交媒体上看起来截然不同。他描述说,他经常在新闻背景下看到“受伤人的图形内容”,包括被逃跑甚至被枪杀的人。此外,他的探险家页面总是混在一起色情内容,包括同意似乎并不重要的视频。

算法不仅是我们利益的镜子,而且是 - 根据我们的性别和对我们必须找到的东西的期望吗?至少一个新叶子BBC文档关于闭幕的主题,在这一背景下,显然Rob*只是他的经历,而许多年轻男子经常面临比女性更加极端的内容。而这 - 这是关键点 - 没有故意寻找这些内容或在特别长时间的互动中进行互动。

例如,这位18岁的CAI在纪录片中报道说,他的内容在他16年后几乎在一夜之间发生了变化。突然,他看到了各地的影响者,他们用厌恶女性的内容以及有关阿尔法男子的演讲,街头战斗的视频和其他暴力内容。

最重要的是,算法希望引起注意 - 并创建绝缘的螺旋

但是让我们再去。以及社交媒体算法如何决定他们向我们展示的内容的问题。沃里克大学信息与通信系统教授Shweta Singh博士解释了这一过程如下:

“社交媒体算法通过分析您在平台上的行为和互动来确定您在供稿中看到的内容。您收集有关您喜欢,分享和评论的数据,您遵循的人以及您查看内容的时间。使用此数据,算法可以根据您的可能性来对内容进行分类。”

基本上,我们社交媒体供稿的算法通常应该播放与我们兴趣相匹配的内容。但是,有一些陷阱。一方面,辛格继续进行算法向下螺旋。意思是:如果算法在用户交互后怀疑有兴趣,他试图在相同方向上发挥更多的学位,以引起更长的交互。

据巴斯大学数字行为与安全研究所(Berit Davidson)博士说,这就是用户可以迅速进入内部兔子洞的方式,在这种兔子洞中确保了信念巩固。例如,一个人首先处理相当无害的约会内容或对视频表示兴趣的人向他解释了他如何迅速解决越来越极端内容的女性,她们总是提供更多的操纵性约会技巧,并最终出现在“ Incel”泡沫中。

但是,这种螺旋尚未解释的是为什么还播放尚未处理这种内容的男人和年轻内容。戴维森博士采用了一种滚动方法,这与我们在创建社交媒体个人资料时发布的个人数据有关。

“问题在于,这些算法及其工作原理不是透明的,因此很难认识到内容是如何推动的(或不推动内容)。但是,如果算法也应该基于听众的人口统计数据,那么根据其他人的行为基础,具有类似的人性化数据的行为(例如,男性,16-25岁),这是可见的。

在他们的内容中,性别滑动越来越近,安德鲁·孔(Andrew Kuang)描述为英国广播公司(BBC)文档的一部分。前用户安全分析师蒂克托克说在年轻人中可以看出非常清晰的趋势:虽然建议使用16岁的女孩“流行歌手,歌曲和化妆”,但一个十几岁的男孩看到更多的“对刀具刺伤,有时甚至是性内容的内容”。

这就是社交媒体运营商所说的:内部和制作Instagram,Tiktok and Co.的需要。

平台自己说什么?蒂科克(Tikok)根据英国广播公司(BBC极端暴力或厌女症允许。 Rob*,CAI和该平台的许多其他男性阅读用户也经历了其他事情。

包括Instagram和Facebook在内的Meta提供了50多种不同的“工具,资源和功能”,以使年轻人“积极和年龄 - 适当的体验”。在这里,也可以肯定地质疑监狱囚犯与监狱服务员发生性关系的视频(Rob*在他的探险家页面上找到的视频)对任何年龄段都可以。

问题:我们面对社交媒体的内容自己塑造了自己,改变了我们在现实生活中的态度以及对痛苦和暴力的宽容。例如,Ellie*认为她的伴侣经历了一种脱敏,并且不再震惊他获得的极端内容。

Brit Davidson博士强调,关于算法如何确切地削减男性和女性的内容有更多的研究,并且如果没有运营商的积极合作和透明度,这将无法正常工作:“这种复杂的用户和平台行为的动态会造成差距和不平等的责任,而这些责任必须使社交媒体平台具有社交和道德责任,”

“这还包括有关技术行业中更多女性(和所有性别)的需求,包容设计以及如何策划和评估数据的问题,以最大程度地减少歧视和偏见这些问题的偏见。”

因为不仅是根据性别过滤(显然是)过滤的显式,暴力内容,因此也有评论列,具体取决于用户:内部非常不同的。在哪里:谁在政治辩论中获得认可的评论,其他人可能只会看到匆忙的评论,这也强烈激进的政治意见。而且:至少我们给过滤器泡沫之外的人们带来了生活在一种平行世界中的感觉。

您可以这样做以使您的供稿多样化

好消息是:至少有一些杠杆可以使自己制作到操作员之前:在平台和研究中,迄今为止,可以为我们提供充分过滤掉痛苦,暴力和歧视性陈述的平台。

1。调整评论:例如,如果您在评论列中,则有三种获取这些显示的方法。 “为您”,“最新”或“已验证”。在默认设置“为您”的设置中,根据您(假定的)政治环境和偏好来过滤评论。按时间顺序分类在“最新”中 - 在评论列中增加了各种观点的机会。在“经过元件验证”的过滤器下,越来越多地播放了经过验证的用户的评论。意思是:来自这样的用户:在内部,他们在验证和促进其频道上花钱。该过滤器可以更好地避免此过滤器。

2。极限敏感内容:积极确定其算法的另一种方法为“敏感内容”提供了功能。因此,如果您增加了将视频和消息传达给(性)暴力的感觉,则可以在设置中选择“少”。

3。提出建议:您至少可以暂时切换到Instagram在feed中提出的建议,即您尚未订阅的内容的建议。因此,如果您不再想看到任何建议,则可以在设置中建议的设置中激活30天的Snooz功能。


*主角的名称:内部根据您的要求更改。


这篇文章是由我们的《魅力 - 科尔尔:从英国内部》中的文本段落和采访材料制成的。