曾令所有男人艳羡,如今避之不及!这个恐怖行业,何时才能消失?
2019-11-27 15:31:14
  • 0
  • 2
  • 1

文/金错刀频道 祥燎

曾经有个行业,令无数男人心生向往。

在那里,他们不需要具备多牛X的技能,工作内容极其简单,但工资和福利却超乎想象。

这就是自带神秘及暧昧色彩的鉴黄。

在大众眼中,一入此行,唯一的风险就是身子可能扛不住。

在2013年,由百度、腾讯、金山等10多个互联网公司组成的“安全联盟”曾以20万高薪招聘“首席淫秽色情鉴定官”,很快就收到了超过4000份应聘简历。

那样的风光日子,早已成为过往。如今鉴黄师成了很多了解真相的人避之不及的岗位。

因为鉴黄师的工作,从来不只是鉴黄那么简单。

1、“为了鉴黄,我刷了一遍《还珠格格》”

很多人以为鉴黄师成天就是盯着毛片看,是个人都能做。

当然没这么简单。

鉴黄师这个岗位,首先是在公安系统内产生的。

要在这里做一名鉴黄师,在专业知识上,要做到吊打各路老司机,不怵任何考验,比如:

文字题:“科技处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作”,在这句话中,一共有多少个淫秽色情词汇。
外语题:しきふーいーくうくうふういーしき
法律题:请详述日、美、欧对色情淫秽的分级体系和优缺点。

此外,他们至少还得满足三个硬性要求:已婚、身体及心理素质极佳、极度耐心。

2016年5月,警方曾破获一起利用微信和百度网盘销售淫秽视频的案件。为了尽快量刑定罪,六名鉴黄师熬夜看片儿,半年刷了5万多部淫秽视频,看得“视力明显下降”。

比起被迫刷片,挂羊头卖狗肉更可恨。

一位叫陈锋的民警就有过惨痛经历,“送来的鉴定光盘上印着男女裸露的图像,一打开却是《还珠格格》。”但为了防止淫秽色情内容被藏在电视剧的某个片段中,陈锋不敢快进,结果“从头到尾都是《还珠格格》....”

也有新晋鉴黄师看了几小时《猫和老鼠》没看出毛病,但老民警只几分钟就察觉出问题所在,语重心长地说道:下次戴上耳机。

夜以继日地鉴黄后,不少民警都表示,“对身体伤害很大。”“鉴定完,最不想看到的就是电脑、电视。”

随着互联网的普及,除了公安,互联网公司里鉴黄师的数量也与日俱增。

发展到今天,鉴黄师已经是社交媒体、短视频平台、直播平台,乃至电商等各行业的标配。

这些年轻人走上新岗位,从此三观俱裂。

在社交软件Soul上,一位鉴黄师说,“永远不要在我面前开车,我看过的片子可能比你看过的电视剧都多。”他还落下了职业病:看到肉色就往不和谐的方向脑补,老想着和谐,全部和谐掉!

《红星新闻》曾采访过一名语音社交平台的鉴黄师,在面试时,考官第一个问题就是,“你有男朋友了吗?”后来她才明白过来这问题的含义:没处过对象的人,根本无法胜任这份工作。

她的一位女同事对男性甚至产生一种抗拒,认为男人花天酒地,全都靠不住。

在淘宝,也有鉴黄师深受其扰。

他们的筛查范围里,埋藏着各类奇行种。比如在评论区,买了内衣的顾客晒买家秀,“遮了脸,露了点”;买到劣质纸尿裤的妈妈,生气地晒出了女儿被捂烂了的下体;买了痔疮膏的人展示患处,表扬“立竿见影”.....

千帆阅尽后,一名淘宝鉴黄师麻木说道,“已丧失部分作为男人的乐趣。”

这些当然还不是最严重的。

2、“我们少工作一小时,互联网就会变成地狱!”

很多人在成为鉴黄师前,都抱有一定好奇心,以为能免费看到不为人知的大尺度画面。

当他们上岗后,好奇心很快就会变为纯粹的恶心。

因为他们要审核的,一般来说不仅是色情,还有各种暴力、自残、仇恨等不良内容,随便拿出一个视频都能让你觉得“人善论”就是扯淡。

所谓鉴黄师,大多数情况下不过是外界对内容审查员的一种香艳说法。

而且,哪怕只做鉴黄,也毫无福利可言。

你以为鉴黄时能看到俊男美女在翻云覆雨,但更多时候能看得你把胃吐个干净。

例如负责审查儿童内容的人,每天都会看到儿童被猥亵、强奸的视频和图片,最小的只有6个月大......很多长期审查儿童色情的人,日常生活中看到有人接触孩子,甚至下意识地想报警。

觉得恶心吗?这只是冰山一角。

在一部关于网络审查的纪录片《The Cleaners》中,一位直播审查员曾眼睁睁看着面前的人上吊自杀,最后脖子都断了,像个木偶一样垂了下来。那场直播有3000多人观看,还有人起哄。

审核极端恐怖主义内容的审查员,常要面对恐怖组织的处决视频,这当中有枪击,还有用匕首进行的漫长斩首。

据一些Facebook审查员回忆,他们处理过的视频还有:

战争中被剖腹、溺死的受害者;参与屠杀的儿童士兵;一只猫被扔进微波炉.....

上传视频的人,通常就是施暴方。随着互联网在全球的普及,这些人急欲让更多人欣赏其“杰作”,于是令人作呕的内容不减反增,随时都可能出现在你手机上。

如今在Facebook、YouTube,以及国内的微信、抖音等,每分钟都能产生你一个月不眠不休都看不完的新内容。在这海量信息中,就夹杂着恐怖主义、虐杀、自残、色情、极端组织言论等等内容。

这也是为什么内容审核成了不少互联网公司的必备技能,并渐渐有了正儿八经的上岗培训。

负责审查色情的,上岗前必须了解各种有关下半身的脏话,对男女的人体构造研究透彻,对人类诸多的变态癖好吃个通透,对最新上市的成人用品了然于胸。

负责审查恐怖组织的,要记住几十个恐怖组织的各种信息,比如他们的旗帜、制服、口号。

而像在Facebook等平台,审查员还要能做到细致地归类,将内容放到具体语境下进行区分。因为当审查员判断失误,Facebook就很有可能涉嫌侵犯言论自由,最终遭殃的还是审查员,被扣工资或被辞退。

在这样高度紧张的工作中,审查员都练成了火眼金睛,绝大多数不良内容都逃不过被删除的命运。

但总有漏网之鱼。发生一次,往往就是一场灾难。

2017年3月,一名15岁美国少女遭多名男子性侵,这一情况被直播到Facebook上,40人参与观看,却没有一个人报警。

同年4月,一位泰国男子在Facebook上直播杀害11个月大的亲生女儿,随后自杀。视频在Facebook上挂了近24个小时,还被上传到其他平台,大量用户都看到了整个过程。

在那之后,Facebook增加了内容审核人员。

国内也是同样路数,每次造成不良影响,一番检讨后就会扩大审核队伍。

然后,就会有更多人无意中走进火坑,代替几十亿人面对人间炼狱。

3、无名英雄的真实生活:流泪、崩溃、自杀...

前两年,美国微软公司网络安全团队的两名员工把微软告上法庭,因为他们查看了大量儿童性侵、谋杀的视频和图片,出现了严重创伤后应激障碍症状,要求公司赔偿。

他们还有诉讼这条路可走,但大多数审查员并没这么好运。

因为内容审查技术含量不算高,是个劳动力密集型产业,所以各大科技公司的内容审核员工大都是通过外包公司找来的第三世界国家或不发达地区的人。

据不完全统计,仅在菲律宾的外包内容审查员人数就超过了10万人。

尽管时薪低至1美元,但一家人的吃穿用度,或许就指望着它,所以他们只能极力忍受。

就算背负着全家人的希望,也不是那么容易坚持。

在纪录片《The Cleaners》中,一位姑娘负责审核侵犯儿童的内容,这些内容谁也看不下去,但必须看完才能给出评判。最后,她放弃了这份工作,宁可回老家,和父母一起捡垃圾。

也有不少人在上班第一天就辞职,有的人出去吃午饭,然后一去不复返。

这种事发生得愈发频繁。为了防止更多内容审查员萌生退意,外包公司开始和他们签下协议,必要时以此要挟——违约要赔付高昂的违约金。

所以,有一大部分人即便发现这份工作难以忍受,也只好继续坐在电脑前。

在他们当中,只有极少数人能以一种崇高的使命感激励自己,保持着相对健康的心态。

更多人只是被迫日复一日地经受酷刑,直至崩溃。

有的审查员从此对人性彻底失去了信心。

“当我离开公司时,我已经三年没有握手了,因为我发现人们很恶心。”

“世界上大多数正常人都TMD是变态。当我离开那里时,我对人性感到厌恶。”

更严重点的,会像上面提及的微软员工一样,产生创伤后应激障碍症状,乃至出现幻觉、精神分裂和抑郁等症状。

最绝望的人选择一了百了。在纪录片中,一位负责审查自我伤害的员工在看过海量的自虐视频后,不堪重负,有一天突然没去上班。等他同事到他家一看,发现已经自杀了。

尽管很多公司都会对内容审查员进行心理辅导,但在高强度工作下,他们的求生欲望早被消磨殆尽。

话说回来,这些为大众筑起长城的内容审查员到了崩溃的边缘,那些公司真会费心施以援手吗?

在这背后,恐怕又是一起起无声的暴力裁员。

结语:

现在几乎所有公司,都在用“人+AI”的内容审核方式。

但AI只是减轻了审核员的工作量,要取代人力,目前还遥遥无期。

Facebook上曾有一张全身赤裸的小女孩在越南战争中逃离汽油弹袭击的照片被AI算法标记出来,随即被管理员删除。这张照片正是1973年荣获普利策奖的《火从天降》,却被AI误认为是儿童色情。

在一些测试中,AI还把沙漠识别为色情,而稍加处理的真色情图片,却被识别为正常。

在真实生活中,比这些更复杂的情况多如牛毛,AI还需要海量的高质量数据“喂养”,才可能独立做出正确判断。

所以替人类守在第一线的,依旧是肉体凡胎的审查员。

道高一尺魔高一丈,这场战斗或许永远不会有最终的胜利。

正因如此,那些为我们背负黑暗、持续战斗的人,无论是谁,身在何处,都值得深深的敬意。

参考资料:

运营研究社:《互联网最“脏”的活,却有几十万人在做》

外滩TheBund:《自杀、抑郁,网络暗处的鉴黄师,是这时代最悲伤的职业》

齐鲁晚报:《公安“鉴黄师”两年看黄片三千段 首要条件已婚》

央视网:《揭秘鉴黄师》

人民网:《“鉴黄师”的尺度如何把握?》

最新文章
相关阅读