加入收藏 | 设为首页 | 会员中心 | 我要投稿 555手机网 (https://www.555shouji.com/)- 热门手机、手机评测、云手机、手游、5G!
当前位置: 首页 > 4G频道 > 行业 > 正文

Instagram CEO决心要清理互联网内容

发布时间:2017-08-23 15:09:53 所属栏目:行业 来源:凤凰科技
导读:在认定互联网是自己必须清理的污水池时,社交应用 Instagram公司首席执行官Kevin Systrom正身在迪士尼。那是去年6月,正逢吸引各路社交媒体大咖的年度网络视频交流会VidCon,Instagram在迪士尼乐园举行一个私家活动。

Instagram工程师的行动才刚开始。一个月后,Instagram公司推出了一系列工具,它们简直像给用户的手机植入了一个能感同身受的高中教导主任。假如用户输入自杀这个词,首先会看到一些小对话框,上书“如果你碰到什么难事,我们乐意帮忙。”接下来出现一个提供支援的屏幕,其中包括一个防止自杀的服务热线电话号码。又过了两个月,到了去年12月,Instagram公司授予用户关闭特定帖子一切评论的权力。当用户希望自言自语,不想与别人对话,就能这样设置。 

愤世嫉俗的人可能会说,这些改变不仅仅对用户的身心有益,对Instagram公司的生意同样有好处。广告商喜欢在言论积极向上的地方砸钱做广告,名人也喜欢不会被冷嘲热讽的平台。只有在自己感觉安全,父母也不会要求关掉手机的网络空间,年轻人才会把个人言论公之于众。 

而如果你和Instagram公司上下的员工交流过,就会感到,这场“整风运动”是他们发自内心的行动,并不是单单瞅准了自己的荷包。主管Instagram公共政策的Nicky Jackson Colaco谈到了自己的孩子,还有许多第一次在Instagram上体验社交媒体的青少年。她说:“我觉得我们要说的是,我们希望身处不一样的环境。” 

但要是仅仅像删除蛇形表情符那样解决相对简单的技术问题,Instagram公司还无法创造一个“清洁”的网络世界。于是,在去年秋季发布一系列产品后,Instagram公司的工程师开始啃一些复杂得多的硬骨头。 

试图根据推理剔除网上的语言垃圾早就是人类有心攻克的难关。多亏了人工智能,现在机器能更好地做这项工作。去年6月,大概就在Systrom参加VidCon期间,Facebook公司宣布自行开发了一项工具,帮助电脑理解人类语言的意思。Facebook公司的那套系统名为DeepText。它的理论依据是一种名为词嵌入的机器学习理论。碰到一个新词的时候,DeepText会设法通过那个词前后的词推测它的意思。如果一个西瓜摸样的表情符周围总是有一些右翼话题的词,那它就应该带有右翼倾向的意义。这个分类引擎分析的数据越多,就越聪明。它和人类一样,也需要花时间学习。不同于人类的是,它不会筋疲力尽,也不会因为在一行话里72次读到同一个有淫秽意义的词,就心情低落。 

不妨把DeepText看作一个成年人的大脑,此人失去了所有的记忆,现在要全力以赴完成一切人类交来的语言学工作。Facebook公司实质上在冰箱里存满了这类毫无记忆内存的大脑,把这个冰箱的支配权交给了自己的工程团队。工程师们教有些大脑辨别一个简讯功能Messenger的用户是否需要叫出租车,教另一些大脑指导用户利用市场功能Marketplace出售自行车。 

经过了解DeepText,Systrom认识到,他手下的工程师也可能迎战Instagram平台上的垃圾信息。不过首先,就像小孩子学习人类语言一样,需要一些人教导机器人。于是,Systrom召集了一批人马,筛选Instagram平台上海量的脏话、哗众取宠的词语、恐吓威胁人的低级用语。 

这些Instagram员工将所有言论分为垃圾和非垃圾信息两类,然后把这些分类的信息一股脑丢给DeepText。学习了解这些类别之后,机器开始拟定规则,分辨迪拜相关的帖子有无真正的经济效益,有的回复是来自朋友还是希望得到用户关注的自动程序留言。在DeepText能足够准确地辨别垃圾信息后,工程师进一步推动工作。Instagram去年10月低调地发布了相关产品。 

而后,Systrom有了一个更需要精心策划实现的设想:Instagram公司能不能用DeepText理解语义刻薄的评论?除了露骨的猥琐言论和机器人自动设定的互相关注评论,人工智能能否学会剔除意义更含糊的内容?比如“姐们你还是找个窗户一头跳下去好吧”这种话,我们听起来当然不怀好意,但它并没有包含任何特别有敌意的字眼。又比如“别合上啊,等下嘛,等等,张开腿,宝贝”这句话。它让听者恶心,可电脑能品出其中的意味吗?“这些东西圆滚滚的,像你妈妈。”这种粗俗的话太离谱。但要是它出自你儿时的朋友之口,对方真心欣赏你母亲做的德式饼干,可能这话还会打动你。 

其他社交媒体公司也曾努力辨别垃圾信息,但Instagram让整个平台对用户更友好的新计划更宏大,显得更雄心勃勃。Systrom指示团队迎难而上。 

Instagram是一家比较小的公司,只有大概500名员工。均摊下来,每位员工要负责公司150万活跃用户。训练人工智能机器做善恶言论辨别的团队规模也很小。去年6月我去参观Instagram的是偶,那个团队约有20人,成员分散在站立式或者坐式的办公桌前工作,周围是散落各处的纸巾盒。每个人看起来都很年轻,整个团队看上去成员背景多样。一位带着头巾的女士坐在一个白人小伙旁边。小伙子身穿美国棒球大联盟旧金山巨人队球星Tim Lincecum的纪念球衣。他们的工作是仔细品读评论,判断是否符合Instagram的社区指导标准,是否像Instagram的一位发言人所说,“精神上”一致。Instagram早在2012年就草拟了第一版社区指导。它相当于这个社交媒体平台的宪法。大众可见的社区指导相对比较简单,篇幅只有1200字(一言以蔽之,始终尊重他人,穿好衣服。)可对于评估网站言论的Instagram员工来说,他们要使用的社区指导长得多,而且有一套隐而不宣的标准。他们要用那样的指导判断哪些评论不错,哪些性质恶劣。Instagram有几十名做这类工作的评判者,他们全都至少会两种语言。他们分析的评论超过2亿条,每条评论都至少要经过两次评估。 

即使在处理看上去最无礼的词语时,语意的微妙差别也很重要。管理评估者的Instagram内容运营总监James Mitchell说:“如果你用N开头的词诋毁别人,那我们平台肯定不允许。但有些情况是例外,比如你把它用在自我参照的表述中,或者你复述一个故事,或是回顾自己被歧视的一段经历。” 

评估者将数据分门别类以后,四分之五的分类后文本内容将输入DeepText。经过学习所有评论,机器会归纳总结数据中好评论与怀评论的各种模式。最终,通过与DeepText合作,Instagram公司的工程师会制定一套规则,用以辨识负面的评论。这些规则辨别的依据是用户发贴的内容,以及发贴者和评论者的关系等其他因素。Instagram还运用工程师内部称为“karma分数”的指标,用它来评判用户过往帖子的质量。然后,这些规则会在剩余五分之一未输入DeepText的数据上测试,看机器与人类的评估有多一致。 

(编辑:555手机网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读