A5创业网(公众号:iadmin5)12月29日消息:对于Facebook这个世界最大社交网络来说,2018年堪称是“多灾多难”的年份,危机频发。而对于其创始人兼首席执行官马克·扎克伯格(Mark Zuckerberg)来说,这一年同样不好过。随着2018年即将逝去,小扎日前通过Facebook页面发布了自己的年终总结。随后美国各大媒体也对此文做出了评论。
全文摘要如下:
在2018年,我的个人挑战是专注于解决我们的社会所面临的一些最重要问题,比如Facebook是否阻止了选举干扰、阻止了仇恨言论和错误信息的传播、确保人们能够控制自己的信息、确保我们的服务改善人们的福祉等。在每个领域,我都为我们所取得的进展感到骄傲。
与2016年甚至2017年前相比,Facebook现在已经是个截然不同的公司。我们已经从根本上改变了我们的DNA,更多地专注于在我们的所有服务中预防伤害,我们已经系统性地将我们公司的很大一部分转移到预防伤害上。我们现在有3万多人从事安全工作,每年在安全方面的投入达数十亿美元。
需要明确的是,解决这些问题不仅仅是2018年面临的挑战。但在我提到的每一个领域,我们现在都制定了多年计划来改革我们的系统,我们已经很好地执行了这些路线图。过去我们没有太过关注这些问题,但现在我们变得更加积极主动。
但这并不意味着我们能抓住所有坏人或发现所有不好的内容,也不意味着在我们改进系统之前,人们不会找到更多过去所犯下错误的例子。其中有些问题,如选举干扰或有害言论,永远不能彻底解决。它们是对老练的对手和人性的挑战,我们必须不断努力保持领先。但总的来说,我们已经建立了世界上最先进的系统来识别和解决这些问题,我们将在未来几年继续改进。
今年我们做了很多改进和改变,以下是其中最重要的部分:
防止选举干扰
为了防止选举受到干扰,我们改进了识别虚假账户的系统,并协调了信息宣传活动,这些活动在很大程度上造成了干扰,现在我们每天都要清除数百万个虚假账户。我们与世界各国的事实核查人员合作,以查明错误信息并减少其传播。我们为广告透明度制定了新的标准,现在任何人都可以看到广告商投放给不同受众的所有广告。我们成立了独立的选举研究委员会,研究威胁和我们应对威胁的体系。我们与世界各地的政府和执法部门合作,为选举做准备。
阻止有害内容
为了阻止有害内容的传播,我们建立了人工智能(AI)系统,能够自动识别和删除与恐怖主义、仇恨言论等相关的内容,甚至在任何人看到这些内容之前就能采取行动。例如,这些系统会在任何人报告之前删除了99%与恐怖主义有关的内容。我们改进了News Feed,以促进来自可信来源的新闻传播。我们正在开发新的系统来自动减少边缘内容的传播,包括耸人听闻和错误的信息。
为了处理AU无法判断的复杂案件,我们将内容审查团队的规模扩大了两倍。当我们做出错误的决定时,我们建立了上诉系统。我们正在努力建立独立的机构,人们可以向它上诉,这将有助于确定我们政策的正确性。我们已经开始就清除有害内容的有效性发布透明报告。我们还开始与法国等国政府合作,为互联网平台建立有效的内容监管体系。
A5创业网 版权所有