盘点硅谷公司2016年犯过的三大错误(图)
2017-01-01
编者按:过去的2016年,硅谷的创业公司、独角兽和上市公司犯过许多错误。

《快公司》网站列出了其中的三大问题,为科技公司的未来发展提供借鉴。

1、员工队伍多元化不要开倒车

两年前,苹果、Facebook、谷歌、Twitter和其他主流公司发布了员工多元化报告,希望改变员工队伍构成单一的问题。然而,尽管所有公司都将多元化定位为优先工作,但提升包容性的进展一直很慢。在大部分这些公司,黑人员工的比例一直低于5%,而女员工的比例则不到1/3。在管理岗和技术类岗位上,这些比例还要更低。由于缺乏进展,多家公司,包括Twitter、Pinterest、eBay和Salesforce,都推迟了最新多元化报告的发布。

尽管进展不大,但放弃员工队伍多元化的努力并不是个好主意。关于多元化报告,最关键的一点是,确保多元化是一项高优先级工作。报告显示,顶级科技公司中的员工构成仍然非常单一。为了推动民族、种族和性别的多元化,我们需要继续探讨包容性的问题。

2、算法存在局限

2016年,Facebook曾多次尝试用技术去取代人工判断,这也向我们证明了计算机算法存在的局限。2015年底,Facebook在巴黎的公布袭击之后立即启用了安全确认产品,而在贝鲁特的自杀式袭击后却没有这样做。这遭到了批评。当时,Facebook表示,巴黎恐怖袭击是该公司首次在恐怖袭击事件中启用安全确认功能(该功能通常用于自然灾害)。2016年,Facebook设计了一种方式,当许多人讨论当地的灾难事件时自动触发安全确认功能。紧急响应组织对于Facebook这一功能的推出感到担忧,因为Facebook将有权判断,局面是否算得上危机。

瑞贝卡·古斯塔夫森(Rebecca Gustafson)2016年早些时候表示:“在紧急响应领域,我们讨论的最重要问题在于,错误的信息比没有信息更可怕。紧急响应组织的反应太慢会遭到批评,但科技公司的速度已经扭曲。”

在2016年的美国大选周期中,Facebook平台上的假新闻问题也备受批评。关于Facebook传播不实新闻的问题,Facebook CEO马克·扎克伯格(Mark Zuckerberg)表示,社区的标记将有助于阻止虚假内容,而Facebook并不希望成为事实的仲裁者。无论是安全确认功能还是假新闻的传播都表明,算法还无法区别真实信息和夸大的信息。在受到公开压力之后,Facebook宣布将与第三方合作,标记虚假新闻。未来,可疑的新闻将会被标记,在消息流中的排序将降低。

不过,2016年带来的一条经验在于,低效问题无法完全通过机器去解决,许多问题仍需要人工介入。

3、用户永远正确

2016年,我们再次看到,满足用户需求有多么重要。Facebook是这样的例子之一,而Evernote则是另一个例子。近期,Evernote发布了新的隐私政策,规定用户的笔记将被Evernote负责机器学习技术的员工定期评估。Evernote CEO解释称,分享给员工的笔记将会被删除识别信息,但用户仍对此感到担忧。在引发强烈反弹之后,Evernote决定将这一项目改为自愿参与。根据新政策,只有对同意参加项目的用户,笔记才会被分享给Evernote员工。

杰西卡·阿尔芭(Jessica Alba)的Honest Company被控更改了洗衣粉的配方。此前《华尔街日报》报道称,Honest Company使用了椰油醇硫酸酯钠。2016年,Honest Company遭遇了一系列的用户投诉,质疑该公司的产品是否真的天然或有机。Honest Company对《华尔街日报》表示,该公司调整配方是为了“优化产品的效果”。

对于2017年,这些有何借鉴意义?随着科技公司更深入地探索机器学习、无人驾驶汽车,以及其他类型的自动化,需要记住的一点是,我们要看到技术的局限性,并记住人工所擅长的领域。透明度很关键,隐瞒信息将损害此前所建立的关系。此外,在开发新产品时,需要思考你的业务能给世界带来哪些积极改变,并倾听用户的意见。
隐私权政策(Privacy) | 免责条款(Disclaimers)