可怕!脸书前大佬爆料:每刷手机一分钟,就会被AI窃取数...

 2021-3-15 23:11:42 回帖奖励 |阅读模式
0
可怕!脸书前大佬爆料:每刷手机一分钟,就会被AI窃取数据,甚至诱导兴趣偏好…



先来算一算,在打开这篇文章之前,你今天已经花了多久在刷手机上?

在网上冲浪的时候,大家都曾有过这样的疑惑吧:
为啥我刚聊完的商品,转眼就有广告推送到我面前?为啥社交媒体随便刷刷一个小时就过去了?为啥在网络上学习知识这么容易,但是反智的言论却越来越多?为啥明明网络应该是更加自由的言论场,却变成了被逼站队互相谩骂的战场?

2020年9月,网飞推出了一部纪录片,名叫《The Social Dilemma》,中文翻译是《监视资本主义:智能陷阱》
其实在你刷手机的背后,有无数AI在盯着你.....

这个片子的背后,都是社交网络最早期的开发者们,是Ins、FB、Google、油管、Firefox等等曾经的核心员工。

他们集体揭露:在社交网络背后,不仅仅是无数磨刀霍霍向韭菜的资本,还有他们自己开发出来的,逐渐脱离人类控制的AI……

让人看得想把手机直接丢了,正如豆瓣网友评论的:“年度最佳恐怖片”

  • 免费的社交网络?你我才是商品


使用各种社交网络的时候,即使我不充会员啥的,依旧可以免费刷信息,看视频....

看上去是免费的,然而其实,我们花在社交网络上的时间,被作为了商品,卖给了广告商……

我们看过的每一个视频,点赞过的所有内容,搜索过的东西,都在被社交媒体小心翼翼地监控着、记录着。
根据这些大佬的说法,他们收集的信息比这细多了:
甚至连在一张图片上看了多少时间,你发评论的心情,都是大数据的一部分。

你的年龄几许、爱好为何、收入多少,广告商轻而易举就能获得,然后极其准确地在社交网络上给你投放广告。
你的爱好、性格、消费习惯,那才是真金白银!
  • 越上瘾,越值钱


在免费提供服务的同时,很多APP的目标,就是让你花在他们上的时间,越长越好,越上瘾越好。
因此,他们在挖空心思的让你上瘾。
即使是APP上的最小的一个功能,都是精心考虑,故意让你上瘾的设计……
比如说下拉刷新 ,是所有社交网络最普通不过的功能了,每次下拉,就有新的随机内容就出现在了屏幕上,让人充满了期待。
在心理学上,这个刷屏行为叫做“正积极强化”听起来既“正面”,又“积极”。

实际上,下拉刷新的灵感来源,就是赌博用的老虎机:
——拉下控制杆,你就有可能中奖,每一次的拉动,数字全都不同。
——拉下页面,可能就会看到你感兴趣的东西,每次刷新,出来的内容都不一样。
不能说是极其相似,只能说是一模一样!
好嘛,这是直接对准了每个人都多多少少的赌性……

还有另一个例子,就是显示“对方正在输入...”
我们在对话时,都期望对方可以很快回复,但传统的短信和邮件,发送后不会盯着它,该干啥干啥去——直到网络足够发达以后,才有了这个功能。

当你看到对方在回复你的过程,肯定不会直接关掉APP放一边,而是一直盯着屏幕期待ta的回信。
叮咚,于是你在这个app上花的注意力,又不知不觉成功增加了几秒。
这也是被刻意设计出来,增加我们对APP关注的……
点赞、分享、心情等等功能,全都是为此开发的。

即使是开发了这些软件、特别清楚自己产品成瘾魔力的工程师也承认,这种瘾,他们自己都很难戒掉。

  • 你的想法,可能是AI帮你决定的


光是让你上瘾,工程师们还不满足。
不光要让你每次刷出来新东西,这些新东西还最好都是你感兴趣的。
于是我们大家都特别熟悉的“推荐算法”就这样诞生了。

大部分人都觉得这种算法看起来没什么不好的,推荐我们看喜欢的东西,除了浪费点时间,能有啥毛病?
纪录片告诉我们,毛病大了!

这些AI算法,它们不仅有自我意识,还能飞快地学习成长……
并且会针对你的性格弱点,给你灌输想法!

在纪录片中,举了一个最简单的例子——联想搜索

如果在不同的城市和地区的Google搜索框中输入“气候变化是”,你会发现后面的联想词完全不同:
有的是“气候变化是最大的威胁”,有的则是“气候变化是一场骗局”。

怎么来的?

算法根据当地人们的搜索历史,再结合你平时看的东西,自动推荐了它觉得你最会点开的词条。
如果大数据知道你是个怀疑论者,算法就先告诉你,气候变化就是骗局,快来看我这里有这些证据……
反过来如果大数据告诉算法你是个环保主义者,那它就疯狂地向你推荐气候变化的危害……

对于任何新的消息,在你还没形成思考的时候,算法就在一开始帮你决定了倾向。
随着你看相关内容的增多,AI会进一步学习,在你每次下拉刷新的时候,推送符合你观点的内容,你越看越认同,不断强化观点……
洗脑就这么简单。
举个例子,2016年美国总统大选前,互联网上消息真假难辨。

其中有一则阴谋论的谣言流传甚广:
说希拉里和民主党精英们在华盛顿一家披萨店的地下室,经营儿童性交易,每卖一个披萨,就有一个儿童被贩卖。
Hmmm,怎么想都觉得这消息不太靠谱,但是超级智能的脸书算法,把“披萨门”新闻,精准推送给了阴谋论者和川普的支持者,结果信的人越来越多。
最后居然有人为了“解救儿童”,持枪抢劫了这家披萨店。

而事实上那个披萨店连地下室都没有!
“新冠不存在”、“新冠来源于5G信号塔”的言论能被转发百万次,都有推荐算法打造信息茧房的身影。
所以这些反智言论,在互联网时代特别有市场,算法算到我们的弱点,全自动精准坑人这谁受得了啊……
而这一切,开发了算法的工程师们都没插手,只是AI在做它们被要求做的事而已——增加浏览和关注。
  • 你所看并非是你想看;亦或是别人想让你看


于是乎,AI已经知道你喜欢看什么了。

比如某人喜欢看谣言,AI就会给他多推谣言。某人喜欢看阴谋论,AI就会给他多推阴谋论。
看似好像都是AI的自动推荐....
但是...
如果这样的推荐中,混杂了人为的故意推荐呢?
当别有用心的人故意散播一颗谣言的种子,推荐算法就能助纣为虐,将它扩大成一场灾难……
2018年缅甸,一条“少数族裔强奸佛教徒女孩”的假新闻,在数天内毫无阻拦地在脸书上传遍缅甸全国。

最初看到这条新闻的,是缅甸土生土长,一直对移民而来的少数群体有着敌意的人。
于是消息在人群中迅速扩散,脸书的算法帮助它的传播越来越大,从网络声讨,逐渐变成了线下攻击。
因为这一条谣言,缅甸人与罗兴亚族微妙的平衡被一夕打破,一场声势浩大的针对活动就这样开始了。

最终演变成了屠杀、烧村,甚至发生了违反人道主义的大规模强奸和其它严重犯罪行为。
纵性言论,因为脸书的广告,可以精准投放到容易被操纵的人群,并且迅速通过算法在圈子中扩散。

这十年里很多国家的选举,背后都有脸书的身影,人人纷纷指控脸书在其中暗戳戳操纵着选民的思想。
最出名的就是2016年美国大选,脸书被曝出,5000万美国用户资料被窃取用于数据分析,预测他们的政治倾向,进行精准的新闻投放,疯狂洗脑。

  • 对抗科技带来的危机,只有驯服科技


——“要改变这一切,能实现么?”“不得不实现”
整个片子看下来,把社交网络带来的负面解释得是清清楚楚。
如果再不限制行业巨头和推荐算法,任它为所欲为,人类社会将走到分裂的边缘。
在纪录片中出现的这些人,都是社交网络的最初创造者,在意识到社交网络的道德困境后,选择抽身而退,思考如何止损。

这些大佬们在影片最后,给出了一个相对靠谱的解决办法:

政府立法监督,依靠公权力,限制对于互联网科技的滥用。

因为资本必然是逐利的,在这个以“人”为货品的市场上,不可能寄托于资本拥有道德,自我约束。

就拿汽车举例:
最早人们在发明汽车的时候,只是为了让人们的交通可以更加快速,没有意识到它可能带来的安全隐患。
但当科技带给人便利的同时,桎梏的负面效果也会逐渐暴露,总要找到改进它、限制它的方法,让科技更安全地为人类服务。

今年年初,中国消费者协会点名批评了“大数据杀熟”行为,认定利用算法,根据用户画像进行价格歧视,是损害消费者权益的行为,需要完善法规的控制。
这是人类尝试限制算法的使用,让科技可以被安全应用的有效措施。
所以说啊,人类还是要在科技面前始终要留一点清醒,把安全放在首位,别让本该服务于人类的科技,变成束缚我们的枷锁。

联系时请说明是在「百事通华人资讯网」上看到的,谢谢您!

| 0 人收藏
回复

使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    Powered by Discuz! X3.2  © 2001-2013