李大白
数字人文研究者

我是数字人文领域研究者李大白,算法如何影响我们的生活,问吧!

当外卖平台迫使骑手争分夺秒,激化骑手与消费者之间的矛盾;当科技公司在二选一、大数据杀熟等操作中侵犯消费者自由与权益;当算法过滤个体对更广阔外界的认知,让我们在回音壁中看到越发窄化的世界……21世纪,数字技术即政治本身,它渗入着公共与私人生活,影响着消费生活、公民权利,乃至资源分配、社会公平。面对数字系统的全面包围,我们终将思考如何拥抱或如何拒绝。
算法到底有哪些不易被察觉的力量?技术与权力之间为何息息相关?作为工具的算法,为何逐渐被蒙上“恶”的色彩?我是数字人文领域研究者李大白,译著有《算法的力量:人类如何共同生存?》,今天我们如何审视算法的力量,问我吧!
1k
探索 2022-04-10 进行中...
新颖、大胆、专业、有趣的好问题更有机会获得回复,开始提问吧!
13个回复 共26个提问,

热门

最新

李大白 2022-05-14

算法会让我们看到更宽阔的世界,还是更狭窄的世界?

李大白 2022-04-11

您的问题非常好,这个问题学者们也在讨论,一个代表性的问题就是:算法是否会把我们关进“信息茧房”?
“信息茧房”一词是哈佛大学法学院教授凯斯·桑斯坦在其著作《网络共和国》、《信息乌托邦》中提出并展开讨论的,他认为互联网会为人们构建一个自己的世界,人们在其中只能听到自己选择的声音,选择让自己感到安慰的东西,于是人们把自己关进自己设计的“回音室”(echo chamber)之中,于是更容易导致网民观点的极化。
注意,这两本书出版的时间分别是2003年和2006年,即处于web1.0时代,也就是说,推荐算法在其时不是该观点形成的背景。只不过进入算法推荐内容分发时代之后,信息茧房的概念又重被提起,学者们认为这个词更适合用来形容活在自己手机里,狂刷内容雷同短视频的人类。
从算法推荐主导的内容分发模式来看,在其最初的野蛮生长期,过于强调占领用户时长,增强用户粘性,这在一定程度上利用甚至激发了人性的阴暗面,用“奶头乐”的内容让用户沉迷其中,让用户在认知心理上毫无防备的情况下,被收割了时间和心智,强化了“信息茧房”的现象。
但让我们回忆一下人类的过往:在大众媒体普及前的社会,你也许只能听听父母亲友和村口王大爷张大**人生经验,看看张贴在城墙上的朝廷邸报;后来,你可以选择订阅某些报纸杂志,收看电视节目,但也总是浏览其中的花边新闻版面,锁定某几个感兴趣的电视频道;再后来到了web1.0时代,你每日的阅读基于感兴趣的“频道”的专业编辑精心挑选的内容和自己日常浏览的几大吵得不可开交的“论坛”;如今,我们接受的信息来自于新闻APP的弹窗和刷到停不下来的短视频……被数量有限的若干信息“把关人”生产并过滤的信息,与如今算法基于你的用户行为协同过滤(collaborative filtering)后的信息两相比较,你觉得自己看到的世界更宽阔了,还是更狭窄了?
我认为,每个人在算法时代的眼界大小,一要看算法的机制设计,二要看个人的媒介素养;科技公司和个人需要做到让“上帝的归上帝,凯撒的归凯撒”。
从科技公司的角度来看,如今,以算法推荐机制为主导的信息空间已经被构建起来,平台公司作为算法机制的设计者,需要克制利用人性恶创造商业价值的野心,不断优化算法,让“科技向善”的理念真正融入算法设计,为具有公共价值的优质内容提供更有利的生产环境和更广阔的触达机制。不能逃避责任,把损害用户心智的责任都推到用户不自律上。
从个体用户的角度来看,你看到的世界更广阔或更狭窄,主动权基本还是掌握在自己手中。信息获取渠道的复杂化,总是有利于更聪明、更知道自己需要什么的大脑捕捉有利于己的信息。前现代人困于本村的家长里短,大众媒体时代后虽造就了“单向度的人”,但眼光从还是从本村放眼到了国家、世界,然后我们有机会关注网站的时政、军事、文化、艺术等频道,如今算法推荐构建的内容生态让普通人的生活和创作也能同影视明星一样置于台前……如果你觉得在算法时代看到的世界更狭窄了,问题也许出在你给自己构建的信息流不够宽阔。在算法推荐的裹挟中,我们要随时提醒自己,多关注专业机构、优质博主;在算法提供了激发你好奇心的机会时,鼓励自己的开放心态,让认知破壁,在信息严重过载,精力容易被分散的情况下,主动构建满足自己更高层次需要的信息流,这时,算法推荐就会比以往各种媒介机制都更有利于帮你看到更广阔的世界。
查看此问题的另外1个回答

UjaEr2022-04-16

请问算法到底是不是一个恶的东西?您是否认可技术中立说?

李大白 2022-04-18

我们先来看看“技术中立说”。科学与技术之间有一项重要的区别,科学有可能是“无用”的,科学研究有可能是科学家出于对世界的好奇;但技术却总是务实的,是“有用”的,技术的发展带来了工具理性,谁来判定什么有用,有什么用,这其中自然包含了价值观。某项技术被发明出来,总是要服务于目的,有人受益,有人受损,技术公司以牟利为基本诉求,如何中立?
提倡“技术中立”的往往也是“技术至上”、“技术乐观主义者”,他们认为技术中立,所以技术造成的结果取决于使用技术的人,用这个论调解释“刀能切菜,也能杀人”还算说得过去,解释枪的存在都有些牵强,更不要说数字技术了。这种说法自然有对技术带来的负面作用有推卸责任之嫌,一般发出此类言论的就是某项技术的获益者。譬如最开始的内容推荐算法设计,无疑会引导人们对猎奇内容的关注,放大人性恶,导致假新闻和劣质内容横行,科技公司不能用技术中立论为自己开脱。
但我们肯定不能武断地认为算法是一个恶的东西。就像我在回答“算法会让我们看到更宽阔的世界,还是更狭窄的世界”问题时所说的那样,算法依然让我们看到了更大的世界。虽然算法在发展过程中受制于训练集的局限,人类的认知局限,其他技术的局限等,带来了一系列种族歧视、性别歧视等不好的结果,譬如面部识别技术更难识别有色人种等问题,但我们还是要提倡“科技向善”(Tech for good)、“数字人文主义”(Digital Humanism)的价值观念,譬如在人脸识别中有意多加入有色人种的数据集,吸收更多的女性工程师等措施,让人文精神融入算法,使其成为促进社会公平与正义的助推器,而不是偏见的放大器。
查看此问题的另外3个回答

算法和大数据这两个概念,是一回事吗?

李大白 2022-04-13

很多人认为大数据就是“大量的数据”,这个观念是有偏差的。大数据肯定是海量数据,但其最重要的特点是多维度和完备性,而且需要高速不断生成。假设我把今天全世界所有菜市场西红柿的价格都统计出来,列在一张表单上,这个数据量也非常大,但它就不属于大数据;反过来,资讯、社交软件上不断产生的文本、视频的数据流就属于大数据。
 再说到“算法”。从广义上来讲,运用数学逻辑来计算的准确、完整的规则就能叫“算法”,譬如加减乘除,勾股定理,都能称为算法,后来主要用在计算机领域。机器学习、深度学习等中具体的方法,譬如朴素贝叶斯算法、K近邻算法、支持向量机算法、神经网络算法等。而机器学习(ML)、深度学习(DL)都是人工智能的子领域。人工智能在生活中的常见表现为聊天机器人、推荐引擎、智能助手等。因此,如今内容平台的“算法推荐”,其实就是机器通过这些从不断产生的大数据中自我学习进化,并在没有人工干预的情况下做出决策;换句话说,不单纯是某种算法,而是人工智能决定了你在短视频平台上看到的内容。
于是大数据、数据存储和提取工具以及人工智能等方法分别作为养料、培养皿和实验者,相互配合,获得大数据,存储大数据,并将其转换为可提取的信息,然后通过人工智能的种种算法来分析,将原本看似没有关系的事情联系起来,恢复对事物全方位的描述,从而发现其中的隐藏模式和其他信息,并更好地预测结果,提供服务。
查看此问题的另外1个回答

UjaEr2022-04-14

企业通过算法收集的数据,最后都去了哪里,会定期清理吗?

李大白 2022-04-15

热新闻

热话题

热评论

热回答

关于澎湃 在澎湃工作 联系我们 广告及合作 版权声明 隐私政策 友情链接 澎湃新闻举报受理和处置办法 严正声明