Blog 📝
论男女两性的解放
目前的中国社会,男女两性的性别矛盾在网络上日益突出。但是,作为无产阶级的我们必须要明白,当今社会种种矛盾背后的根源到底是什么?难道真的只是性别矛盾本身吗?如果我们把握不住基本矛盾,抓不住主要矛盾,就很容易陷入到纯粹的男女两性性别对立的陷阱之中,这完全就是上了资产阶级的当——不仅解决不了问题,还会导致无产阶级的内斗。 资产阶级控制大众舆论,制造和煽动男女两性对立的言论。所谓的“女权”、“女性独立”、“小仙女”、“直男”等词语被资本异化,消费主义的错误思潮正在广大青年当中蔓延。网络短视频“毒鸡汤”横行,严重侵蚀当代年轻人的思想和价值观,危害社会和谐稳定。因此,笔者认为有必要撰写此文,在马克思主义的指导下,系统论述关于男女两性解放的问题。 男女两性的性别矛盾的问题由来已久,因此我们必须要从人类社会历史当中进行探究。本文首先从阶级产生以前的各类原始社会开始,探究男女两性的矛盾从何而来。接下来,本文继续探究阶级产生以后的各个社会形态,挖掘男女两性矛盾的根源与私有制和父权制的关系。紧接着,本文介绍了国际社会主义运动中的妇女解放运动,分析无产阶级的阶级斗争和妇女解放斗争之间密不可分的关系。 在总结完人类社会历史后,本文还将深入分析当下的中国社会存在的男女两性矛盾对立的表现和根源,勾勒共产主义社会中男女两性关系的宏伟蓝图。最后,本文指出,男女两性要想实现真正的、彻底的解放,必须消灭私有制、父权制。男女两性的解放是全人类解放的一部分,也是实现共产主义的必然要求。
September 29, 2023 Last modified on August 21, 2024
从“改变命运的”光头强体会什么才是真正的做自己
截至 2024 年 5 月 28 日 0 时,《熊出没·逆转时空》总票房突破 20 亿,成为中国影史继《哪吒之魔童降世》后第二部票房突破 20 亿的动画电影。《熊出没》的故事自从 2012 年问世来深受小朋友的喜爱,《熊出没》系列动画电影也已有十余载的历史。究竟是什么样的魔力,让长大后的我们在电影院里潸然泪下,久久不能忘怀? 儿时的我们嘲笑光头强,伐木被人催,砍树被熊追,光头强越是倒霉,我们越是觉得好笑。然而,长大后的我们,面对生活的不易,又何尝不以光头强自比?光头强和我们一样,都是普通人,都需要工作生活,春节也需要回家过年…… 毫无疑问,金钱,正是光头强梦寐以求的。终于,光头强有了进城赚大钱的机会,从程序员做到部门主管。然而,拥有自己曾经希望拥有的一切,却又感到空虚寂寞。光头强不禁扪心自问:我真正想要的是什么? 结合复旦大学社会学系副教授沈奕斐视频中对于“做自己”的探讨,本文将通过光头强的视角,深入解读什么才是真正的做自己。
June 5, 2024 Last modified on June 25, 2024
挑战 2024 年高考数学新课标 I 卷压轴大题
2024 年高考已落下帷幕。今年最大的变化是全国 I 卷退出历史舞台,很多省份开始采用新高考 I 卷。不少考生反映今年的试题相较过去几年要容易一些,只是压轴大题有点难度。按照惯例,我将继续尝试一下今年数学的最后两道大题,感受一下新高考的变化。
June 7, 2024 Last modified on June 7, 2024
东方之美:谈谈中国人的审美自信
复旦大学中国研究院院长张维为教授携手中国美术学院院长高世名教授,一同讨论中国人的审美自信。 从某种意义上说,我们要夺回我们的审美权,或者重建我们的审美权。因为这些年,我们的审美权由于种种原因,相当长时间内,被西方标准、西方话语影响了,而且是有意的、刻意的,造成我们很多人文化不自信,标准不自信。 本文将高世明教授和圆桌讨论的内容进行整理,并且针对部分抽象的内容进行解读。
February 14, 2024 Last modified on February 14, 2024
分块矩阵的乘法
矩阵乘法是线性代数中最重要的运算之一。在机器学习中,矩阵乘法也是经常用到的运算,最常见于 MLP 线性层。 而在实际的模型训练和推理系统中,模型参数和中间激活的张量可能非常大,而 GPU 显存空间有限。因此,我们需要将张量切分为多个块,以在 GPU 上实现并行计算。而这和分块矩阵的乘法有着紧密的联系。
November 28, 2023 Last modified on January 29, 2024
图解 Flash Attention
Flash Attention 是目前针对 Attention 计算最优解决方案的开山工作,旨在从底层 GPU 的 HBM(High Bandwidth Memory)和 GPU 的片内 SRAM(Static Random Access Memory)的角度尽可能降低访存开销,从而加速 Attention 的计算,在长序列的情况下展现出了优良的性能。 然而,Flash Attention 对于 LLM 初学者来说很不好理解,因为它需要我们对 Attention 的计算过程有非常深入的了解,而其中的难点在于 Softmax 的计算的可分割性的理解。本文希望通过丰富的插图乃至动画,让 Flash Attention 能够通俗易懂。
January 27, 2024 Last modified on January 29, 2024
Towards Efficient Generative Large Language Model Serving: A Survey From Algorithms to Systems
随着 AI 的飞速发展,特别是伴随着 ChatGPT 的诞生,标志着深度学习已经进入了大语言模型(Large Language Models,LLM)的时代。然而,LLM 由于其本身的复杂性和大规模而给部署和服务带来了前所未有的挑战。 来自卡内基梅隆大学的 Catalyst 团队在他们的最新综述论文中,从机器学习系统的研究视角出发,详细分析了前沿 LLM 推理从算法到系统的产生的重大变革。
January 15, 2024 Last modified on January 19, 2024
挑战 2024 年考研数学(一)
2024 年考研已落下帷幕。据报道,今年考研的人数比去年减少了 36 万(共 438 万人报考),引发社会广泛关注。在刚刚结束的数学科目考试中,不少考生哀叹今年的数学试题难如登天,特别是 301 数学(一)。 本篇博客将持续更新今年数学(一)每道题目的详细作答过程,体会莘莘学子们在考场上的不易。
December 24, 2023 Last modified on December 30, 2023
大模型的参数量及其计算访存开销的理论分析
推理服务系统的根本目标在于降低时延和提高吞吐量,LLM 推理的优化也是如此。首字时延(Time To First Token, TTFT)和吐字时延(Time Per Output Token, TPOT)就是两个非常重要的指标。如何优化 LLM 推理的这两个指标成为近年来学术界热议的问题。在研究这个问题之前,有必要深入理解 LLM 架构,分析其参数量和计算访存开销。
November 1, 2023 Last modified on December 21, 2023