Loading... # 2021.9.18 周记 > 因为上周开学,咕了一周,我认罪 ## 上一周的学习内容 ### 1. Life Long Learning 别称: Continuous (Continual) Learning, Never Ending Learning, Incremental Learning 解决的问题: - Knowledge Retention (Catastrophic Forgetting) - Knowledge Transfer - Model Expansion #### Knowledge Retention 问题: - 如果顺序的把不同任务的数据集使用到同一个网络之中, 会导致先之前的任务会有灾难性的遗忘. - 如果把所有数据集合到一起, 开销会十分巨大 **Elastic Weight Consolidation**(EWC)类型的方法: $$ L'(\theta) = L(\theta) + \lambda \sum_i b_i(\theta_i-\theta_i^b)^2 $$ 每一个参数 $\theta_i^b$ 有一个 $b_i$ 可以决定参数不能离原来的参数太远. 其中 $b_i$ 在不同的算法中有不同的值, 例如: 二次微分. > [Elastic Weight Consolidation (EWC) - Overcoming catastrophic forgetting in neural networks. 2017](http://www.citeulike.org/group/15400/article/14311063) #### Generating Data 将数据集合到一起开销会十分的巨大, 我们可以生成一个产生数据的模型. 存储数据占用空间, 但是生成数据的模型是可行的. #### Gradient Episodic Memory (GEM) > TODO: https://arxiv.org/abs/1706.08840 #### Knowledge Transfer 当训练完模型2之后, 任然在一模型1的性能. 也就是除了想做到 knowledge transfer, 也希望做到 knowledge retention. #### Model expansion 模型学习一定任务之后无法再学新的任务, 需要进行模型扩张. 要保证扩展速度小于新任务进来的速度, 否则会因为模型太大而无法保存. ### 2. 半监督学习 #### 弱监督学习 需要弱监督学习的理由: - 现实的数据往往缺乏标签 - 数据标注过程的高成本 - 很多任务很难获得如全部真实标签这样的强监督信息 弱监督学习可以分为3类: - 不完全监督(incomplete supervision): 只有训练集的一个子集是有标签的, 其他数据则没有标签 - 不确切监督(inexact supervision): 如图像只有粗粒度的标签, 这在tabular数据中也较为常见 - 不准确的监督(inaccurate supervision): 模型给出的标签不总是真实的 #### 不完全监督 只拥有少量有标注数据的情况, 这些有标注数据并不足以训练出好的模型, 但是拥有大量未标注数据可供使用. $$ D = \{(x_1, y_1), (x_2, y_2), \ldots, (x_l. y_l), x_{l+1}, \ldots, x_m\} $$ 其中有 $l$ 个样本有标签, 而 $m-l$ 个样本无标签. 不完全监督主要包含了两个方向: 主动学习(Active learning), 半监督学习(Semi-supervised learning). 其中, 半监督学习可以可以进一步划分为**纯半监督学习**和**直推学习**. #### 生成式方法 是基于生成式模型的方法, 先对联合分布 $P(x, c)$建模, 进而求解 $P(c|x)$. **方法假定样本数据服从一个潜在的分布, 因此需要充分可靠的先验知识**. 基于生成式模型的方法十分依赖于对潜在数据分布的假设, 即假设的分布要能和真实分布相吻合, 否则利用未标记的样本数据反倒会在错误的道路上渐行渐远, 从而降低学习器的泛化性能. 因此, 此类方法要求极强的领域知识和掐指观天的本领. #### 半监督SVM 监督学习中的SVM试图找到一个划分超平面, 使得两侧支持向量之间的间隔最大. **TSVM**: 核心思想: 尝试为未标记样本找到合适的标记指派, 使得超平面划分后的间隔最大化. TSVM采用局部搜索的策略来进行迭代求解: 1. 使用有标记样本集训练出一个初始SVM 2. 使用该学习器对未标记样本进行打标 3. 将上一步没有打标记的样本重新训练SVM 4. 再寻找易出错样本不断调整, 重复2和3 ## 本周学习计划 > 这两周把李宏毅的机器学习课程和周志华的*机器学习*看完了. > 这周开始看李航的*统计学习算法*, 并花时间看别人的代码 1. *统计学习方法* 最后修改:2021 年 09 月 20 日 © 允许规范转载 赞 0 如果觉得我的文章对你有用,请随意赞赏