Python元学习 通用人工智能的实现 (豆瓣)

AI应用信息1年前 (2023)更新 10小时前
1.8K 0

Python元学习 通用人工智能的实现 (豆瓣)第1章 元学习简介 1

 

1.1 元学习 1

 

1.2 元学习的类型 2

 

1.2.1 学习度量空间 2

 

1.2.2 学习初始化 3

 

1.2.3 学习优化器 3

 

1.3 通过梯度下降来学习如何通过梯度下降来学习 3

 

1.4 少样本学习的优化模型 5

 

1.5 小结 8

 

1.6 思考题 8

 

1.7 延伸阅读 8

 

第2章 使用孪生网络进行人脸识别与音频识别 9

 

2.1 什么是孪生网络 9

 

2.1.1 孪生网络的架构 10

 

2.1.2 孪生网络的应用 12

 

2.2 使用孪生网络进行人脸识别 12

 

2.3 使用孪生网络进行音频识别 20

 

2.4 小结 24

 

2.5 思考题 24

 

2.6 延伸阅读 24

 

第3章 原型网络及其变体 25

 

3.1 原型网络 25

 

3.1.1 算法 31

 

3.1.2 使用原型网络执行分类 31

 

3.2 高斯原型网络 37

 

3.3 半原型网络 41

 

3.4 小结 42

 

3.5 思考题 42

 

3.6 延伸阅读 42

 

第4章 使用TensorFlow构建关系网络与匹配网络 43

 

4.1 关系网络 43

 

4.1.1 单样本学习中的关系网络 43

 

4.1.2 少样本学习中的关系网络  46

 

4.1.3 零样本学习中的关系网络 48

 

4.1.4 损失函数 49

 

4.2 使用TensorFlow构建关系网络 49

 

4.3 匹配网络 51

 

4.4 匹配网络的架构 55

 

4.5 TensorFlow中的匹配网络 55

 

4.6 小结 60

 

4.7 思考题 60

 

4.8 延伸阅读 60

 

第5章 记忆增强神经网络 61

 

5.1 NTM 61

 

5.1.1 NTM中的读与写 62

 

5.1.2 寻址机制 65

 

5.2 使用NTM复制任务 68

 

5.3 MANN 77

 

5.4 小结 80

 

5.5 思考题 80

 

5.6 延伸阅读 80

 

第6章 MAML及其变种 81

 

6.1 MAML 81

 

6.1.1 MAML算法 83

 

6.1.2 监督学习中的MAML 86

 

6.1.3 强化学习中的MAML 92

 

6.2 ADML 93

 

6.2.1 FGSM 94

 

6.2.2 ADML 94

 

6.2.3 从头构建ADML 95

 

6.3 CAML 103

 

6.4 小结 104

 

6.5 思考题 105

 

6.6 延伸阅读 105

 

第7章 Meta-SGD和Reptile 106

 

7.1 Meta-SGD 106

 

7.1.1 监督学习中的Meta-SGD 108

 

7.1.2 强化学习中的Meta-SGD 114

 

7.2 Reptile 114

 

7.2.1 Reptile算法 115

 

7.2.2 使用Reptile进行正弦曲线回归 116

 

7.3 小结 121

 

7.4 思考题 121

 

7.5 延伸阅读 121

 

第8章 梯度一致作为优化目标 122

 

8.1 梯度一致,一种优化方法 122

 

8.1.1 权重计算 124

 

8.1.2 算法 124

 

8.2 使用MAML构建梯度一致 125

 

8.2.1 生成数据点 126

 

8.2.2 单层神经网络 126

 

8.2.3 MAML中的梯度一致 126

 

8.3 小结 131

 

8.4 思考题 131

 

8.5 延伸阅读 131

 

第9章 新进展与未来方向 132

 

9.1 TAML 132

 

9.1.1 熵最大化/熵约简 133

 

9.1.2 不平等最小化 134

 

9.2 元模仿学习 136

 

9.3 CACTUs 137

 

9.4 概念空间元学习 138

 

9.4.1 关键部分 140

 

9.4.2 损失函数 140

 

9.4.3 算法 141

 

9.5 小结 142

 

9.6 思考题 142

 

9.7 延伸阅读 142

 

思考题答案 143

 

· · · · · · (收起)

    © 版权声明

    相关文章

    暂无评论

    暂无评论...