生成模型—VAE(Variational Auto-Encoder)
为进一步了解面部反应生成模型的原理,故详细学习VAE。
Auto-encoder
感谢李宏毅老师的视频!
自编码器是一种无监督学习的神经网络模型,可以用于数据降维、特征压缩、特征提取、数据生成等任务。其主要思想是尝试将输入数据通过编码器(Encoder)转换为一个低维度的潜在特征空间(类似PCA),并使用解码器(Decoder)将该特征空间重建为与原始数据尽可能相似的输出数据。自编码器由编码器和解码器两部分组成,其中编码器将高维度的输入数据映射到低维度的潜在特征空间,而解码器则将该潜在特征空间的表示映射回原来的高维度数据空间,以进行重构或预测任务。
自编码器可以用于无监督特征学习、数据降维、去噪、图像重建等多个领域。其中,通过限制编码和解码过程中的某些约束(如稀疏性、降噪、受限玻尔兹曼机等),可以进一步优化自编码器的表现,增强其鲁棒性和泛化性能。
自编码器其实是Reconstruction的过程,也就是输入的vector/embedding/representing/code和输出的vector/embedding/representing/code as close as possible.
变体 Denoising Auto-encoder
以及BERT也可以视为一种Denoising Auto-encoder
Discrete Latent Representation
中间Encoder的输出也称作Latent Representation
原先是一个浮点数值的向量,可以让其二值化或者one-hot来得到新的向量,这一步应该是量化 (Quantization),从FP32转换为FP16或者INT8。
Variational Auto-Encoder
首先关于变分推理,具体的贝叶斯公式推导可见文章或视频(评论区笔记)
VAE的讲解视频P1,可从35:17开始观看,收益很大
简单来说,AE只会生成一个固定的Z码,但是因为训练数据的限制,实际不能很好拟合现实情况,所以引入VAE,它生成的是Z的概率分布然后采样出Z’送入Decoder
VQ-VAE
同时我还参考了以下文章来更加了解VAE,若想了解更多生成模型可阅读文章
1.本站内容仅供参考,不作为任何法律依据。用户在使用本站内容时,应自行判断其真实性、准确性和完整性,并承担相应风险。
2.本站部分内容来源于互联网,仅用于交流学习研究知识,若侵犯了您的合法权益,请及时邮件或站内私信与本站联系,我们将尽快予以处理。
3.本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
4.根据《计算机软件保护条例》第十七条规定“为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。”您需知晓本站所有内容资源均来源于网络,仅供用户交流学习与研究使用,版权归属原版权方所有,版权争议与本站无关,用户本人下载后不能用作商业或非法用途,需在24个小时之内从您的电脑中彻底删除上述内容,否则后果均由用户承担责任;如果您访问和下载此文件,表示您同意只将此文件用于参考、学习而非其他用途,否则一切后果请您自行承担,如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。
5.本站是非经营性个人站点,所有软件信息均来自网络,所有资源仅供学习参考研究目的,并不贩卖软件,不存在任何商业目的及用途
暂无评论内容