当前位置:网站首页>《Show and Tell: A Neural Image Caption Generator》论文解读

《Show and Tell: A Neural Image Caption Generator》论文解读

2022-08-11 05:35:00 KPer_Yang

目录

参考论文:

图像-字幕生成模型

模型总览:

LSTM部分:

图像特征提取部分:

损失函数定义


参考论文:

Show and tell: A neural image caption generator | IEEE Conference Publication | IEEE Xplore

[1411.4555] Show and Tell: A Neural Image Caption Generator (arxiv.org)

MobileNetV2: Inverted Residuals and Linear Bottlenecks | IEEE Conference Publication | IEEE Xplore

图像-字幕生成模型

模型总览:

从图1中可以明显的看到image首先经过CNN结构的特征提取器,再将提取的特征传入LSTM网络,由LSTM网络生成句子。注意图中右边的LSTM是LSTM的展开(unrolled)形式,也就是按照词的序列顺序展开。

 图1 总网络架构

展开的模型使用公式表示如下:

公式中的I表示图像;S_t表示第t个词,使用长度是字典大小的one-hot编码表示 ,注意S_0表示起始词;S_N表示停止词,当遇到停止词时,LSTM生成一个句子;W_e表示词嵌入。这样,图像使用视觉 CNN,单词使用单词嵌入,图像和单词都映射到同一个空间。图像I只再t-1时候使用一次,后面的N个时间步都不使用I,因为实验发现会带来过拟合的问题。

LSTM部分:

LSTM网络由输入门、输出门、遗忘门组成。

LSTM的具体公式如下所示:

图像特征提取部分:

图像特征提取可以使用Resnet、GoogleNet、MobileNet、EfficientNet等网络。例如MobileNetV2的网络结构如下:但是需要注意将网络的最后softmax层去掉,连接上需的长度的MLP,将其作为LSTM的输入x_{t-1}

损失函数定义

 损失函数的定义其实如图1中所示,在每个时间步将LSTM的输出经过softmax(),然后求log()取负数得到。

原网站

版权声明
本文为[KPer_Yang]所创,转载请带上原文链接,感谢
https://blog.csdn.net/KPer_Yang/article/details/126091801