Can
Can
科技创新赋能高质量发展
首页
分类
标签
相册
链接
关于
首页
分类
标签
相册
链接
关于
Knowledge Distillation
#TPAMI
1
#NeurIPS
1
#DDP
1
#Knowledge Distillation
1
#AAAI
1
#VLP
1
#AE
2
#ACM MM
2
#TNNLS
1
#arXiv
2
#LLM
2
#ECCV
1
#DDPM
1
#压缩/解压
1
#iForest
1
#ICDM
1
#ViT
1
#ICCV
1
#ResNet
1
#CVPR
7
#CNN
1
#MNIST
1
#PyTorch
1
#栈
3
#剪枝
1
#数组
6
#暴力
2
#链表
4
#SSM
1
#递归
1
#链表
2
#模拟
1
#滑动窗口
1
#STL
1
#二分查找
1
#medium题
11
#动态规划
2
#哈希表
6
#双指针
13
#easy题
19
Open-Vocabulary Multi-Label Classification via Multi-Modal Knowledge Transfer
多标签分类是计算机视觉的重要任务,旨在识别图像中所有相关的标签。然而,现有方法通常只能处理训练中可见的标签,而无法应对许多实际应用中存在的“未见”标签。为解决这一问题,多标签零样本学习(ML-ZSL)尝试通过语言模型(如GloVe)进行知识转移,但其只利用了单一模态的信息,忽略了图像-文本对中的丰富语义信息。
多标签分类
论文分享
人工智能
AAAI
Knowledge Distillation
VLP
4
0
0
2024-12-11