共4个项目结果
热搜:
Feijiang
Mofang
Kedaxunfei

neural-vqa Lua Star 0

  • 本项目从Mengye Ren、Ryan Kiros和Richard Zemel对图像问答模型和数据的探索入手,对VIS + LSTM可视化问答模型进行了一个实验性的Torch实现。
  • 原始仓库地址:https://github.com/abhshkdz/neural-vqa.git 浏览量:1156 下载量:921 2 months前

    bottom-up-attention-vqa Python Star 0

  • **bottom-up-attention-vqa**是一个高效的PyTorch实现了的2017年VQA挑战赛的获奖项目。 遵循了“自下向上和自顶向下关注图像字幕和可视化问题回答”(https://arxiv.org/abs/1707.07998)和“可视化问题回答技巧和技巧:从2017年挑战中学习”(https://arxiv.org/abs/1708.02711)中描述的VQA系统。
  • 原始仓库地址:https://github.com/hengyuan-hu/bottom-up-attention-vqa.git 浏览量:1350 下载量:806 2 months前

    VQA Python Star 0

  • 这个版本包括: - 82,783张MS COCO训练图片,40,504张MS COCO验证图片,81,434张MS COCO测试图片(图片来自[MS COCO网站][mscoco.org/dataset/#download]) - 训练问题443,757题,验证问题214,354题,测试问题447,793题 - 训练答案4,437,570份,验证答案2,143,540份(每题10份)
  • 原始仓库地址:https://github.com/GT-Vision-Lab/VQA.git 浏览量:1265 下载量:904 3 months前

    vqa.pytorch Python Star 0

  • 该报告由Remi Cadene (LIP6)和Hedi Ben-Younes (LIP6- heuritech)制作,他们是UPMC-LIP6的两个从事VQA研究的博士生,他们的教授Matthieu Cord (LIP6)和Nicolas Thome (LIP6- cnam)。我们在一篇名为MUTAN: Multimodal Tucker Fusion for VQA的研究论文框架下开发了这段代码,据我们所知,这是目前VQA 1.0数据集上最先进的技术。 这个repo的目标有两个方面: - 使我们的结果更容易重现; - 为社区进一步研究其他VQA数据集提供一个高效和模块化的代码库。
  • 原始仓库地址:https://github.com/Cadene/vqa.pytorch.git 浏览量:1935 下载量:585 3 months前

    ihub@pcl.ac.cn 鹏城实验室人工智能研究中心

    版权所有:鹏城实验室    粤ICP备18066427号-6    Powerd by 国防科技大学Trustie