Есть ли какая-либо реализация Capsnet на CIFAR10, которая обеспечивает лучшую точность, чем обычная CNN?

Я реализую капсульную сеть с помощью EM-Routing на основе статьи Сары Сабур и Хинтон. Она отлично работает с набором данных MNIST и некоторыми другими наборами данных в градациях серого, такими же, как MNIST, такими как Hoda (персидские/арабские цифры), но когда я попробовал CIFAR10, точность была невероятно низкий.

Udacity Nanodegree Capstone Project: Классификатор пород собак
Udacity Nanodegree Capstone Project: Классификатор пород собак
Вы можете ознакомиться со скриптами проекта и данными на github .
4
0
561
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

Да, это текущая проблема с Capsule Networks. Он хорошо работает с MNIST из-за простоты набора данных. Все, что вам нужно, это обнаружить несколько ребер и пятен, чтобы классифицировать все данные. Для более сложных наборов данных наивное сложение капсул в надежде на хорошую работу не работает. Однако в настоящее время ведутся работы по настройке текущей архитектуры CapsNet, чтобы она работала лучше, чем сейчас. Когда CNN был разработан в те дни, у него также была та же проблема. CNN потребовалось много лет, чтобы стать тем, чем он является сейчас.

Обратитесь к этой статье, если вы хотите узнать производительность CapsNet на разных наборах данных: https://arxiv.org/abs/1712.03480

Ранее я упоминал, что ведутся работы по улучшению CapsNet. Тем не менее, уже есть некоторые работы, которые были сделаны до сих пор. Вы можете обратиться к ним:

http://openaccess.thecvf.com/content_CVPR_2019/papers/Rajasegaran_DeepCaps_Going_Deeper_With_Capsule_Networks_CVPR_2019_paper.pdf

http://proceedings.mlr.press/v97/jeong19b/jeong19b.pdf

Имейте в виду, что время, необходимое для обучения CapsNet, намного больше, чем CNN. Поэтому протестировать эти архитектуры непросто.

Другие вопросы по теме