Решение многопараметрической задачи нелинейной оптимизации для архитектуры сети Vision Transformers, обученной с помощью метода DINO, представляет собой результат нахождения коэффициентов связей между нейронами в течение 82 итераций, в результате которого было достигнуто значение функции потерь, равное 2.24.
Обучение архитектуры Vision Transformers осуществлялось с весов dino_vits16, находящихся в открытом доступе. Применение метода DINO – self-distillation with no labels способствует улучшению качества решения задачи сегментации и не требует дополнительной предобработки обучающего множества в виде разметки.
Полученное решение универсально и подходит для различных объектов из созданного датасета. Наборы примеров целевой направленности могут быть предоставлены заказчиком.
Сведения об охраняемых результатах интеллектуальной деятельности, использованных при создании:
Вид и наименование использованного РИДа: Self-Supervised Vision Transformers with DINO.
Основание возникновения прав: Apache License 2.0.
Источник: https://github.com/facebookresearch/dino.
Описание использования: архитектура.
Доля использования: 0.9.
Составные части, модули РИД:
1. Набор полученных параметров для конкретной архитектуры, полученный в результате решения многопараметрической задачи нелинейной оптимизации;
2. История обучения со значениями функции потерь на каждой итерации.
Аналоги/конкурентные РИД: полный аналог полученного решения отсутствует. Конкурентные решения: веса, полученные на других датасетах с той же архитектурой и подобные им.
Отличия от аналогов: в связи с уникальностью обучающего множества, полученное решение будет значительно лучше решать задачу сегментации в конкретной области.
Код продукции в соответствии с Общероссийским классификатором продукции по видам экономической деятельности: 58.29.21.000
Класс программного обеспечения, которому соответствует программное обеспечение: 03.01