archive:dlcp:biblio
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revision | |||
archive:dlcp:biblio [05/07/2024 19:03] – removed - external edit (Unknown date) 127.0.0.1 | archive:dlcp:biblio [05/07/2024 19:03] (current) – ↷ Page moved from grants:archive:dlcp:biblio to archive:dlcp:biblio admin | ||
---|---|---|---|
Line 1: | Line 1: | ||
+ | ====== Bibliography ====== | ||
+ | |||
+ | ===== Обзоры ===== | ||
+ | |||
+ | * Asifullah Khan, Anabia Sohail, Umme Zahoora & Aqsa Saeed Qureshi, [[https:// | ||
+ | ===== Учет симметрий входных данных при глубоком обучении (Equivariant Networks) ===== | ||
+ | |||
+ | ==== Общий подход ==== | ||
+ | * R. Kondor, et al. “On the generalization of equivariance and convolution in neural networks to the action of compact groups. 2018; arXiv: 1802.03690 | ||
+ | * R. Kondor, et al. “Clebsch–Gordan nets: a fully Fourier space spherical convolutional neural network. 2018; arXiv: 1806.09231 | ||
+ | * Taco S. Cohen, Mario Geiger, Jonas Köhler, and Max Welling. “Spherical CNNs”. In: International Conference on Learning Representations. 2018.; arXiv: | ||
+ | * Taco S. Cohen and Max Welling. “Steerable CNNs”. In: 5th International Conference on Learning Representations, | ||
+ | * Taco S Cohen, Mario Geiger, and Maurice Weiler. “A general theory of equivariant CNNs on homogeneous spaces”. In: Advances in Neural Information Processing Systems. 2019, pp. 9142–9153; | ||
+ | * Taco Cohen, Maurice Weiler, Berkay Kicanaoglu, and Max Welling. “Gauge Equivariant Convolutional Networks and the Icosahedral CNN”. In: Proceedings of the 36th International Conference on Machine Learning, ICML 2019. 2019; arXiv: | ||
+ | * Taco Cohen and Max Welling. “Group equivariant convolutional networks”. In: International conference on machine learning. 2016, pp. 2990–2999; | ||
+ | * S. Ravanbakhsh, | ||
+ | * D.L.Bergman, | ||
+ | |||
+ | ==== Дискретные группы ==== | ||
+ | * S. Ravanbakhsh et al. " | ||
+ | |||
+ | ==== Data Augmentation ==== | ||
+ | * S.Chen et al., "A Group-Theoretic Framework for Data Augmentation", | ||
+ | |||
+ | ==== Обзоры ==== | ||
+ | * C.Esteves " | ||
+ | * L.D.Libera, "Deep Learning for 2D and 3D Rotatable Data: An Overview of Methods", | ||
+ | * L. von Rueden et al., " | ||
+ | |||
+ | ======Методы глубокого обучения для работы с несбалансированными данными===== | ||
+ | |||
+ | ==== Обзор ==== | ||
+ | |||
+ | * [[https:// | ||
+ | |||
+ | === Аннотация === | ||
+ | |||
+ | Целью обзора является анализ существующих методов глубокого обучения для работы с несбалансированными данными. Несбалансированность понимается в смысле существенного различия числа объектов, | ||
+ | |||
+ | Дисбаланс классов тщательно изучался в течение последних двух десятилетий с использованием традиционных моделей машинного обучения, | ||
+ | |||
+ | Существующие работы, | ||
+ | |||
+ | Рассмотренные методы подразделяются на | ||
+ | * методы предварительной подготовки данных (Data-level methods), в частности | ||
+ | * random under-sampling (RUS), random over-sampling (ROS), dynamic sampling, two-phase learning; | ||
+ | * совершенствование алгоритмов обучения (Algorithm-level methods), в частности | ||
+ | * mean false error loss, focal loss, cost-sensitive deep neural network, very deep neural networks; | ||
+ | * методы, | ||
+ | * large margin local embedding, deep over-sampling. | ||
+ | |||
+ | Несколько традиционных методов обработки данных с дисбалансом классов, | ||