archive:dlcp:biblio
Differences
This shows you the differences between two versions of the page.
| Both sides previous revisionPrevious revision | |||
| archive:dlcp:biblio [05/07/2024 19:03] – removed - external edit (Unknown date) 127.0.0.1 | archive:dlcp:biblio [05/07/2024 19:03] (current) – ↷ Page moved from grants:archive:dlcp:biblio to archive:dlcp:biblio admin | ||
|---|---|---|---|
| Line 1: | Line 1: | ||
| + | ====== Bibliography ====== | ||
| + | |||
| + | ===== Обзоры ===== | ||
| + | |||
| + | * Asifullah Khan, Anabia Sohail, Umme Zahoora & Aqsa Saeed Qureshi, [[https:// | ||
| + | ===== Учет симметрий входных данных при глубоком обучении (Equivariant Networks) ===== | ||
| + | |||
| + | ==== Общий подход ==== | ||
| + | * R. Kondor, et al. “On the generalization of equivariance and convolution in neural networks to the action of compact groups. 2018; arXiv: 1802.03690 | ||
| + | * R. Kondor, et al. “Clebsch–Gordan nets: a fully Fourier space spherical convolutional neural network. 2018; arXiv: 1806.09231 | ||
| + | * Taco S. Cohen, Mario Geiger, Jonas Köhler, and Max Welling. “Spherical CNNs”. In: International Conference on Learning Representations. 2018.; arXiv: | ||
| + | * Taco S. Cohen and Max Welling. “Steerable CNNs”. In: 5th International Conference on Learning Representations, | ||
| + | * Taco S Cohen, Mario Geiger, and Maurice Weiler. “A general theory of equivariant CNNs on homogeneous spaces”. In: Advances in Neural Information Processing Systems. 2019, pp. 9142–9153; | ||
| + | * Taco Cohen, Maurice Weiler, Berkay Kicanaoglu, and Max Welling. “Gauge Equivariant Convolutional Networks and the Icosahedral CNN”. In: Proceedings of the 36th International Conference on Machine Learning, ICML 2019. 2019; arXiv: | ||
| + | * Taco Cohen and Max Welling. “Group equivariant convolutional networks”. In: International conference on machine learning. 2016, pp. 2990–2999; | ||
| + | * S. Ravanbakhsh, | ||
| + | * D.L.Bergman, | ||
| + | |||
| + | ==== Дискретные группы ==== | ||
| + | * S. Ravanbakhsh et al. " | ||
| + | |||
| + | ==== Data Augmentation ==== | ||
| + | * S.Chen et al., "A Group-Theoretic Framework for Data Augmentation", | ||
| + | |||
| + | ==== Обзоры ==== | ||
| + | * C.Esteves " | ||
| + | * L.D.Libera, "Deep Learning for 2D and 3D Rotatable Data: An Overview of Methods", | ||
| + | * L. von Rueden et al., " | ||
| + | |||
| + | ======Методы глубокого обучения для работы с несбалансированными данными===== | ||
| + | |||
| + | ==== Обзор ==== | ||
| + | |||
| + | * [[https:// | ||
| + | |||
| + | === Аннотация === | ||
| + | |||
| + | Целью обзора является анализ существующих методов глубокого обучения для работы с несбалансированными данными. Несбалансированность понимается в смысле существенного различия числа объектов, | ||
| + | |||
| + | Дисбаланс классов тщательно изучался в течение последних двух десятилетий с использованием традиционных моделей машинного обучения, | ||
| + | |||
| + | Существующие работы, | ||
| + | |||
| + | Рассмотренные методы подразделяются на | ||
| + | * методы предварительной подготовки данных (Data-level methods), в частности | ||
| + | * random under-sampling (RUS), random over-sampling (ROS), dynamic sampling, two-phase learning; | ||
| + | * совершенствование алгоритмов обучения (Algorithm-level methods), в частности | ||
| + | * mean false error loss, focal loss, cost-sensitive deep neural network, very deep neural networks; | ||
| + | * методы, | ||
| + | * large margin local embedding, deep over-sampling. | ||
| + | |||
| + | Несколько традиционных методов обработки данных с дисбалансом классов, | ||
