User Tools

Site Tools


dlcp2025:restricted:programme

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
dlcp2025:restricted:programme [04/06/2025 18:01] – [Section 1. Machine Learning in Fundamental Physics] admindlcp2025:restricted:programme [06/06/2025 18:19] (current) – [39. ML-Based Optimum Sub-system Size Heuristic for the GPU Implementation of the Tridiagonal Partition Method] admin
Line 1: Line 1:
-====== Программа ======+====== Program ======
 //01.05.2025// //01.05.2025//
  
-**Внимание!** В данный список включены заявленные доклады, включенные в программу конференции.+**Attention!** This list includes the announced papers included in the conference program.
  
-//Если кто-то не нашел себя в спискепросьба сообщить по почте [[dlcp@sinp.msu.ru]]//+//If someone did not find themselves in the listplease inform us by email [[dlcp@sinp.msu.ru]]//
  
 ===== Section 1. Machine Learning in Fundamental Physics ===== ===== Section 1. Machine Learning in Fundamental Physics =====
  
-==== Реконструкция энергии космических лучей ультравысоких энергий, зарегистрированных флуоресцентным телескопом: одного такта времени может быть достаточно ====+==== 36. Реконструкция энергии космических лучей ультравысоких энергий, зарегистрированных флуоресцентным телескопом: одного такта времени может быть достаточно ====
  
  
Line 14: Line 14:
  
 Мы рассматриваем задачу реконструкции энергии космических лучей (КЛ) ультравысоких энергий по данным флуоресцентного телескопа EUSO-TA. Данные были собраны в 2015 г. на сайте эксперимента Telescope Array (ТА). EUSO-TA -- это небольшой телескоп-рефрактор с диаметром линз 1 м, полем зрения 10х10 градусов и временным разрешением 2.5 мкс, созданный для наземных тестов аппаратуры, создаваемой в рамках научной программы коллаборации JEM-EUSO. Основные трудности реконструкции энергии возникают вследствие маленького поля зрения (в 30 раз меньше, чем у флуоресцентных телескопов ТА) и низкого временного разрешения (в 25 раз ниже, чем у ТА). Это приводит к тому, что EUSO-TA способен регистрировать лишь часть треков широких атмосферных ливней, и весь сигнал оказывается, как правило, записан в течение всего одного такта времени. Мы покажем, что ансамбль свёрточных нейронных сетей позволяет даже в таких условиях оценить энергию первичных КЛ с приемлемой точностью.  Мы рассматриваем задачу реконструкции энергии космических лучей (КЛ) ультравысоких энергий по данным флуоресцентного телескопа EUSO-TA. Данные были собраны в 2015 г. на сайте эксперимента Telescope Array (ТА). EUSO-TA -- это небольшой телескоп-рефрактор с диаметром линз 1 м, полем зрения 10х10 градусов и временным разрешением 2.5 мкс, созданный для наземных тестов аппаратуры, создаваемой в рамках научной программы коллаборации JEM-EUSO. Основные трудности реконструкции энергии возникают вследствие маленького поля зрения (в 30 раз меньше, чем у флуоресцентных телескопов ТА) и низкого временного разрешения (в 25 раз ниже, чем у ТА). Это приводит к тому, что EUSO-TA способен регистрировать лишь часть треков широких атмосферных ливней, и весь сигнал оказывается, как правило, записан в течение всего одного такта времени. Мы покажем, что ансамбль свёрточных нейронных сетей позволяет даже в таких условиях оценить энергию первичных КЛ с приемлемой точностью. 
- 
----- 
- 
-Reconstruction of Energy of Ultra-High-Energy Cosmic Rays Registered with a Fluorescence Telescope: One Time Frame Might Be Enough 
- 
-We address the challenge of reconstructing the energy of ultra-high-energy cosmic rays using data from the EUSO-TA fluorescence telescope. The data were collected in 2015 at the Telescope Array experiment site. EUSO-TA is a small refractor telescope featuring a 1 m diameter lens, a 10° × 10° field of view, and a time resolution of 2.5 μs. It was developed as an instrument for ground tests and measurements in the frame of the scientific program of the JEM-EUSO collaboration. The main difficulty in energy reconstruction arises from the telescope’s limited field of view and low time resolution, which result in recording only a portion of the extensive air shower track, often within a single time frame. We demonstrate that an ensemble of convolutional neural networks can estimate the primary cosmic ray energy with reasonable accuracy despite these constraints.  
  
 ===== Section 2. Machine Learning for Environmental Sciences ===== ===== Section 2. Machine Learning for Environmental Sciences =====
Line 36: Line 30:
 ===== Section 3. Machine Learning in Natural Sciences ===== ===== Section 3. Machine Learning in Natural Sciences =====
  
-**11Вострикова С.А.**Московский физико-технический институтВосстановление приповерхностной влажности атмосферы над океаном с применением методов машинного обучения.  + 
-++++ Аннотация| +==== 37Neutron spectrum unfolding with deep learning models for tabular data ==== 
-Влажность воздуха в приповерхностном слое атмосферы над океаном является ключевым климатическим параметромвлияющим на процессы переноса влаги и тепла между океаном и атмосферойа также на динамику атмосферных процессов в целомАнализ метеорологических данныхсобранных в течение XX векапоказывает разреженность рядов измерений влажности в пространстве и времениМеждународный массив данных о характеристиках океана и атмосферы (ICOADSуказывает на недостаточную плотность измерений в начале XX века по сравнению с более поздними периодамичто создает сложности для адекватного анализа климатических тенденций относительной влажностиПредставленные в литературе методы восстановления временных рядов влажности зачастую демонстрируют ограниченную точностьосновываясь преимущественно на статистических и эвристических подходахНаша работа направлена на повышение качества решения этой задачи за счёт применения методов машинного обученияВ настоящей работе решена задача в формулировке аппроксимации моментальных значений относительной влажности по данным сопутствующих измерений атмосферного давлениятемпературы воздухаскорости и направления ветратемпературы поверхности океанаа также наблюдений количества и типов облачности на трёх ярусахКроме этогов составе сопутствующих переменных используется код погоды по стандарту ВМО и расчетная высота солнцаВ исследовании использованы модели машинного обучения следующих типовлинейная регрессияслучайный лесградиентный бустинг (CatBoostи полносвязная искусственная нейронная сетьДля повышения территориальной и временной специфичности разрабатываемых моделей мы провели исследование для каждой ячейки размером градусов по широте и долготе и каждого сезона по отдельностиНа основе полученных результатов были построены карты пространственного распределения ошибок моделейкоторые позволили выявить регионы с высокой и низкой точностью аппроксимации влажностиИсследование подтвердило эффективность методов машинного обучения для восстановления климатических рядовопределило наиболее подходящие модели для этой задачи и обозначило перспективные направления для дальнейшей работы.  + 
-+++++//Chizhov Konstantin Alekseevich (1,2), Bely Artyom Alekseevich (2) \\ (1) Joint Institute for Nuclear Research, Laboratory of Information Technologies named afterM.G. Meshcheryakov(2) University "Dubna"// 
 + 
 +Estimation of the effective dose and unfolding the spectrum of neutron radiation at nuclear power facilities and charged particle accelerators is complicated by the lack of direct methods for detecting neutrons and the need to register secondary particles. The main difficulties are related to the wide energy range of neutrons from 1 meV to several hundred MeV, complex dependence of the neutron interaction cross section on energy. One of the main devices used for neutron spectrometry is the Bonner multi-sphere spectrometer (BSS)The measurement results and the desired spectrum, discretized on the energy grid (or decomposed into basis functions) are tabular data. However, due to the limited set of moderator spheres and correlations in its response functions, the number of input features is limited. In this paper, it is proposed to transform the original scalar continuous features into vectors. And then unfold the spectra for the transformed features using deep learning models included in the Mambular framework: a sequential model from Mamba architecture blocks based on autoregressive state-space models; a model using transform encoders (FT-Transformer), a multilayer perceptron (MLP) model, and batch ensembling for MLP (TabM). The results are compared with the spectra unfolded using the automated machine learning (AutoML) framework implementing an ensemble of linear and decision-tree based (LightGBM, CatBoost, and Random Forest) regression models. For training and validation of the models, a set of 5×10⁵ synthetic spectra was generated, modeled as a superposition of four weighted components describing the spectra of thermal, epithermal, fast, and high-energy neutrons. A comparison was made with calculated and measured spectra from the IAEA compendium database, 251 spectra. The uncertainty of the spectra unfolding was estimated using the Monte Carlo method, in which random perturbations were introduced into the input data. The model was trained on the JINR Multifunctional Information and Computing Complex.  
 + 
 +The research was carried out within the framework of the state assignment of the Ministry of Science and Higher Education of the Russian Federation (topic No. 124112200072-2). 
 + 
 +==== 39. ML-Based Optimum Sub-system Size Heuristic for the GPU Implementation of the Tridiagonal Partition Method ==== 
 + 
 +//Milena Veneva (1) \\ (1) RIKEN Center for Computational ScienceR-CCS7-1-26 Minatojima-minami-machi, Chuo-ku, Kobe, Hyogo 650-0047, Japan// 
 + 
 +The parallel partition algorithm for solving systems of linear algebraic equations (SLAEs) suggested in [1] is an efficient numerical technique for solving SLAEs with tridiagonal coefficient matrices which consists of three stagesIt works by splitting the original matrix into smaller sub-matrices and solving these smaller SLAEs in parallel. Originally designed for use with a large number of processorsthis algorithm was implemented using MPI (Message Passing Interface) technology in [1]. The development of HPC applications typically consists of two key phases: writing code that functions correctly and then optimizing that code to enhance performance. The nature of the parallel partition method is such that the initial SLAE with N unknowns is partitioned into a number of sub-systems with m unknowns each. The size of the SLAE N that the user solves is usually determined by the size of the problem they need to solvewhile the size of the sub-system within the parallel partition method m is a parameter that needs to be tunedWe present one of the optimizations made to our CUDA [2] implementation, namely building a heuristic for finding the optimum sub-system size by using tools frequently used in modern AI-focused approaches. Computational experiments for different SLAE sizes are conducted, and the optimum sub-system size for each of them is found empirically. To estimate a model for the sub-system size, we perform the k-nearest neighbors (kNNclassification method [3]. Statistical analysis of the results is done. By comparing the predicted values with the actual datathe algorithm is deemed to be acceptably goodNextthe heuristic is expanded to work for the recursive parallel partition algorithm as wellAn algorithm for determining the optimum sub-system size for each recursive step is formulatedA kNN model for predicting the optimum number of recursive steps for any SLAE size is built.  
 + 
 +[1] AustinT.~M.and BerndtM.and Moulton, J.~D., A Memory Efficient Parallel Tridiagonal Solver, Preprint LA-VR-03-4149, 13 p(2004). \\  
 +[2] NVIDIA, NVIDIA CUDA C++ Programming Guide. https://docs.nvidia.com/cuda/cuda-c-programming-guide/ (2025). \\  
 +[3] FixH.and Joseph, L., Discriminatory Analysis. Nonparametric Discrimination: Consistency Properties, International Statistical Review/Revue Internationale de Statistique, 57 (3pp. 238--47, doi: 10.2307/1403797 (1989). 
 + 
 +==== 44. Natural Image Classification via Quasi-Cyclic Graph Ensembles and Random-Bond Ising Models with Enhanced Nishimori Temperature Estimation ==== 
 + 
 +//V.S.Usatyuk (1,2), D.A.Sapoznikov (1), S.I.Egorov(2) \\ (1) T8 LLC, Moscow, Russia, (2) SWSU University, Kursk, Russia// 
 + 
 +Recent advances have demonstrated the effectiveness of spectral clustering on the beta-Hessian of Graham matrices constructed from quasi-cyclic graphs in the context of Random-Bond Ising Models (RBIMs). Notably, at paper [1] showed that combining LDPC-inspired graph with VGG16-extracted features from GAN-generated two-class images (e.g., dog vs. cat) significantly outperformed Erdős–Rényi baselines in clustering accuracy, improving overlap from 73.21% to 90.60%—and up to 93.23% when using cosine similarity [2]. In this paper, we extend these insights to natural multi-class datasets, specifically ImageNet-10 and ImageNet-100. We introduce a refined approach to estimating the Nishimori temperature and propose a mixture-of-graphs model built from an ensemble of optimized RBIMs. These models leverage diverse quasi-cyclic graph families—including Spherical graphs and Multi-Edge Type LDPC graphs—to create sparse, expressive interaction structures. Feature embeddings are extracted from a lightweight MobileNetV2-based CNN, compressing 1280-dimensional activations to 32–64 feature maps per image. Using ensembles of 3 to 9 graph models, our approach achieves classification accuracies of up to 98.7% on ImageNet-10 and 82.5% on ImageNet-100 under optimal conditions with 32-dimensional embeddingsWe demonstrate that significant parameter reduction in the MLP classification head (from 1280 to 32) improves both computational efficiency and robustness to feature puncturing. Furthermorethis graph-based framework shows promise for enhancing the representation power of knowledge graphs and feed-forward layers in transformer architecturesThese results highlight the scalability of quasi-cyclic RBIM spectral embeddings from binary-class GAN-generated images to complexreal-world, multi-class image datasets. Our findings suggest that structural graph design—particularly girth, spectral gap, and ensemble diversity—plays a crucial role in optimizing spectral separability for high-dimensional natural image classification tasks.  
 + 
 +[1] Usatyuk, V.S., Sapozhnikov, D.A., & Egorov, S.I. (2024). Enhanced Image Clustering with Random-Bond Ising Models Using LDPC Graph Representations and Nishimori Temperature. Moscow Univ. Phys., 79(Suppl 2), S647–S665. \\  
 +[2] Dall'Amico, L. et al. (2021). Nishimori meets Bethe: A Spectral Method for Node Classification in Sparse Weighted Graphs. J. Stat. Mech., 093405.
  
dlcp2025/restricted/programme.1749060065.txt.gz · Last modified: by admin