Aplicación a Física de Partículas de métodos de clasificación multidimensionales en presencia de errores sistemáticos
Application of multidimensional classification techniques to Particle Physics in the presence of systematic errors
Ver/ Abrir
Identificadores
URI: http://hdl.handle.net/10902/20598Registro completo
Mostrar el registro completo DCAutoría
Crespo Ruiz, Luis
Fecha
2020-06Derechos
Atribución-NoComercial-SinDerivadas 3.0 España
Palabras clave
Aprendizaje automático
Redes neuronales
Materia oscura
Regresión
Data augmentation
Machine learning
Neural networks
Dark matter
Regression
Resumen/Abstract
RESUMEN: En este trabajo se ha estudiado el manejo de herramientas de aprendizaje automático, analizando aspectos como su optimización o el efecto de los errores sistemáticos. Se han utilizado dos paquetes: RSNNS, dentro del programa R, y TMVA, dentro de ROOT.
Utilizando la herramienta TMVA, se han aplicado diversas técnicas de aprendizaje automático a un problema real de clasificación de sucesos en física de partículas: la búsqueda de partículas de materia oscura producidas en el LHC, donde buscamos separar esta señal de un fondo de colisiones ttbar varios órdenes de magnitud mayor y con una señal experimental muy similar. En este contexto se han usado y comparado varios métodos: redes neuronales, árboles de decisión, SVM, discriminante lineal, discriminante de Fisher y cortes rectangulares.
Se ha propuesto una forma novedosa de estimar cantidades físicas, en este caso la masa de una partícula de materia oscura que escapa del detector, a partir de cantidades medidas relacionadas indirectamente con ellas, por medio de regresión con redes neuronales. Se ha comprobado que sí son capaces de dar un resultado orientativo.
Se han estudiado los efectos de precisión limitada de las variables en los distintos algoritmos. El efecto, como se esperaba, es el de disminuir el rendimiento de la clasificación, especialmente si el entrenamiento se hace con una muestra ideal. Se ha estudiado también el efecto de posibles errores sistemáticos, interpretados como un sesgo en los datos, y se propone un nuevo método basado en data augmentation para paliar este efecto, consistente en incluir datos degradados en el entrenamiento. Se consigue la máxima reducción del deterioro si la magnitud de esta degradación es del mismo orden que el error sistemático.
ABSTRACT: In this project machine learning tools have been studied, analyzing aspects like optimization or the effect of systematic errors. Two packages have been used: RSNNS, for the R language, and TMVA, for the ROOT program.
Using the TMVA tool, we have applied several machine learning techniques to a real problem in event classification in particle physics: the search for dark matter particles produced in LHC, where we attempt to separate this signal from a ttbar collisions background several orders of magnitude greater and with very similar experimental signal. In this context we have used and compared several methods: neural networks, decision trees, SVM, linear discriminant, Fisher discriminant and rectangular cuts.
We have proposed a new form of estimating physical quantities, in this case the mass of a dark matter particle which cannot be detected, from measured quantities indirectly related to them, using regression with neural networks. We have proved that they can give an approximate result.
The effects of limited precision of variables in the different algorithms are studied. As it was expected, the main effect is to reduce the classification efficiency, especially if the methods are trained with ideal samples. We also study the effect of possible systematic errors, interpreting them as a bias in data, and propose a new method based in data augmentation to cut down this decay, which consists in including degraded data in the training sample. The best reduction in the decay is achieved if this degradation has the same magnitude as the systematic error.