Searches for new heavy bosons and vector-like quarks with the CMS experiment at √s = 13 TeV and novel pileup mitigation techniques

Link:
Autor/in:
Erscheinungsjahr:
2020
Medientyp:
Text
Beschreibung:
  • In this thesis two searches for new physics are presented, involving a heavy resonance Z′ and a vector-like quark T. Both new particles are predicted by theories beyond the standard model that address the smallness of the Higgs boson mass compared to the Planck scale. The searches are based on proton-proton collision data at a center of mass energy of 13 TeV recorded with the CMS experiment at the LHC. In the first analysis, a Z′ decaying to Tt is searched for in the lepton+jets final state for the first time. Data corresponding to an integrated luminosity of 35.9fb−1 are analyzed. The three T decay channels Ht, Zt, and Wb are taken into account. The analysis is performed in the highly Lorentz-boosted regime where substructure techniques are used to identify the heavy bosons. This search leads to the most strin- gent upper cross section limits on a Z′ → tT resonance to date. A heavy gluon can be excluded between a mass of 1.5 and 2.3 TeV if MT = 1.2 TeV, and between 2.0 and 2.5 TeV if MT = 1.5 TeV. The second analysis considers a singly produced vector-like T that decays into Ht in the lepton+jets final state. While vector-like Ts have been excluded up to a mass of 1.3TeV, additional decay channels can weaken this bound considerably. The analysis is designed to achieve sensitivity for resonances with masses down to 600GeV. The T is reconstructed using three jets originating from the fragmentation of b quarks, the lepton and missing transverse momentum. A resonant structure on a smoothly falling background is searched for. The analysis is carried out using data corresponding to 137.2fb−1. The signal region is still blinded, because the analysis is still undergoing the CMS internal review. But the expected sensitivity corresponds to a significance of five standard deviations for a possible signal with mass of 650GeV, visible in the all-hadronic final state. The analysis of proton-proton collision data is impaired by particles that originate from additional proton-proton interactions during the same bunch crossing (pileup). Pileup mitigation is important for analyses of data with high instantaneous luminosi- ties, which have been reached during Run 2 (2016-2018). Even higher levels of pileup are expected in future data acquisition periods. The performance of pileup mitigation techniques, including the novel pileup per particle identification (PUPPI) algorithm, is studied for up to 70 simultaneous collisions per bunch crossing. In addition, the validation in data and improvements of the PUPPI algorithm are shown. Following these studies, PUPPI has become the default pileup mitigation technique in CMS.
    In order to improve the data quality and sensitivity of the CMS experiment further, the CMS pixel detector was upgraded in 2016/2017 and a new powering system with DC-DC converters was installed. A failure of several DC-DC converters during the data taking in 2017 caused losses in the data quality. The systematic analysis of this failure presented here led to a change in the operation of the pixel detector in 2018, preventing losses due to broken DC-DC converters during data acquisition.
    This thesis presents significant advancements in the search for Z′ and T, pileup mitigation techniques ensuring future p p collision physics at the LHC and a failure analysis of the pixel powering system that led to successful acquisition of 80fb−1 in 2018.
  • In dieser Arbeit werden zunächst zwei Suchen nach einer schweren Resonanz Z′ und
    vektorartigen Quarks T mit dem CMS Experiment präsentiert. Die zwei neuen Teilchen
    werden von Theorien vorhergesagt, die das Standard Modell erweitern und sich mit der im Vergleich zur Planck-Skala niedrigen Masse des Higgs Bosons befassen. Die Suchen basieren auf Proton-Proton-Kollisionsdaten bei einer Schwerpunktsenergie von 13 TeV, die mit dem CMS Experiment am LHC aufgezeichnet wurden.
    In der ersten Analyse wird nach einem Z′ gesucht, welches in Tt zerfällt. Die Suche
    wird zum ersten Mal im Endzustand mit einem Lepton und Jets durchgeführt und
    analysiert Daten, die einer integrierten Luminosität von 35.9 fb−1 entsprechen. Dabei
    werden die drei Zerfallskanäle des Ts, Ht, Zt und Wb, berücksichtigt. Die schweren
    Bosonen in dieser Analyse werden mit Substrukturtechniken identifiziert, da diese einen hohen Loorentz-Boost haben. Das Ergebnis sind die niedrigsten bisher ermittelten oberen Grenzen auf den Produktionswirkungsquerschnitt einer Resonanz Z′ → tT. Ein schweres Gluon kann ausgeschlossen werden mit einer Masse zwischen 1.5 und 2.3 TeV, wenn MT = 1.2 TeV ist, und zwischen 2.0 und 2.5 TeV, wenn MT = 1.5 TeV ist.
    Die zweite Analyse betrachtet ein einzeln produziertes vektorartiges T, welches
    in Ht zerfällt. Der betrachtete Endzustand enthält ebenfalls ein Lepton und Jets.
    Vektorartige Ts sind bis zu einer Masse von 1.3 TeV ausgeschlossen. Dieses Massenlimit wird jedoch signifikant abgeschächt, falls es mehr als drei mögliche Zerfallskanäle geben sollte. Die Analyse wurde daraufhin optimiert Sensitivität bis zu einer Masse von 600 GeV zu erreichen und sucht nach einer resonanten Struktur auf einem monoton abfallenden Untergrund. Das T wird mithilfe von drei Jets aus der Fragmentierung der b Quarks, dem Lepton und fehlender transversaler Energie rekonstruiert. Insgesamt werden 137.2 fb−1 an Daten analysiert. Die Daten in der Signalregion werden noch nicht betrachtet, da sich diese Analyse noch im CMS internen Review befindet. Es wird aber gezeigt, dass die erwartete Sensitivität für ein mögliches Signal mit einer Masse von 650 GeV, welches im Endzustand mit Jets sichtbar ist, einer Signifikanz von fünf Standardabweichungen entspricht.
    Die Analyse von Proton-Proton Kollisionsdaten beeinträchtigt durch Teilchen, die
    bei zusätzlichen Proton-Proton Interaktionen während einer Strahlkreuzung passieren
    (Pileup). Die Verminderung des Effekts von Pileup ist besonders wichtig, wenn Daten
    bei hoher instantaner Luminosität analysiert werden, welche bereits während Run 2
    (2016-2018) erreicht wurden. Noch höhere Pileup-Szenarios werden für zukünftige
    Datennahmen erwartet. Es wird eine Studie mit allen in der CMS Kollaboration
    genutzten Techniken zur Minderung dieses Effekts präsentiert um die Performance
    für bis zu 70 gleichzeitige Kollisionen pro Strahlkreuzung zu vergleichen. Dies schließt
    auch eine Validierung des neuartigen pileup per particle identification (PUPPI) Algo-
    rithmus in Daten mit ein. Zusätzlich wird eine Verbesserung des PUPPI Algorithmus
    präsentiert, aufgrund welcher der Algorithmus von nun an der Standard in der CMS
    Kollaboration ist.
    Um die Datenqualität und die Sensitivität des CMS Experimentes zu verbessern
    wurde der CMS Pixeldetektor während des Jahreswechsel 2016/2017 erneuert und eine neue Stromversorgung mit Hilfe von DC-DC Konvertern eingebaut. Das Fehlverhalten vieler DC-DC Konverter während der Datennahme in 2017 führte zu einer verminderten Datenqualität. In dieser Arbeit wird eine systematische Analyse des Fehlverhaltens beschrieben, dessen Ergebnisse zu einem anderen Betriebsmodus in 2018 führten.
    Dadurch ist in 2018 kein DC-DC Konverter ausgefallen.
    Diese Arbeit präsentiert signifikante Fortschritte in der Suche nach Z′ und T, der
    Verminderung des Effektes von Pileup, welches zukünftige Physik mit p p Kollisionen
    am LHC sicherstellt und einer Fehleranalyse der Stromversorgung des Pixeldetektors,
    welche zu einer erfolgreichen Datenahme von 80 fb−1 in 2018 geführt hat.
Lizenz:
  • info:eu-repo/semantics/openAccess
Quellsystem:
Forschungsinformationssystem der UHH

Interne Metadaten
Quelldatensatz
oai:www.edit.fis.uni-hamburg.de:publications/83129f90-ebe9-4e0f-bad8-08b351468a6e