A1 - Neural Attention and Transformer Architecture : Statistical Methods of Language Technology

Link:
  • https://lecture2go.uni-hamburg.de/l2go/-/get/v/69087
Autor/in:
Beteiligte Person:
  • Regionales Rechenzentrum der Universität Hamburg/ MCC/ Lecture2Go
Verlag/Körperschaft:
Universität Hamburg
Erscheinungsjahr:
2021
Medientyp:
Audiovisuell
Schlagworte:
  • transformer
  • attention
  • language technology
  • LLM
  • Informatik
Beschreibung:
  • Please note that the correct license of this recording is CC-0
Beziehungen:
URL https://lecture2go.uni-hamburg.de/l2go/-/get/l/5115
Lizenz:
  • CC0-1.0
Quellsystem:
Lecture2Go UHH

Interne Metadaten
Quelldatensatz
oai:lecture2go.uni-hamburg.de:69087