Bias und Fairness: Wie beeinflussen Stereotype generative KI? : DDLitLab- Generative KI an der Universität Hamburg

Link:
  • https://lecture2go.uni-hamburg.de/l2go/-/get/v/69193
Autor/in:
Beteiligte Personen:
  • Regionales Rechenzentrum der Universität Hamburg/ MCC/ Lecture2Go
  • DDLitLab
Verlag/Körperschaft:
Universität Hamburg
Erscheinungsjahr:
2024
Medientyp:
Audiovisuell
Schlagwort:
  • Zentrum für interdisziplinäre Studienangebote
Beschreibung:
  • Gibt es Stereotype auch in Chatbots wie ChatGPT? Woran kann ich merken, dass generierter Content biased ist? Dieses Interview ist Teil einer Gesprächsreihe mit Expert:innen der Universität Hamburg im Bereich generativer KI. In dieser Reihe beleuchten wir das Thema generative KI aus unterschiedlichen Forschungsperspektiven und Arbeitsbereichen. Produziert vom Team DUTy im DDLitLab, 2024. uhh.de/ddlitlab
Beziehungen:
URL https://lecture2go.uni-hamburg.de/l2go/-/get/l/7486
Lizenz:
  • UHH-L2G
Quellsystem:
Lecture2Go UHH

Interne Metadaten
Quelldatensatz
oai:lecture2go.uni-hamburg.de:69193