Veranstaltungskalender
Aus Versehen verzerrt - Wie erkennt man einen Bias in Machine Learning Modellen?
Ringvorlesung: Diversity and Fairness in Artificial Intelligence.
Künstlich intelligente Systeme sind aus unserem Alltag nicht mehr wegzudenken. Sie beeinflussen uns stärker, als es vielen Menschen bewusst ist. Neuartige Methoden des Maschinellen Lernens, insbesondere vielschichtige, künstliche neuronale Netze, haben in den letzten Jahren neuen Produktkategorien wie Sprachassistenten, selbstfahrenden Autos oder Chatbots zu erheblicher Verbreitung verholfen. Vielen Firmen, aber auch Endnutzern ist dabei nicht bewusst, dass diese Systeme nicht frei von Vorurteilen und anfällig gegenüber speziellen Manipulationsversuchen sind, man bezeichnet dies als Bias-Effekte. In meiner Vorlesung hinterfrage ich den Hype um Künstliche Intelligenz (KI) als Heilbringer einer digitalen und automatisierten Gesellschaft kritisch. Anhand aktueller Studien, relevanter Expertenaussagen und einem detaillierten Praxisbeispiel verdeutliche ich, dass neben der Leistungsfähigkeit künstlich intelligenter Systeme andere Qualitätsmerkmale wie die Robustheit gegenüber Diskriminierungstendenzen und ungewolltem Fehlverhalten eine wichtige Rolle einnehmen werden.
Referentin: Claudia Pohlink, Telekom Innovation Laboratories
Dieser Vortrag findet auf deutsch statt.
Weitere Informationen
StudIP-Veranstaltung 69003
Zutritt | öffentlich |
Anmeldung | nicht erforderlich |
Veranstaltende | Diversity und Gleichstellung, Vizepräsidentin Prof. Dr. Christina Hansen |
Veranstaltungs-Website | https://www.uni-passau.de/diversity-gleichstellung/diversity/ringvorlesungsreihe-diversity-gender-intersektionalitaet/ |
E-Mail (für Rückfragen) | rhiannon.moutafis@uni-passau.de |