Wie Künstliche Intelligenz vertrauenswürdig wird
Bis vor wenigen Jahren hatte die Verwendung von KI-Algorithmen immer etwas von einer «black box»: Mit Daten gefüttert, spuckten sie Ergebnisse aus, die sich aber nur schwer nachvollziehen und überprüfen liessen. Forschende des ETH AI Center entwickeln deshalb Methoden, mit denen Künstliche Intelligenz nachvollziehbar, überprüfbar und damit vertrauenswürdig wird.
Im März 2023 warnten Geoffrey Hinton und Yuval Noah Harari zusammen mit vielen anderen Wissenschaftlern: Künstliche Intelligenz könnte das Ende der Menschheit einläuten. Man müsse die Weiterentwicklung von sogenannten grossen Sprachmodellen für mindestens sechs Monate pausieren, forderten sie.
Grosse Sprachmodelle, das sind jene KI-Modelle, die mit Unmengen von Text gefüttert werden und daraus die Fähigkeit erlernen, Texte zu erstellen, die sich nur schwer von solchen unterscheiden lassen, die von Menschen verfasst wurden. Zu den grossen Sprachmodellen gehört auch ChatGPT. Ist KI wirklich so gefährlich? Wo lauern denn die Gefahren, die mit der Nutzung von KI einhergehen?
Kommen Sie zu uns an den Stand und erfahren Sie, was wir am ETH AI Center unter vertrauenswürdiger KI verstehen.
Ausserdem haben Sie Gelegenheit, KI im Einsatz zu erleben: In einem Spiel, das an den «Lunar Lander» aus der Arcade-Zeit erinnert, landen Sie eine Drohne zuerst ohne, dann mit KI-Unterstützung, und erfahren dabei, wie Mensch und Maschine zusammen bessere Ergebnisse erzielen als jeweils allein.