Gefängnisausbruch: Wie schützen wir KI vor Jailbreaking? | AI EXPLAINED
Shownotes
Bei der Telekom schreiben wir Verantwortung in Sachen KI groß: Stichwort #humancenteredtechnology. Bereits 2018 haben wir KI-Leitlinien aufgestellt, die für unseren internen und externen Umgang mit KI richtungsweisend sind. Bestimmte Eingaben führen jedoch dazu, dass Chatbots Sicherheitsfilter umgehen - das sogenannte Jailbreaking. Die „Befreiung“ der KI aus dem „Gefängnis“ ihrer eigenen Regeln (englisch: Jail). Und es stellt eine Herausforderung für den verantwortungsvollen Umgang mit KI dar. Wie kann man sicherstellen, dass KI sicher ist, vor Einflüssen von außen? Welche Trainings schließen Sicherheitslücken? Und welche Rolle spielt dabei die Wissenschaft? Darüber spricht Leonard Dahmen mit Sarah Ball, Doktorandin an der Ludwig-Maximilians-Universität Münche im Bereich KI-Sicherheit.
Show Notes & Kapitelmarken:
00:40 AI-Updates der Woche:
Wie eine KI App in der Psychotherapie helfen kann
03:33 | Wie schützen wir KI vor Jailbreaking
19:02 | Tipp der Woche
Kontakt:
Gästin: Sarah Ball | LinkedIn
Moderation: Leonard Dahmen | LinkedIn
Anregungen & Feedback: podcast@telekom.de