Gefängnisausbruch: Wie schützen wir KI vor Jailbreaking? | AI EXPLAINED

Shownotes

Bei der Telekom schreiben wir Verantwortung in Sachen KI groß: Stichwort #humancenteredtechnology. Bereits 2018 haben wir KI-Leitlinien aufgestellt, die für unseren internen und externen Umgang mit KI richtungsweisend sind. Bestimmte Eingaben führen jedoch dazu, dass Chatbots Sicherheitsfilter umgehen - das sogenannte Jailbreaking. Die „Befreiung“ der KI aus dem „Gefängnis“ ihrer eigenen Regeln (englisch: Jail). Und es stellt eine Herausforderung für den verantwortungsvollen Umgang mit KI dar. Wie kann man sicherstellen, dass KI sicher ist, vor Einflüssen von außen? Welche Trainings schließen Sicherheitslücken? Und welche Rolle spielt dabei die Wissenschaft? Darüber spricht Leonard Dahmen mit Sarah Ball, Doktorandin an der Ludwig-Maximilians-Universität Münche im Bereich KI-Sicherheit.

Show Notes & Kapitelmarken: 

00:40 AI-Updates der Woche:

Meta präsentiert Llama 3

Wie eine KI App in der Psychotherapie helfen kann

03:33 | Wie schützen wir KI vor Jailbreaking

19:02 | Tipp der Woche

Fragt die Zeit

Kontakt:

Gästin: Sarah Ball | LinkedIn

Moderation: Leonard Dahmen | LinkedIn

Anregungen & Feedback: podcast@telekom.de