Dataset Bias: “Welche Vorurteile stecken in unseren KI-Bildern?”| AI EXPLAINED

Shownotes

Schon länger ist bekannt, dass im Kontext von KI-Diensten in den zugrundeliegenden und ergo dann auch den ausgegebenen Daten viele menschliche Vorurteile stecken. Mit ChatGPT oder Midjourney kann nun jede*r von uns selbst sehen, wie sehr die Ergebnisse von den problematischen Seiten unserer menschlichen Sicht auf die Welt geprägt sein können. Was lassen sich für Muster erkennen? Wie verhalten sich Systeme in unterschiedlichen Kontexten? Was sollten wir für Schlüsse daraus ziehen? Darüber sprechen wir mit Lais Al-Khalaf, der in seinem „The Critical (Art)book“ die bildgenerierende KI „Midjourney“ in diesem Kontext genau unter die Lupe genommen hat.

Show Notes & Kapitelmarken: 02:24 | AI-Updates der Woche

  • Umfangreiche KI-Tools für Unternehmen und Werbetreibende auf TikTok
  • Kreativer und augenzwinkernder Ansatz gegen KI-Inhalte-Scraper 04:34 | Spotlight-Gespräch 18:03 | Prompt Tipp der Woche
  • Weak Signals – New Narratives in Art and Technology

Links & Quellen:

Kontakt: Gast: Lais Al-Khalaf | LinkedIn Moderation: André Cramer | LinkedIn Anregungen & Feedback: podcast@telekom.de