Episodes

  • Macht uns Künstliche Intelligenz denkfaul, Daniel Bracker?
    Apr 14 2026

    Wer haftet, wenn eine KI Schaden anrichtet. Und wer bekommt die Lorbeeren, wenn die Systeme etwas Brillantes produzieren?


    In den USA wurden Meta und YouTube im März 2026 erstmals von einer Jury für das süchtig machende Design ihrer Plattformen haftbar gemacht. Ihr Schutzschild: der First Amendment und Section 230. Zumindest rechtlich ist damit ein Meilenstein gesetzt.


    Gleichzeitig hat Character.AI sich mit mehreren Familien außergerichtlich geeinigt, die dem Unternehmen vorwarfen, seine Chatbots hätten ihren minderjährigen Kindern schweren psychischen Schaden zugefügt – in mindestens zwei Fällen mit tödlichem Ausgang. Der Fall des 14-jährigen Sewell Setzer III aus Florida, der nach einer intensiven emotionalen Beziehung zu einem Chatbot Suizid beging, ging durch die Weltpresse.


    Was beide Fälle verbindet, ist eine philosophische Grundfrage: Wer ist Autor:in? Wer trägt (moralische) Verantwortung, wenn kein Mensch den konkreten Output intendiert hat? Und infwiefern helfen bzw. hindern uns KI-Systeme, überlegtere Urteile zu fällen? Darüber spreche ich mit dem Philosophen Daniel Bracker.

    Und darüber, ob KI-Systeme in der Zukunft so etwas wie Bewusstsein entwickeln können, was sich laut Daniel Bracker zum jetzigen Zeitpunkt nicht ausschließen lässt. Warum, erklärt er in der Folge!


    Daniel Falk Bracker ist Philosoph und Dozent an der Vrije Universiteit Amsterdam, wo er in der Theoretical Philosophy Group an Künstlicher Intelligenz, Epistemischer Autonomie und Bewusstsein forscht. Vor seiner akademischen Karriere arbeitete er mit Künstlicher Intelligenz beim Silicon-Valley-Konzern ORACLE. Er ist Mitglied der Society for the Philosophy of Artificial Intelligence und Forscher am Hybrid Intelligence Centre, einem internationalen Konsortium für die Interaktion von Mensch und KI, sowie Gastdozent an The New School: A University in New York City. Seine Arbeiten erscheinen in philosophischen Fachzeitschriften wie etwa Philosophy & Technology (Springer) sowie bei Routledge; zuletzt „Infringements of AI on Epistemic Autonomy“ (2026), über den schleichenden Verlust unserer Urteilskraft im Zeitalter der KI.

    Show More Show Less
    56 mins
  • Prof. Dr. Max Senges: Eine neue Erzählung der KI
    Oct 27 2025

    Was passiert, wenn jemand zehn Jahre bei Google arbeitet, dann eine Uni gründet, die ohne Professor:innen auskommt – und KI über die Grenzen wissenschaftlicher Disziplinen hinaus denkt. Genau: eine Philosofun-Folge mit Max Senges.

    Max hat bei Google miterlebt, wie KI-Strategien entstehen. Heute leitet er das Institute of Electronic Business an der UdK Berlin und sagt: Wir brauchen neue Narrative. Nicht nur über KI, sondern über Fortschritt, Verantwortung und das Menschliche überhaupt.

    Wir sprechen auch darüber, wie sich Geschichten verändern, wenn Drehbuchautor:innen künftig mit KI schreiben – und warum Narrative oft mehr Wahrheit formen als Fakten. Wir sprechen auch darüber, wie sich Arbeitsprozesse verändern werden und warum jeder im Grunde das Bedürfnis nach einem sinnvollen Job hat und Quit Quitting und Home Office Arbeitszeitbetrug nur Hilfrerufe in der Verengung der neoliberalen Erfolgserzählung darstellen.


    Hier ist das Paper, auf das wir uns in der Folge beziehen: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5501838

    Show More Show Less
    52 mins
  • Sind unsere Kinder okay, Prof. Dr. Sandra Niebuhr-Siebert? Pädagogik in Zeiten der Demokratie-, KI, und Klimakrise
    Oct 7 2025

    Unsere Jugend soll ja angeblich alles retten: das Klima, die Demokratie – und am besten gleich noch die Menschheit vor der KI. Aber wer erzieht eigentlich diejenigen, die ständig retten sollen? Und was heißt Erziehung, Bildung und Pädagogik überhaupt, wenn TikTok, ChatGPT, Rechtsruck und Klimakrise längst mit am Küchentisch sitzen?

    In dieser Folge spreche ich mit Prof. Dr. Sandra Niebuhr-Siebert über Verantwortung, Bildung und die Frage, wie Pädagogik Jugendlichen heute Orientierung geben kann – ohne sie zu überfordern.


    Wir reden darüber, was es heißt, in einer Welt erwachsen zu werden, die sich schneller verändert, als man sie verstehen kann. Und warum gute Pädagogik nicht darin besteht, Antworten zu liefern, sondern Räume zu öffnen – für Nachdenken, Zweifel und Mut zur Verantwortung.


    Sandra Niebuhr-Siebert ist promovierte Sprachheilpädagogin, Autorin und hat eine Professur für Erziehungswissenschaft mit dem Schwerpunkt Bildung und Erziehung im Kindesalter an der Humanistischen Hochschule Berlin inne, wo sie auch Prorektorin Forschung ist.

    Lehrerfahrung sammelte sie an den Universitäten Hannover, HU zu Berlin und Paderborn, praktische Berufserfahrung durch ihre zweijährige Tätigkeit als Sprachheilpädagogin in einer therapeutischen Praxis. Sie war Professorin für Sprachwissenschaft an der Clara Hoffbauer Fachhochschule und leitete den dortigen Studiengang Sprachpädagogik und Erzählende Künste in Sozialer Arbeit. Schwerpunkte ihrer Forschung und Lehre sind der Erwerb des Deutschen als Erst- und Zweitsprache sowie die Diagnostik und Intervention bei unauffälligem als auch gestörtem Verlauf dieser Lernprozesse.

    Show More Show Less
    47 mins
  • Gedanken-Code: Sind Gedanken durch KI bald nicht mehr frei – und manipulierbar, Janosch Delcker?
    Sep 2 2025

    Kann KI bald unsere Gedanken lesen – und vielleicht sogar beeinflussen?


    Wird das, was wir bisher als unser innerstes, privates Selbst verstanden haben, zum nächsten Rohstoff für Tech-Konzerne und Staaten? Und was bedeutet das für Freiheit, Demokratie und unser Verständnis vom Menschsein?


    Darüber spreche ich mit Janosch Delcker, Chief Technology Correspondent der Deutschen Welle, früher Politik-Redakteur bei Politico und mehrfach ausgezeichneter Journalist. Er ist einer der ersten Reporter weltweit, der sich systematisch mit KI und Neurotechnologien beschäftigt. Mit seinem neuen Buch Der Gedanken-Code (C.H. Beck, 2024) hat er eine der wichtigsten Reportagen zur Zukunft unserer geistigen Selbstbestimmung geschrieben.


    Wir diskutieren, wie Big Data, Gehirn-Decoder, Wearables und Brain-Computer-Interfaces zusammenwachsen. Wir sprechen über TikTok als „Gedankenleser light“, über Neuralinks Experimente im Labor, über militärische Forschung an Brain-to-Brain-Kommunikation – und über die Frage, ob unsere innersten Gedanken überhaupt noch privat bleiben können.


    Dabei geht es auch um die Chancen: In klinischen Studien wurden Patientinnen und Patienten mit therapieresistenter Depression durch implantierte Chips erfolgreich behandelt, deren Hirnaktivität in Echtzeit überwacht und gezielt stimuliert wird (Nature Medicine, 2021). Andere Studien zeigen, wie tiefe Hirnstimulation nicht nur bei Parkinson, sondern auch bei schweren Angststörungen und Zwangserkrankungen helfen kann. Hier zeigt sich, dass Neurotechnologie an der Grenze zwischen Heilung und Manipulation steht.


    Gibt es in Zukunft also überhaupt noch eine „innere Freiheit“ – oder nur noch Datenpunkte? Kann KI jemals wirklich denken – oder bleibt Denken untrennbar an menschliches Bewusstsein gebunden? Welche neuen Menschenrechte brauchen wir, um geistige Autonomie zu sichern?


    Janosch Delcker wird zudem bald auf der re:publica Hamburg sprechen – ein guter Anlass, schon hier mit ihm über die großen Fragen von KI, Freiheit und Gehirn zu diskutieren!

    Show More Show Less
    53 mins
  • Bits, Bias & Bildung – Prof. Dr. Alexander Schmölz, wie geht KI und Ethik zusammen?
    Aug 5 2025

    99 Prozent der Deutschen haben Internetzugang. Ist ja auch logisch, weil ohne Internet geht heutzutage eigentlich gar nichts mehr, wenn man in irgendeiner Form am sozialen, kulturellen, politschen oder kapitalistischem System teilhaben will.

    KI hingegen ist zwar noch relativ neu – zumindest im Vergleich mit dem Internet, aber bereits 66 % der Deutschen nutzen KI privat, beruflich oder im Studium bereits in irgendeiner Form. Viele nutzen KI – doch ein großer Teil von ihnen ohne solides Verständnis oder klare Regeln. Nur etwa ein Drittel fühlt sich überhaupt kompetent genug, KI richtig einzuschätzen.

    In dem Zusammenhang spricht man von einer digitalen Kluft. Das heißt: Wer redet mit, wenn es um KI geht – und wer bleibt draußen vor der digitalen Tür?

    In dieser Folge spreche ich mit Prof. Dr. Alexander Schmölz über die ethischen Bruchlinien und gesellschaftlichen Chancen der KI in der Bildung und der Gesellschaft. Es geht darum, dass bestimmte Personengruppen zum Beispiel ihre Kompetenz in KI selbst stark überschätzen und warum das zum Problem werden kann.

    Wir sprechen aber auch über Inklusion: Zum Beispiel darüber, wie Computerspiele als Bildungswerkzeuge genutzt werden können, um Menschen mit Behinderungen nicht nur mitzudenken, sondern mitgestalten zu lassen.

    Es geht um Kompetenzen, die mehr sind als technisches Know-how – es geht um Urteilskraft, Teilhabe und das Recht, digitale Zukunft mitzugestalten.

    Und es zeigt sich, dass Deutschland ein wenig hinterher hinkt und von seinem deutschsprachigen Nachbarn Österreich einiges lernen kann, wenn es um die ganzheitliche Vermittlung von digitalen Kompetenzmodellen geht.


    Unser heutiger Gast, Alexander Schmölz ist Professor für Digitalen Humanismus an der FH des BFI Wien – und einer der klügsten Köpfe, wenn es darum geht, wie wir Technologie so gestalten, dass sie nicht entmündigt, sondern befähigt.“

    Alexander Schmölz arbeitet seit vielen Jahren an der Schnittstelle von Bildung, Ethik und Digitalisierung. Er forscht zu digitalen Kompetenzen, zu Inklusion, zu politischer Bildung – und zu der Frage, wie wir digitale Räume gerecht und menschenwürdig gestalten können. Dabei bringt er Theorie und Praxis zusammen: Er hat das österreichische Kompetenzmodell „DigComp 2.3 AT“ mitentwickelt, er leitet Bildungsprojekte für Menschen mit Behinderung, und er denkt die digitale Transformation konsequent aus einer humanistischen Perspektive. Er spricht nicht über Technik um der Technik willen – sondern über digitale Mündigkeit, Teilhabe, Urteilskraft. Kurz: über das, was zählt, wenn der Mensch nicht vom Fortschritt überrollt, sondern ihn selbst gestalten will.


    Die in der Folge angesprochenen Events:

    Wir freuen uns, Sie am 11. Dezember 2025 zum Gründungskonvent der Humanistischen Akademie Österreich einladen zu dürfen: https://humanistische-akademie.at/

    Digital Humanism – Interdisciplinary Science and Research Conference, Vienna, November 20-21, 2025: https://caiml.org/dighum/dighum-res/

    Show More Show Less
    47 mins
  • Longevity – ist das Zeitalter des Alterns vorbei, Dr. Thomas Ramge?
    Jul 21 2025

    Je älter, desto besser. So lautet die Devise der Longevity-Jünger (das sind meistens schwerreiche Unternehmer (ja, da muss man nicht gendern) aus dem Silicon Valley). Bei Longevity geht es um – wenn jemand warum auch immer noch nicht davon gehört haben sollte – das gezielte, technikgestützte Streben nach gesunder und maximal verlängerter Lebenszeit. Es geht also nicht darum, möglichst alt zu werden und dabei zu leiden, sondern darum, Alterung als biologischen Prozess aufzuhalten, zu verlangsamen oder gar umzukehren.


    Philosophisch öffnet das Thema den Blick auf Fragen wie: Was ist ein gutes Leben – wenn es kein natürliches Ende mehr gibt? Wem nützt ein langes Leben – und wem schadet es? Und: Ist die Überwindung der Endlichkeit genuiner Fortschritt – oder menschliche Hybris?


    Natürlich gibt es auch – gar nicht mal so philoosphische – sondern ganz pragmatische fragen wie: Was macht das mit unserem Rentensystem? Was bedeutet das für unser Zinssystem? Wie altert die Psyche, wenn der Körper jung bleibt?


    Zu Gast bei Philosofun ist heute Dr. Thomas Ramge mit seinem neuen Buch "The End of Ageing. How Biotechnology Is Redefining Human Life And What It Means for Us"!

    Show More Show Less
    40 mins
  • Wie politisch darf Kunst sein, Yasmine Amal?
    Jul 7 2025

    Muss Kunst politisch sein? Welche Rolle haben Religion, Gesellschaft und Zeit für individuelle Möglichkeitsräume von Künstler:innen?


    In dieser Folge spreche ich mit Yasmine Amal – bildende Künstlerin, Politikwissenschaftlerin und Mediatorin und es geht um die ganz großen philosophischen und kunsttheoretischen Fragen. Es geht um Begriffe wie Afrofuturismus, Selbstwirksamkeit und Verantwortung jenseits neoliberaler Erfolsversprechen. Und die Frage, wie kollektivstisch Kunst sein muss, wie individuell sie sein darf.



    Show More Show Less
    51 mins
  • Demokratie – Was haben Taylor Swift, Mbappé & Black Mirror damit zu tun, Dr. Larissa Wallner?
    Jun 23 2025

    Demokratie ist in aller Munde – aber was genau meinen wir, wenn wir davon sprechen?


    Zu Gast ist die Philosophin Dr. Larissa Wallner und in dieser Folge nehmen wir den zurzeit vielbemühten Begriff „Demokratie“ unter die Lupe und fragen: Wird politische Teilhabe heute zur leeren Worthülse oder bloßen Imagefrage? Meinen wirklich alle die gleiche Demokratie, wenn sie nach dieser rufen? Das machen nämlich Rechte wie Linke, Konservative wie Woke, Alte wie Junge aktuell.

    Wir sprechen heute über Popstars wie Beyoncé und Taylor Swift, die zur Wahl aufrufen – und fragen, ob das Empowerment oder Marketing ist (und ob das überhaupt wichtig ist zu unterscheiden. Wir schauen auf Kylian Mbappé, der in Frankreich mit einem Instagram-Post Jugendliche an die Urne bringt. Und wir diskutieren, was passiert, wenn Influencer:innen mehr bewegen als Parteien – oder wenn Wahrheit in der Kommentarspalte verhandelbar wird.

    Mit im philosophischen Gepäck heute: Hannah Arendt, Jürgen Habermas, Harry Frankfurt – und die Frage, was Demokratie im digitalen Zeitalter eigentlich noch bedeutet. Also: Popkultur vs. politisches System. Algorithmen statt Argumente? Wahrheit, Wirkung – und jede Menge Bullshit!

    Eine Folge über Hoffnung, Hype und die echte Zumutung, die Demokratie sein kann.

    Show More Show Less
    1 hr and 2 mins