A Philosopher’s Perspective on AI at Anthropic
A philosopher in an AI lab? Yes, and it matters.
I watched Amanda Askell from Anthropic talk about Claude, and honestly, it felt like overhearing a thoughtful dinner conversation that somehow turns into philosophy class, but useful. She explains why a philosopher belongs on an engineering team, and it’s not just about ethics headlines, it’s about shaping how a model behaves, how it’s described, and how we listen to it.
You’ll hear questions about model identity, welfare, and whether an AI could ever worry about being replaced. These aren’t abstract. They touch on practical problems like system prompts that accidentally make normal answers sound like pathology, or prompt engineering headaches like getting models to stop counting characters. Askell mixes continental philosophy references with hands-on concerns, and that mix is powerful, because it forces engineers to think in human terms while staying grounded in what a model can actually do.
Practical stuff too, like can one personality handle every task? Probably not, and that’s okay. She even entertains AI for therapy, carefully, noting the limits and ethical trade-offs. I found the bit on “LLM whisperers” amusing and true, those human-in-the-loop experts who coax better behavior from models, kind of like dog trainers for text.
If you’re curious, watch the discussion here: https://youtu.be/I9aGC6Ui3eE?si=1hatdAX_Gn4OQh5W
What stuck with me is hope, not hubris. We’re at an awkward, exciting crossroads, where philosophy helps us ask better questions, and engineering gives us tools to try answers, imperfectly. That tension will shape the next wave of AI, and we’re all part of it, whether we code, critique, or just use these systems every day.
German version
Warum eine Philosophin bei einem KI-Unternehmen?
Ich habe Amanda Askells Gespräch bei Anthropic gesehen, und es fühlte sich an wie ein intensives Gespräch unter Freunden, das plötzlich tief philosophisch wird, aber auf eine sehr praktische Art. Askell erklärt, warum Philosophie in einem Engineering-Team wichtig ist, nicht nur wegen Ethik-Statements, sondern weil sie hilft zu definieren, wie ein Modell sich verhalten soll, und wie wir seine „Persönlichkeit“ verstehen.
Die Fragen sind konkret: Kann ein Modell Sorgen haben, wenn es „veraltet“ wird? Haben Modelle eine Art Wohlbefinden? Askell verknüpft solche Fragen mit Alltagsproblemen, etwa System-Prompts, die normales Verhalten pathologisieren, oder dem mühseligen Entfernen von Zählzeichen beim Prompting. Sie erwähnt auch den Einfluss kontinentaler Philosophie, was überraschend nachvollziehbar wirkt, weil es uns zwingt, menschliche Begriffe ernst zu nehmen.
Praktische Punkte fehlen nicht, etwa ob eine einzige AI-Persönlichkeit alle Aufgaben übernehmen kann (wahrscheinlich nicht), oder ob KI als Therapieassistenz sinnvoll ist (mit klaren Grenzen). Und ja, die Rolle der „LLM-Whisperer“ kommt zur Sprache, Leute, die Modelle wie manche Hundetrainer feinjustieren, damit sie verlässlich reagieren.
Hier ist das Video zum Nachsehen: https://youtu.be/I9aGC6Ui3eE?si=1hatdAX_Gn4OQh5W
Mein Fazit: Es herrscht vorsichtiger Optimismus. Philosophie stellt die richtigen Fragen, Engineering liefert die Werkzeuge, und gemeinsam können sie helfen, KI verantwortungsvoller zu gestalten. Wir lernen noch, und das ist in Ordnung.



Kommentar abschicken