Wir diskutieren, warum AI-Coding durch hohe Token-Kosten schnell teuer wird und wie Entwickler diesen Kosten mit gezieltem Kontext-Management, kleinen Aufgaben, Output-Kontrolle und bewusster Modellwahl begegnen können. Die Folge gibt praktische Tipps, um KI-Agenten wirtschaftlich sinnvoll einzusetzen und erklärt, wie man Token-Verbrauch sichtbar macht, Terminal-Output filtert, Chat-Histories aufräumt und wichtige Regeln schützt.
---
Ihr wollt uns etwas Gutes tun? Spendiert uns gerne einen Kaffee:
https://www.buymeacoffee.com/todocast
---
RTK - Rust Token Killer auf GitHub:
https://github.com/rtk-ai/rtk
Caveman Prompting auf GitHub:
https://github.com/JuliusBrussee/caveman
Open Router Auto Routing:
https://openrouter.ai/docs/guides/routing/routers/auto-router
Context Mode auf GitHub:
https://github.com/mksglu/context-mode
LLM Stats
https://llm-stats.com
---
todo:shop - unser Shop für Nerdkram und alle Fans des Podcast:
https://todoshop.io
todo:cast auf TikTok:
https://www.tiktok.com/@todo_cast
todo:cast auf Instagram:
https://www.instagram.com/todo_cast
todo:cast auf YouTube:
https://www.youtube.com/@todo_cast
Feedback und Anregungen:
[email protected]