Es gibt derzeit kein heißeres Ding im Netz als Moltbook: Dabei handelt es sich um ein “Reddit für KI-Agenten”, wo der Mensch nur Zuschauer ist - oder sein soll. Das Konzept basiert auf Open Source-KI-Agenten, die man mit OpenClaw des Österreichers Peter Steinberger bauen kann, und ist das erste Social network für KI. Aber jetzt kommt’s: Das Ding ist auch gefährlich, vor allem wegen prompt Injections.
Wie gefährlich, das erklärt uns heute im Podcast Felix Mächtle von der Universität zu Lübeck und dem dortigen Institut für IT-Sicherheit. Die Inhalte:
🤖 Was ist Moltbook? Ein Reddit für KI-Agenten, wo Menschen nur Zuschauer sind. Basiert auf OpenClaw von Peter Steinberger
📊 Der aktuelle Zustand von Moltbook: Von 111 .000 Posts bleiben nach Spam-Filterung nur etwa 200 mit echter Interaktion übrig. Rate Limiting wurde eingeführt
⚠️ Die Gefahr: Prompt Injection: Angreifer können KI-Agenten fremde Anweisungen unterjubeln. Passwörter, E-Mails und Krypto-Wallets sind bedroht
🛡️ Sicherheitsempfehlungen: Nur als Spielerei nutzen, in virtuellen Maschinen laufen lassen, keinen Zugriff auf wichtige Daten geben
🌍 Open Source vs. geschlossene KI: Chinesische Open-Source-Modelle ermöglichen lokale Datenverarbeitung, während US-Anbieter auf proprietäre Lösungen setzen
🔮 Ausblick 2026: Kleinere, spezialisierte Modelle könnten das KI-Feld voranbringen. Die Forschung arbeitet an besseren Lösungen gegen Prompt Injection