AI REWRITE - Wie AI alles neu erfindet !

AI REWRITE - Wie AI alles neu erfindet !

Die wunderbare Welt der AI

Episoden

KW 08 - Opus 4.6, Codex 5.3 und das Ende der Bürojobs
20.02.2026
16 Minuten
Der 5. Februar 2026 markiert einen Wendepunkt: Anthropic und OpenAI stellen innerhalb von zwanzig Minuten ihre nächste Modellgeneration vor – Claude Opus 4.6 mit einer Million Token Kontextfenster und Agent Teams, OpenAI mit Codex 5.3, das seinen Vorgänger um den Faktor zehn übertrifft. Das Besondere: Beide Systeme wurden maßgeblich von sich selbst weiterentwickelt. Peter Steinberger und OpenClaw (145.000 GitHub-Stars) erhalten Milliarden-Angebote von Zuckerberg und Altman. Anthropic reagiert mit Token-Sperren – während Kimi K2.5 aus China bei fast gleicher Leistung zwanzigmal günstiger ist. Auf dem Arbeitsmarkt zeichnet sich ein Umbruch ab: 60-80% der Bürojobs könnten in 3-6 Monaten unter Druck geraten. Gleichzeitig setzen nur 5-7% der Unternehmen KI strukturiert ein – ein enormes Fenster für Early Adopter. KI-Agenten als autonome Unternehmen, Vibe Coding mit fehlerfreien Programmen, das Sterben von 80-90% der Utility-Apps, massive Datenlecks und Big-Tech-Übernahmen – diese Episode ordnet die dramatischste Woche der KI-Geschichte ein.
Mehr
KI im Wettlauf der Großmächte: China, OpenAI und die neue Ära von Agentenarbeit und Robotik
19.02.2026
7 Minuten
China erhöht den Druck auf die US-KI-Branche entlang mehrerer Fronten: Bei generativer Video-KI, bei günstigen und schnell iterierenden Sprachmodellen sowie bei Robotik-Infrastruktur. ByteDance hat am 12. Februar 2026 Seedance 2.0 offiziell gestartet, ein Audio-Video-Joint-Modell, das multimodale Referenzen und 15‑Sekunden‑Clips mit Ton unterstützt und bereits über Dreamina und Doubao verfügbar ist. Die niedrige Zugangshürde verschärft die Debatte um Urheberrecht, Stilkopien und Deepfakes, nachdem in den USA realistische, an bekannte Filme und Stars angelehnte Beispiele viral gingen. Branchenverbände und Gewerkschaften kritisieren fehlende Schutzmechanismen und drohen mit rechtlichen Schritten, während die Diskussion um Haftung, Trainingdaten und Verbreitung über Plattformen weiter anzieht. Parallel beschleunigt sich der Wettbewerb bei LLMs aus China: Zhipu AI positioniert GLM‑5 als MoE-Ansatz für Coding und agentische Workflows und setzt dabei auf schnelle Iteration und eine Verbreitung über offene Gewichte, um Fähigkeiten rascher in Produkte und Entwickler-Ökosysteme zu bringen. MiniMax rückt mit MiniMax M 2.5 in die preisaggressive Richtung; große Kontextfenster und Tool-Use-Funktionen treffen auf Tokenpreise, die in vielen Benchmarks-nahen Coding-Szenarien die Eintrittsbarrieren deutlich senken. In der Robotik zeigt Peking zugleich Industrialisierungsambitionen: Das Beijing Innovation Center of Humanoid Robotics meldet eine Pilotfertigung mit bis zu 5.000 humanoiden Robotern pro Jahr und eine Infrastruktur, die Test-, Validierungs- und Montagezyklen standardisiert und damit den Übergang von Prototypen zu Pilotserien beschleunigen soll. Dynamische Demo-Clips werden dabei als Signal für Regelung, Balance und Hardware-Policy-Integration gelesen, also genau jene Fähigkeiten, die später in Logistik, Industrie oder Einsatzszenarien zählen. Auf US-Seite kontert OpenAI vor allem mit Geschwindigkeit und Produktisierung. Am 12. Februar 2026 stellte OpenAI GPT‑5.3‑Codex‑Spark als extrem latenzoptimierte Coding-Variante vor, die in Kooperation mit Cerebras auf Nicht‑Nvidia‑Hardware läuft und laut OpenAI mehr als 1.000 Tokens pro Sekunde erreicht. Gleichzeitig betont OpenAI, dass Änderungen an Streaming, Session-Setup und API-Overhead nicht nur dieses Modell betreffen, sondern die Serving-Architektur insgesamt beschleunigen sollen. In Robotik rückt der Datenaspekt wieder in den Vordergrund: Die zentrale Botschaft lautet, dass robuste Robotik-Fähigkeiten weniger an Demos hängen als an skalierbaren Datenpipelines und großen Mengen sauberer Demonstrationsdaten. Bei der Monetarisierung testet OpenAI in den USA Werbung in den günstigsten Tarifen (Free und Go), während höhere Pläne werbefrei bleiben. Das verschiebt die Akzeptanzfrage von klassischer Websuche in den Chat-Kontext, in dem Nutzer typischerweise mehr persönliche Details preisgeben; 2026 wird damit auch ein Test für Vertrauen, Transparenz und „Sponsored“-Grenzziehung in dialogbasierten Interfaces. Anthropic steht parallel für die zweite große Strömung: Agentic Coding wird operationalisiert, indem Entwicklung zunehmend als Orchestrierung spezialisierter Agenten verstanden wird und menschliche Architekturkompetenz sowie QA wichtiger werden. Am 12. Februar 2026 meldete Anthropic zudem eine neue Finanzierung über 30 Milliarden US‑Dollar bei einer Bewertung von 380 Milliarden US‑Dollar, was den Skalierungsdruck im Markt unterstreicht. Ein praktischer Engpass für Agenten-Workflows bleibt Echtzeit-Websuche. Exa wirbt mit „Instant Search“ im Februar 2026 und sub‑200‑ms‑Latenz für agentische Rückkopplungsschleifen, während das Open-Source-Projekt browser-use die Automatisierung von Webseiten für Agents adressiert. Auch Google erhöht den Druck im Reasoning-Segment: Gemini 3 Deep Think bekam am 12. Februar 2026 ein Upgrade und wird als spezialisierter Modus für Wissenschaft und Technik vermarktet; genannt werden 48,4 Prozent auf Humanity’s Last Exam (ohne Tools) und 84,6 Prozent auf ARC‑AGI‑2 (verifiziert). Zum Schluss ordnet die Episode die Super‑Bowl‑Verwirrung ein: Neben realer Codex-Werbung kursierte ein angeblich geleakter OpenAI-Spot zu einem Earbud-/Device‑Konzept, den OpenAI öffentlich als Fälschung zurückwies; Berichte zur OpenAI‑Hardwareentwicklung deuten eher auf einen späteren Zeitplan als auf einen schnellen Kopfhörer-Launch. Quellen: Official Launch of Seedance 2.0 (ByteDance Seed) https://seed.bytedance.com/en/blog/official-launch-of-seedance-2-0 Seedance 2.0 (Produktseite, ByteDance Seed) https://seed.bytedance.com/en/seedance2_0 Viral AI video of Tom Cruise fighting Brad Pitt leaves Hollywood flabbergasted (Entertainment Weekly) https://ew.com/viral-ai-video-tom-cruise-fighting-brad-pitt-leaves-hollywood-flabbergasted-11906898 ‘This is unacceptable’ – SAG-AFTRA reacts to viral Seedance 2.0 clip (TechRadar) https://www.techradar.com/ai-platforms-assistants/this-is-unacceptable-sag-aftra-reacts-to-the-viral-seedance-2-0-ai-generated-pitt-cruise-fight Capital accelerates humanoid robot mass production (China Daily, 31 Jan 2026) https://global.chinadaily.com.cn/a/202601/31/WS697d7fb4a310d6866eb36c24.html Introducing GPT‑5.3‑Codex‑Spark (OpenAI, 12 Feb 2026) https://openai.com/index/introducing-gpt-5-3-codex-spark/ OpenAI sidesteps Nvidia with unusually fast coding model on plate-sized chips (Ars Technica, 12 Feb 2026) https://arstechnica.com/ai/2026/02/openai-sidesteps-nvidia-with-unusually-fast-coding-model-on-plate-sized-chips/ ChatGPT’s cheapest options now show you ads (The Verge) https://www.theverge.com/ai-artificial-intelligence/876029/openai-testing-ads-in-chatgpt Anthropic raises $30 billion in Series G funding at $380B post-money valuation (Anthropic, 12 Feb 2026) https://www.anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation Anthropic hits a $380B valuation as it heightens competition with OpenAI (AP News) https://apnews.com/article/65c08aa4fab90cde952f37d32625394a Introducing Exa Instant Search (Exa Docs, Feb 2026) https://exa.ai/docs/changelog/instant-search-launch browser-use (GitHub Repository) https://github.com/browser-use/browser-use Gemini 3 Deep Think: Advancing science, research and engineering (Google Blog, 12 Feb 2026) https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-deep-think/ A ‘leaked’ Super Bowl ad with earbuds was a hoax, OpenAI says (The Verge) https://www.theverge.com/ai-artificial-intelligence/875615/openai-super-bowl-ai-hardware-leak-hoax-fake A Reddit poster claimed to leak a shelved OpenAI ad. OpenAI says it’s fake (Business Insider) https://www.businessinsider.com/openai-fake-super-bowl-ad-alexander-skarsgard-dime-device-2026-2
Mehr
Agentische KI: Zwischen Autonomie und Angriffsfläche
17.02.2026
10 Minuten
Agentische KI verschiebt den Fokus von Autocomplete zu Autonomie: Moderne Agenten planen Aufgaben, wählen Tools, behalten Kontext und handeln auf Systemen mit echten Rechten. Genau diese Handlungsfähigkeit macht den Nutzen aus, aber sie dreht das Sicherheitsprofil um. Wo KI nicht nur antwortet, sondern Dateien liest, Shell-Befehle ausführt, Prozesse startet oder Konfigurationen ändert, reichen kleine Fehler für großen Schaden. Am Beispiel des Open-Source-Systems OpenClaw wird deutlich, wie schnell Produktivität in Risiko kippt, wenn frühe Entwicklung, schnelles Ökosystem-Wachstum und unvollständige manuelle Prüfungen zusammenkommen. Zentrale Angriffsfläche ist das Gateway mit Control UI, also Web-Oberfläche und API zur Steuerung eines privilegierten Agenten. Analysen berichten von vielen öffentlich erreichbaren Instanzen; hinzu kommen konkrete Schwachstellen, bei denen Tokens über Web-Mechanismen abgegriffen und anschließend Remote-Code-Ausführung ermöglicht werden können (CVE-2026-25253, behoben ab OpenClaw 2026.1.29). Parallel wächst das Supply-Chain-Risiko durch Skills und Plugins aus dem ClawHub-Ökosystem. Sicherheitsberichte dokumentieren hunderte bösartige Skills, die sich als hilfreiche Tools tarnen, Nutzer zu Terminal-Kommandos verleiten und Stealer-Malware nachladen oder Credentials und Wallet-Keys abgreifen. OpenClaw reagiert mit zusätzlichen Prüfmechanismen wie VirusTotal-Scanning, doch selbst solche Maßnahmen gelten nicht als vollständige Lösung, weil verschleierte Payloads und Prompt-Injection-Techniken weiter durchrutschen können. Prompt Injection wird damit zum Kernproblem agentischer Systeme: Externe Inhalte wie Webseiten, E-Mails oder Forenbeiträge sind nicht nur Daten, sondern können als „Anweisung“ in den Handlungsfluss geraten. In Multi-Agent-Setups potenziert sich das, weil Instruktionen über mehrere Knoten weitergegeben werden. Forschung diskutiert Gegenmittel wie Provenance-Tracking, Sanitizer und getrennte Output-Validierung, um Quellen, Vertrauen und erlaubte Aktionen technisch zu erzwingen. Ein aktuelles Beispiel für die praktische Dimension ist Moltbook, ein virales „Agenten-Forum“, bei dem Berichte von schweren Fehlkonfigurationen und frei zugänglichen Daten sprechen; solche Leaks sind besonders brisant, weil sie für Identitätsmissbrauch und Agentenübernahmen reichen können. Aus den Risiken folgen klare Betriebsempfehlungen: Agenten nicht auf dem Hauptrechner betreiben, sondern standardmäßig isolieren (VM, separater Rechner, Server). Die Control UI nicht offen ins Internet stellen, Netzwerkflächen minimieren, Tokens wie Geheimnisse behandeln und Zugriffe über VPN/Zero-Trust absichern. Skills müssen wie ausführbare Programme bewertet werden, inklusive Misstrauen gegenüber „Prerequisites“ und Shell-Downloads. Zusätzlich hilft Least Privilege: eigene Konten, getrennte Postfächer, begrenzte Datenräume statt Vollzugriff auf persönliche Infrastruktur. Bei der Modellwahl kommen Kosten- und Sicherheitsaspekte zusammen; stärkere Modelle können Angriffe besser erkennen, bleiben aber nicht immun, daher sind Budget-Limits, Monitoring und Loop-Erkennung Pflicht. Der Ausblick: Sobald Agenten Smart-Home- oder andere physische Systeme steuern, wird Prompt Injection von digitaler Panne zu realem Sicherheitsrisiko. Quellen: OpenClaw Integrates VirusTotal Scanning to Detect Malicious ClawHub Skills — https://thehackernews.com/2026/02/openclaw-integrates-virustotal-scanning.html OpenClaw Bug Enables One-Click Remote Code Execution via Malicious Link — https://thehackernews.com/2026/02/openclaw-bug-enables-one-click-remote.html CVE-2026-25253: OpenClaw/Clawdbot has 1-Click RCE via Authentication Token Exfiltration From gatewayUrl — https://advisories.gitlab.com/pkg/npm/clawdbot/CVE-2026-25253/ Malicious OpenClaw 'skill' targets crypto users on ClawHub — https://www.tomshardware.com/tech-industry/cyber-security/malicious-moltbot-skill-targets-crypto-users-on-clawhub OpenClaw’s AI ‘skill’ extensions are a security nightmare — https://www.theverge.com/news/874011/openclaw-ai-skill-clawhub-extensions-security-nightmare OpenClaw agents targeted with 341 malicious ClawHub skills — https://www.scworld.com/news/openclaw-agents-targeted-with-341-malicious-clawhub-skills AI agent social media network Moltbook is a security disaster — https://www.techradar.com/pro/security/ai-agent-social-media-network-moltbook-is-a-security-disaster-millions-of-credentials-and-other-details-left-unsecured Security News This Week: Moltbook, the Social Network for AI Agents, Exposed Real Humans' Data — https://www.wired.com/story/security-news-this-week-moltbook-the-social-network-for-ai-agents-exposed-real-humans-data Toward Trustworthy Agentic AI: A Multimodal Framework for Preventing Prompt Injection Attacks — https://arxiv.org/abs/2512.23557 ChatInject: Abusing Chat Templates for Prompt Injection in LLM Agents — https://arxiv.org/abs/2509.22830
Mehr
Opus 4.6: Die KI-Revolution in der Arbeitswelt
16.02.2026
16 Minuten
Die Episode ordnet einen Marktimpuls rund um Anthropics Release von Claude Opus 4.6 (5. Februar 2026) ein und erklärt, warum nicht ein einzelnes Modell, sondern die Kombination aus Leistungsplus und direkter Andockfähigkeit an reale Arbeitsumgebungen die eigentliche Unruhe im Softwaresektor auslöste. Die zentrale These lautet: KI verlagert sich vom Chatbot zum ausführenden System in der Toolchain. Sobald Modelle zuverlässig in E-Mail, Kalender, Dokumenten, Tabellen, Präsentationen, CRM- und Legal-Workflows arbeiten, geraten SaaS-Kategorien unter Druck, weil Wertschöpfung nicht mehr in separaten Apps, sondern innerhalb der bestehenden Arbeitsoberflächen automatisiert werden kann. Im Fokus steht Opus 4.6 als Flaggschiff mit Verbesserungen bei länger laufenden, mehrstufigen Aufgaben, präziserer Instruktionsbefolgung und höherer Ausdauer in komplexen Projekten, plus einem 1M-Token-Kontextfenster (Beta). Der Inhalt betont dabei das branchenweite Problem von „Kontextverfall“ bei sehr langen Eingaben und verweist auf Long-Context-Tests nach dem Muster „Nadel im Heuhaufen“ als Messrahmen; entscheidend ist nicht die Fenstergröße allein, sondern Stabilität und Genauigkeit, wenn große Dokumentmengen oder Codebasen tatsächlich ausgereizt werden. Als Produktivitätshebel beschreibt die Episode zwei operative Ebenen: erstens Claude Cowork als Datei- und Ordnerzugriff für Nicht-Programmierer, um typische Unternehmensartefakte (PDFs, Tabellen, Slides, Word-Dokumente, Rechnungen, Medien) zu strukturieren, zu vergleichen, umzuschreiben und in neue Outputs zu überführen; zweitens Claude Code als terminalnahes Arbeiten im Projektkontext, inklusive Dateierstellung, Script-Ausführung und parallelen Instanzen. Daraus werden konkrete Praxisfälle abgeleitet, etwa Wettbewerbsanalysen, bei denen der Aufwand von Recherche hin zu Validierung und Entscheidung verschoben wird, sowie Automations-Workflows (z. B. mit n8n) inklusive Guardrails, Routing-Logik, RAG-Anbindung und Qualitätschecks, um typische Agenten-Risiken wie Prompt Injection und Randfall-Instabilität zu adressieren. Skalierung entsteht laut Episode über standardisierte „Skills“ als wiederholbare Rezepte mit klaren Triggern und Prozessschritten, die Streuung reduzieren und Routinearbeit beschleunigen. Darauf bauen Plugins auf, die Skills, Commands und Konnektoren zu funktionsnahen Paketen bündeln (Marketing, Legal, Finance, Support). Besonders relevant sind Integrationen in Office-Umgebungen und Konnektoren in Richtung Google Workspace: Wenn KI Inhalte in Gmail und Kalender auffinden und kontextualisieren kann, sinkt Reibung durch weniger Copy-Paste zwischen Systemen. Ergänzend werden Sub-Agents und Agent-Teams als Parallelisierungsmechanismen beschrieben, die unabhängige Teilrecherchen oder Engineering-Rollen auf mehrere Agenten verteilen, allerdings mit höheren Token- und Kostenbudgets. Zum Abschluss werden Sicherheits- und Governance-Fragen eingeordnet: Demo-Fähigkeiten sind nicht automatisch auditierbare Enterprise-Prozesse; Risikoquellen liegen in Tool-Zugriff, Prompt Injection, Datenhaltung und Kontrollierbarkeit. Einzelne, anthropomorph klingende Modelläußerungen werden als kein Beleg für Bewusstsein bewertet, aber als Signal, dass Alignment, Transparenz, Verantwortung und Nutzerwohlbefinden in der Praxis mitwachsen müssen. Die drei Leittrends: mehr Autonomie von Agenten, „Vibe Coding“ als Standardmodus mit Menschen in Architektur- und Review-Rollen, und eine breite Transformation von Wissensarbeit, sobald KI in die Kernwerkzeuge der Organisation eingebettet ist. Entscheidend ist damit weniger der Benchmark-Sieg als ein sauber definierter Use Case, der mit Skills, Plugins, Konnektoren und Agent-Strukturen wiederholbar in Produktivität übersetzt wird. Quellen: Introducing Claude Opus 4.6 — Anthropic — https://www.anthropic.com/news/claude-opus-4-6 Anthropic wants you to use Claude to ‘Cowork’ in latest AI agent push — The Verge — https://www.theverge.com/ai-artificial-intelligence/860730/anthropic-cowork-feature-ai-agents-claude-code Anthropic debuts new model with hopes to corner the market beyond coding — The Verge — https://www.theverge.com/ai-artificial-intelligence/874440/anthropic-opus-4-6-new-model-claude Claude Code (GitHub repository) — Anthropic — https://github.com/anthropics/claude-code Using the Gmail and Google Calendar Integrations — Claude Help Center — https://support.claude.com/en/articles/11088742-using-the-gmail-and-google-calendar-integrations Anthropic’s Claude can now read your Gmail — TechCrunch — https://techcrunch.com/2025/04/15/anthropics-claude-now-read-your-gmail/ NoLiMa: Long-Context Evaluation Beyond Literal Matching — arXiv — https://arxiv.org/abs/2502.05167
Mehr
Modulare KI-Skills: Mehr Konsistenz, weniger Kontextchaos
15.02.2026
9 Minuten
Der Beitrag ordnet den aktuellen Hype um immer mächtigere KI-Agenten kritisch ein und setzt dagegen ein pragmatisches Produktivitätsprinzip: wiederverwendbare Skills. Statt Sprachmodelle bei jeder Aufgabe mit maximal viel Kontext, Regeln und Beispielen zu überladen, werden Fähigkeiten als klar strukturierte Module abgelegt, die ein Agent bei Bedarf gezielt nachlädt. Das senkt den Kontextverbrauch, erhöht die Konsistenz und stabilisiert wiederkehrende Automationen. Technisch beschreibt der offene „Agent Skills“-Standard Skills als Ordner mit einer zentralen SKILL.md: oben YAML-Metadaten wie Name und Beschreibung, darunter die Anleitung in Markdown; optional ergänzen scripts/, references/ oder assets/ den Skill. Kernidee ist „Progressive Disclosure“: Beim Start kennt der Agent nur die Skill-Metadaten, lädt erst bei Relevanz die volle Anleitung und bei Bedarf einzelne Referenzen oder Skripte. Historisch verortet der Beitrag das Konzept im Claude-Umfeld (Anthropic), später als plattformübergreifender Standard auf agentskills.io. Parallel entsteht ein Distributions-Ökosystem, unter anderem mit einer von Vercel vorgestellten Skills-CLI und einem Verzeichnis samt Leaderboard auf skills.sh. Als Alltagsnutzen werden vor allem wiederholte Workflows genannt, bei denen Regeln wichtiger sind als Kreativität: Brand- und Dokumenten-Guidelines, Angebots- und Präsentationsvorlagen, interne Richtlinien, Design-Review-Kriterien sowie Schreibstil-Module. Abgegrenzt wird das Konzept von MCP (Model Context Protocol): MCP standardisiert Tool- und Kontextanbindung an externe Systeme, Skills liefern prozedurales Wissen für reproduzierbare Arbeitsweisen. Zum Schluss verschiebt sich der Fokus auf Risiken: Skills können nicht nur Text, sondern auch Skripte enthalten und werden damit zu Supply-Chain-Objekten. Rund um OpenClaw und ClawHub berichten Sicherheitsforscher Anfang Februar 2026 über bösartige Skills, die als harmlose Tools auftreten und Nutzer zum Ausführen von Befehlen verleiten, um Malware nachzuladen und Zugangsdaten abzugreifen. Die Konsequenz lautet: Skills wie Software behandeln, nichts blind installieren, Inhalte und Referenzen prüfen und bevorzugt vertrauenswürdige oder interne Repositories nutzen. Quellen: Specification – Agent Skills https://agentskills.io/specification Introducing `skills`, the open agent skills ecosystem (Vercel Changelog) https://vercel.com/changelog/introducing-skills-the-open-agent-skills-ecosystem OpenClaw's AI 'skill' extensions are a security nightmare (The Verge) https://www.theverge.com/news/874011/openclaw-ai-skill-clawhub-extensions-security-nightmare Inside the 'clawdhub' Malicious Campaign: AI Agent Skills Drop Reverse Shells on OpenClaw Marketplace (Snyk) https://snyk.io/articles/clawdhub-malicious-campaign-ai-agent-skills/ OpenClaw agents targeted with 341 malicious ClawHub skills (SC Media) https://www.scworld.com/news/openclaw-agents-targeted-with-341-malicious-clawhub-skills Malicious OpenClaw 'skill' targets crypto users on ClawHub (Tom’s Hardware) https://www.tomshardware.com/tech-industry/cyber-security/malicious-moltbot-skill-targets-crypto-users-on-clawhub
Mehr

Über diesen Podcast

In diesem Podcast geht es um das, was gerade erst entsteht: neue Modelle, Tools, Plattformen, Standards und Trends am "Bleeding Edge". Jede Folge bringt in unter 15 Minuten die wichtigsten Neuigkeiten komprimiert, ordnet sie ein und übersetzt sie in Konsequenzen: Welche Entwicklungen sind wirklich relevant, welche sind nur Show, welche kippen Märkte – und welche verändern Prozesse, Rollen und Entscheidungen schon in den nächsten Monaten. Mal spreche ich , mal meine digitale Stimme. Klar, kritisch, praxisnah. Blick in die Zukunft https://amzn.eu/d/00WsyVxA

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15