Podcaster
Episoden
20.02.2026
16 Minuten
Der 5. Februar 2026 markiert einen Wendepunkt: Anthropic und OpenAI
stellen innerhalb von zwanzig Minuten ihre nächste Modellgeneration
vor – Claude Opus 4.6 mit einer Million Token Kontextfenster und
Agent Teams, OpenAI mit Codex 5.3, das seinen Vorgänger um den
Faktor zehn übertrifft. Das Besondere: Beide Systeme wurden
maßgeblich von sich selbst weiterentwickelt. Peter Steinberger und
OpenClaw (145.000 GitHub-Stars) erhalten Milliarden-Angebote von
Zuckerberg und Altman. Anthropic reagiert mit Token-Sperren –
während Kimi K2.5 aus China bei fast gleicher Leistung zwanzigmal
günstiger ist. Auf dem Arbeitsmarkt zeichnet sich ein Umbruch ab:
60-80% der Bürojobs könnten in 3-6 Monaten unter Druck geraten.
Gleichzeitig setzen nur 5-7% der Unternehmen KI strukturiert ein –
ein enormes Fenster für Early Adopter. KI-Agenten als autonome
Unternehmen, Vibe Coding mit fehlerfreien Programmen, das Sterben
von 80-90% der Utility-Apps, massive Datenlecks und
Big-Tech-Übernahmen – diese Episode ordnet die dramatischste Woche
der KI-Geschichte ein.
Mehr
19.02.2026
7 Minuten
China erhöht den Druck auf die US-KI-Branche entlang mehrerer
Fronten: Bei generativer Video-KI, bei günstigen und schnell
iterierenden Sprachmodellen sowie bei Robotik-Infrastruktur.
ByteDance hat am 12. Februar 2026 Seedance 2.0 offiziell gestartet,
ein Audio-Video-Joint-Modell, das multimodale Referenzen und
15‑Sekunden‑Clips mit Ton unterstützt und bereits über Dreamina und
Doubao verfügbar ist. Die niedrige Zugangshürde verschärft die
Debatte um Urheberrecht, Stilkopien und Deepfakes, nachdem in den
USA realistische, an bekannte Filme und Stars angelehnte Beispiele
viral gingen. Branchenverbände und Gewerkschaften kritisieren
fehlende Schutzmechanismen und drohen mit rechtlichen Schritten,
während die Diskussion um Haftung, Trainingdaten und Verbreitung
über Plattformen weiter anzieht. Parallel beschleunigt sich der
Wettbewerb bei LLMs aus China: Zhipu AI positioniert GLM‑5 als
MoE-Ansatz für Coding und agentische Workflows und setzt dabei auf
schnelle Iteration und eine Verbreitung über offene Gewichte, um
Fähigkeiten rascher in Produkte und Entwickler-Ökosysteme zu
bringen. MiniMax rückt mit MiniMax M 2.5 in die preisaggressive
Richtung; große Kontextfenster und Tool-Use-Funktionen treffen auf
Tokenpreise, die in vielen Benchmarks-nahen Coding-Szenarien die
Eintrittsbarrieren deutlich senken. In der Robotik zeigt Peking
zugleich Industrialisierungsambitionen: Das Beijing Innovation
Center of Humanoid Robotics meldet eine Pilotfertigung mit bis zu
5.000 humanoiden Robotern pro Jahr und eine Infrastruktur, die
Test-, Validierungs- und Montagezyklen standardisiert und damit den
Übergang von Prototypen zu Pilotserien beschleunigen soll.
Dynamische Demo-Clips werden dabei als Signal für Regelung, Balance
und Hardware-Policy-Integration gelesen, also genau jene
Fähigkeiten, die später in Logistik, Industrie oder
Einsatzszenarien zählen. Auf US-Seite kontert OpenAI vor allem mit
Geschwindigkeit und Produktisierung. Am 12. Februar 2026 stellte
OpenAI GPT‑5.3‑Codex‑Spark als extrem latenzoptimierte
Coding-Variante vor, die in Kooperation mit Cerebras auf
Nicht‑Nvidia‑Hardware läuft und laut OpenAI mehr als 1.000 Tokens
pro Sekunde erreicht. Gleichzeitig betont OpenAI, dass Änderungen
an Streaming, Session-Setup und API-Overhead nicht nur dieses
Modell betreffen, sondern die Serving-Architektur insgesamt
beschleunigen sollen. In Robotik rückt der Datenaspekt wieder in
den Vordergrund: Die zentrale Botschaft lautet, dass robuste
Robotik-Fähigkeiten weniger an Demos hängen als an skalierbaren
Datenpipelines und großen Mengen sauberer Demonstrationsdaten. Bei
der Monetarisierung testet OpenAI in den USA Werbung in den
günstigsten Tarifen (Free und Go), während höhere Pläne werbefrei
bleiben. Das verschiebt die Akzeptanzfrage von klassischer Websuche
in den Chat-Kontext, in dem Nutzer typischerweise mehr persönliche
Details preisgeben; 2026 wird damit auch ein Test für Vertrauen,
Transparenz und „Sponsored“-Grenzziehung in dialogbasierten
Interfaces. Anthropic steht parallel für die zweite große Strömung:
Agentic Coding wird operationalisiert, indem Entwicklung zunehmend
als Orchestrierung spezialisierter Agenten verstanden wird und
menschliche Architekturkompetenz sowie QA wichtiger werden. Am 12.
Februar 2026 meldete Anthropic zudem eine neue Finanzierung über 30
Milliarden US‑Dollar bei einer Bewertung von 380 Milliarden
US‑Dollar, was den Skalierungsdruck im Markt unterstreicht. Ein
praktischer Engpass für Agenten-Workflows bleibt Echtzeit-Websuche.
Exa wirbt mit „Instant Search“ im Februar 2026 und
sub‑200‑ms‑Latenz für agentische Rückkopplungsschleifen, während
das Open-Source-Projekt browser-use die Automatisierung von
Webseiten für Agents adressiert. Auch Google erhöht den Druck im
Reasoning-Segment: Gemini 3 Deep Think bekam am 12. Februar 2026
ein Upgrade und wird als spezialisierter Modus für Wissenschaft und
Technik vermarktet; genannt werden 48,4 Prozent auf Humanity’s Last
Exam (ohne Tools) und 84,6 Prozent auf ARC‑AGI‑2 (verifiziert). Zum
Schluss ordnet die Episode die Super‑Bowl‑Verwirrung ein: Neben
realer Codex-Werbung kursierte ein angeblich geleakter OpenAI-Spot
zu einem Earbud-/Device‑Konzept, den OpenAI öffentlich als
Fälschung zurückwies; Berichte zur OpenAI‑Hardwareentwicklung
deuten eher auf einen späteren Zeitplan als auf einen schnellen
Kopfhörer-Launch. Quellen: Official Launch of Seedance 2.0
(ByteDance Seed)
https://seed.bytedance.com/en/blog/official-launch-of-seedance-2-0
Seedance 2.0 (Produktseite, ByteDance Seed)
https://seed.bytedance.com/en/seedance2_0 Viral AI video of Tom
Cruise fighting Brad Pitt leaves Hollywood flabbergasted
(Entertainment Weekly)
https://ew.com/viral-ai-video-tom-cruise-fighting-brad-pitt-leaves-hollywood-flabbergasted-11906898
‘This is unacceptable’ – SAG-AFTRA reacts to viral Seedance 2.0
clip (TechRadar)
https://www.techradar.com/ai-platforms-assistants/this-is-unacceptable-sag-aftra-reacts-to-the-viral-seedance-2-0-ai-generated-pitt-cruise-fight
Capital accelerates humanoid robot mass production (China Daily, 31
Jan 2026)
https://global.chinadaily.com.cn/a/202601/31/WS697d7fb4a310d6866eb36c24.html
Introducing GPT‑5.3‑Codex‑Spark (OpenAI, 12 Feb 2026)
https://openai.com/index/introducing-gpt-5-3-codex-spark/ OpenAI
sidesteps Nvidia with unusually fast coding model on plate-sized
chips (Ars Technica, 12 Feb 2026)
https://arstechnica.com/ai/2026/02/openai-sidesteps-nvidia-with-unusually-fast-coding-model-on-plate-sized-chips/
ChatGPT’s cheapest options now show you ads (The Verge)
https://www.theverge.com/ai-artificial-intelligence/876029/openai-testing-ads-in-chatgpt
Anthropic raises $30 billion in Series G funding at $380B
post-money valuation (Anthropic, 12 Feb 2026)
https://www.anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation
Anthropic hits a $380B valuation as it heightens competition with
OpenAI (AP News)
https://apnews.com/article/65c08aa4fab90cde952f37d32625394a
Introducing Exa Instant Search (Exa Docs, Feb 2026)
https://exa.ai/docs/changelog/instant-search-launch browser-use
(GitHub Repository) https://github.com/browser-use/browser-use
Gemini 3 Deep Think: Advancing science, research and engineering
(Google Blog, 12 Feb 2026)
https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-deep-think/
A ‘leaked’ Super Bowl ad with earbuds was a hoax, OpenAI says (The
Verge)
https://www.theverge.com/ai-artificial-intelligence/875615/openai-super-bowl-ai-hardware-leak-hoax-fake
A Reddit poster claimed to leak a shelved OpenAI ad. OpenAI says
it’s fake (Business Insider)
https://www.businessinsider.com/openai-fake-super-bowl-ad-alexander-skarsgard-dime-device-2026-2
Mehr
17.02.2026
10 Minuten
Agentische KI verschiebt den Fokus von Autocomplete zu Autonomie:
Moderne Agenten planen Aufgaben, wählen Tools, behalten Kontext und
handeln auf Systemen mit echten Rechten. Genau diese
Handlungsfähigkeit macht den Nutzen aus, aber sie dreht das
Sicherheitsprofil um. Wo KI nicht nur antwortet, sondern Dateien
liest, Shell-Befehle ausführt, Prozesse startet oder
Konfigurationen ändert, reichen kleine Fehler für großen Schaden.
Am Beispiel des Open-Source-Systems OpenClaw wird deutlich, wie
schnell Produktivität in Risiko kippt, wenn frühe Entwicklung,
schnelles Ökosystem-Wachstum und unvollständige manuelle Prüfungen
zusammenkommen. Zentrale Angriffsfläche ist das Gateway mit Control
UI, also Web-Oberfläche und API zur Steuerung eines privilegierten
Agenten. Analysen berichten von vielen öffentlich erreichbaren
Instanzen; hinzu kommen konkrete Schwachstellen, bei denen Tokens
über Web-Mechanismen abgegriffen und anschließend
Remote-Code-Ausführung ermöglicht werden können (CVE-2026-25253,
behoben ab OpenClaw 2026.1.29). Parallel wächst das
Supply-Chain-Risiko durch Skills und Plugins aus dem
ClawHub-Ökosystem. Sicherheitsberichte dokumentieren hunderte
bösartige Skills, die sich als hilfreiche Tools tarnen, Nutzer zu
Terminal-Kommandos verleiten und Stealer-Malware nachladen oder
Credentials und Wallet-Keys abgreifen. OpenClaw reagiert mit
zusätzlichen Prüfmechanismen wie VirusTotal-Scanning, doch selbst
solche Maßnahmen gelten nicht als vollständige Lösung, weil
verschleierte Payloads und Prompt-Injection-Techniken weiter
durchrutschen können. Prompt Injection wird damit zum Kernproblem
agentischer Systeme: Externe Inhalte wie Webseiten, E-Mails oder
Forenbeiträge sind nicht nur Daten, sondern können als „Anweisung“
in den Handlungsfluss geraten. In Multi-Agent-Setups potenziert
sich das, weil Instruktionen über mehrere Knoten weitergegeben
werden. Forschung diskutiert Gegenmittel wie Provenance-Tracking,
Sanitizer und getrennte Output-Validierung, um Quellen, Vertrauen
und erlaubte Aktionen technisch zu erzwingen. Ein aktuelles
Beispiel für die praktische Dimension ist Moltbook, ein virales
„Agenten-Forum“, bei dem Berichte von schweren Fehlkonfigurationen
und frei zugänglichen Daten sprechen; solche Leaks sind besonders
brisant, weil sie für Identitätsmissbrauch und Agentenübernahmen
reichen können. Aus den Risiken folgen klare Betriebsempfehlungen:
Agenten nicht auf dem Hauptrechner betreiben, sondern standardmäßig
isolieren (VM, separater Rechner, Server). Die Control UI nicht
offen ins Internet stellen, Netzwerkflächen minimieren, Tokens wie
Geheimnisse behandeln und Zugriffe über VPN/Zero-Trust absichern.
Skills müssen wie ausführbare Programme bewertet werden, inklusive
Misstrauen gegenüber „Prerequisites“ und Shell-Downloads.
Zusätzlich hilft Least Privilege: eigene Konten, getrennte
Postfächer, begrenzte Datenräume statt Vollzugriff auf persönliche
Infrastruktur. Bei der Modellwahl kommen Kosten- und
Sicherheitsaspekte zusammen; stärkere Modelle können Angriffe
besser erkennen, bleiben aber nicht immun, daher sind
Budget-Limits, Monitoring und Loop-Erkennung Pflicht. Der Ausblick:
Sobald Agenten Smart-Home- oder andere physische Systeme steuern,
wird Prompt Injection von digitaler Panne zu realem
Sicherheitsrisiko. Quellen: OpenClaw Integrates VirusTotal Scanning
to Detect Malicious ClawHub Skills —
https://thehackernews.com/2026/02/openclaw-integrates-virustotal-scanning.html
OpenClaw Bug Enables One-Click Remote Code Execution via Malicious
Link —
https://thehackernews.com/2026/02/openclaw-bug-enables-one-click-remote.html
CVE-2026-25253: OpenClaw/Clawdbot has 1-Click RCE via
Authentication Token Exfiltration From gatewayUrl —
https://advisories.gitlab.com/pkg/npm/clawdbot/CVE-2026-25253/
Malicious OpenClaw 'skill' targets crypto users on ClawHub —
https://www.tomshardware.com/tech-industry/cyber-security/malicious-moltbot-skill-targets-crypto-users-on-clawhub
OpenClaw’s AI ‘skill’ extensions are a security nightmare —
https://www.theverge.com/news/874011/openclaw-ai-skill-clawhub-extensions-security-nightmare
OpenClaw agents targeted with 341 malicious ClawHub skills —
https://www.scworld.com/news/openclaw-agents-targeted-with-341-malicious-clawhub-skills
AI agent social media network Moltbook is a security disaster —
https://www.techradar.com/pro/security/ai-agent-social-media-network-moltbook-is-a-security-disaster-millions-of-credentials-and-other-details-left-unsecured
Security News This Week: Moltbook, the Social Network for AI
Agents, Exposed Real Humans' Data —
https://www.wired.com/story/security-news-this-week-moltbook-the-social-network-for-ai-agents-exposed-real-humans-data
Toward Trustworthy Agentic AI: A Multimodal Framework for
Preventing Prompt Injection Attacks —
https://arxiv.org/abs/2512.23557 ChatInject: Abusing Chat Templates
for Prompt Injection in LLM Agents —
https://arxiv.org/abs/2509.22830
Mehr
16.02.2026
16 Minuten
Die Episode ordnet einen Marktimpuls rund um Anthropics Release von
Claude Opus 4.6 (5. Februar 2026) ein und erklärt, warum nicht ein
einzelnes Modell, sondern die Kombination aus Leistungsplus und
direkter Andockfähigkeit an reale Arbeitsumgebungen die eigentliche
Unruhe im Softwaresektor auslöste. Die zentrale These lautet: KI
verlagert sich vom Chatbot zum ausführenden System in der
Toolchain. Sobald Modelle zuverlässig in E-Mail, Kalender,
Dokumenten, Tabellen, Präsentationen, CRM- und Legal-Workflows
arbeiten, geraten SaaS-Kategorien unter Druck, weil Wertschöpfung
nicht mehr in separaten Apps, sondern innerhalb der bestehenden
Arbeitsoberflächen automatisiert werden kann. Im Fokus steht Opus
4.6 als Flaggschiff mit Verbesserungen bei länger laufenden,
mehrstufigen Aufgaben, präziserer Instruktionsbefolgung und höherer
Ausdauer in komplexen Projekten, plus einem 1M-Token-Kontextfenster
(Beta). Der Inhalt betont dabei das branchenweite Problem von
„Kontextverfall“ bei sehr langen Eingaben und verweist auf
Long-Context-Tests nach dem Muster „Nadel im Heuhaufen“ als
Messrahmen; entscheidend ist nicht die Fenstergröße allein, sondern
Stabilität und Genauigkeit, wenn große Dokumentmengen oder
Codebasen tatsächlich ausgereizt werden. Als Produktivitätshebel
beschreibt die Episode zwei operative Ebenen: erstens Claude Cowork
als Datei- und Ordnerzugriff für Nicht-Programmierer, um typische
Unternehmensartefakte (PDFs, Tabellen, Slides, Word-Dokumente,
Rechnungen, Medien) zu strukturieren, zu vergleichen, umzuschreiben
und in neue Outputs zu überführen; zweitens Claude Code als
terminalnahes Arbeiten im Projektkontext, inklusive
Dateierstellung, Script-Ausführung und parallelen Instanzen. Daraus
werden konkrete Praxisfälle abgeleitet, etwa Wettbewerbsanalysen,
bei denen der Aufwand von Recherche hin zu Validierung und
Entscheidung verschoben wird, sowie Automations-Workflows (z. B.
mit n8n) inklusive Guardrails, Routing-Logik, RAG-Anbindung und
Qualitätschecks, um typische Agenten-Risiken wie Prompt Injection
und Randfall-Instabilität zu adressieren. Skalierung entsteht laut
Episode über standardisierte „Skills“ als wiederholbare Rezepte mit
klaren Triggern und Prozessschritten, die Streuung reduzieren und
Routinearbeit beschleunigen. Darauf bauen Plugins auf, die Skills,
Commands und Konnektoren zu funktionsnahen Paketen bündeln
(Marketing, Legal, Finance, Support). Besonders relevant sind
Integrationen in Office-Umgebungen und Konnektoren in Richtung
Google Workspace: Wenn KI Inhalte in Gmail und Kalender auffinden
und kontextualisieren kann, sinkt Reibung durch weniger Copy-Paste
zwischen Systemen. Ergänzend werden Sub-Agents und Agent-Teams als
Parallelisierungsmechanismen beschrieben, die unabhängige
Teilrecherchen oder Engineering-Rollen auf mehrere Agenten
verteilen, allerdings mit höheren Token- und Kostenbudgets. Zum
Abschluss werden Sicherheits- und Governance-Fragen eingeordnet:
Demo-Fähigkeiten sind nicht automatisch auditierbare
Enterprise-Prozesse; Risikoquellen liegen in Tool-Zugriff, Prompt
Injection, Datenhaltung und Kontrollierbarkeit. Einzelne,
anthropomorph klingende Modelläußerungen werden als kein Beleg für
Bewusstsein bewertet, aber als Signal, dass Alignment, Transparenz,
Verantwortung und Nutzerwohlbefinden in der Praxis mitwachsen
müssen. Die drei Leittrends: mehr Autonomie von Agenten, „Vibe
Coding“ als Standardmodus mit Menschen in Architektur- und
Review-Rollen, und eine breite Transformation von Wissensarbeit,
sobald KI in die Kernwerkzeuge der Organisation eingebettet ist.
Entscheidend ist damit weniger der Benchmark-Sieg als ein sauber
definierter Use Case, der mit Skills, Plugins, Konnektoren und
Agent-Strukturen wiederholbar in Produktivität übersetzt wird.
Quellen: Introducing Claude Opus 4.6 — Anthropic —
https://www.anthropic.com/news/claude-opus-4-6 Anthropic wants you
to use Claude to ‘Cowork’ in latest AI agent push — The Verge —
https://www.theverge.com/ai-artificial-intelligence/860730/anthropic-cowork-feature-ai-agents-claude-code
Anthropic debuts new model with hopes to corner the market beyond
coding — The Verge —
https://www.theverge.com/ai-artificial-intelligence/874440/anthropic-opus-4-6-new-model-claude
Claude Code (GitHub repository) — Anthropic —
https://github.com/anthropics/claude-code Using the Gmail and
Google Calendar Integrations — Claude Help Center —
https://support.claude.com/en/articles/11088742-using-the-gmail-and-google-calendar-integrations
Anthropic’s Claude can now read your Gmail — TechCrunch —
https://techcrunch.com/2025/04/15/anthropics-claude-now-read-your-gmail/
NoLiMa: Long-Context Evaluation Beyond Literal Matching — arXiv —
https://arxiv.org/abs/2502.05167
Mehr
15.02.2026
9 Minuten
Der Beitrag ordnet den aktuellen Hype um immer mächtigere
KI-Agenten kritisch ein und setzt dagegen ein pragmatisches
Produktivitätsprinzip: wiederverwendbare Skills. Statt
Sprachmodelle bei jeder Aufgabe mit maximal viel Kontext, Regeln
und Beispielen zu überladen, werden Fähigkeiten als klar
strukturierte Module abgelegt, die ein Agent bei Bedarf gezielt
nachlädt. Das senkt den Kontextverbrauch, erhöht die Konsistenz und
stabilisiert wiederkehrende Automationen. Technisch beschreibt der
offene „Agent Skills“-Standard Skills als Ordner mit einer
zentralen SKILL.md: oben YAML-Metadaten wie Name und Beschreibung,
darunter die Anleitung in Markdown; optional ergänzen scripts/,
references/ oder assets/ den Skill. Kernidee ist „Progressive
Disclosure“: Beim Start kennt der Agent nur die Skill-Metadaten,
lädt erst bei Relevanz die volle Anleitung und bei Bedarf einzelne
Referenzen oder Skripte. Historisch verortet der Beitrag das
Konzept im Claude-Umfeld (Anthropic), später als
plattformübergreifender Standard auf agentskills.io. Parallel
entsteht ein Distributions-Ökosystem, unter anderem mit einer von
Vercel vorgestellten Skills-CLI und einem Verzeichnis samt
Leaderboard auf skills.sh. Als Alltagsnutzen werden vor allem
wiederholte Workflows genannt, bei denen Regeln wichtiger sind als
Kreativität: Brand- und Dokumenten-Guidelines, Angebots- und
Präsentationsvorlagen, interne Richtlinien, Design-Review-Kriterien
sowie Schreibstil-Module. Abgegrenzt wird das Konzept von MCP
(Model Context Protocol): MCP standardisiert Tool- und
Kontextanbindung an externe Systeme, Skills liefern prozedurales
Wissen für reproduzierbare Arbeitsweisen. Zum Schluss verschiebt
sich der Fokus auf Risiken: Skills können nicht nur Text, sondern
auch Skripte enthalten und werden damit zu Supply-Chain-Objekten.
Rund um OpenClaw und ClawHub berichten Sicherheitsforscher Anfang
Februar 2026 über bösartige Skills, die als harmlose Tools
auftreten und Nutzer zum Ausführen von Befehlen verleiten, um
Malware nachzuladen und Zugangsdaten abzugreifen. Die Konsequenz
lautet: Skills wie Software behandeln, nichts blind installieren,
Inhalte und Referenzen prüfen und bevorzugt vertrauenswürdige oder
interne Repositories nutzen. Quellen: Specification – Agent Skills
https://agentskills.io/specification Introducing `skills`, the open
agent skills ecosystem (Vercel Changelog)
https://vercel.com/changelog/introducing-skills-the-open-agent-skills-ecosystem
OpenClaw's AI 'skill' extensions are a security nightmare (The
Verge)
https://www.theverge.com/news/874011/openclaw-ai-skill-clawhub-extensions-security-nightmare
Inside the 'clawdhub' Malicious Campaign: AI Agent Skills Drop
Reverse Shells on OpenClaw Marketplace (Snyk)
https://snyk.io/articles/clawdhub-malicious-campaign-ai-agent-skills/
OpenClaw agents targeted with 341 malicious ClawHub skills (SC
Media)
https://www.scworld.com/news/openclaw-agents-targeted-with-341-malicious-clawhub-skills
Malicious OpenClaw 'skill' targets crypto users on ClawHub (Tom’s
Hardware)
https://www.tomshardware.com/tech-industry/cyber-security/malicious-moltbot-skill-targets-crypto-users-on-clawhub
Mehr
Über diesen Podcast
In diesem Podcast geht es um das, was gerade erst entsteht: neue
Modelle, Tools, Plattformen, Standards und Trends am "Bleeding
Edge". Jede Folge bringt in unter 15 Minuten die wichtigsten
Neuigkeiten komprimiert, ordnet sie ein und übersetzt sie in
Konsequenzen: Welche Entwicklungen sind wirklich relevant, welche
sind nur Show, welche kippen Märkte – und welche verändern
Prozesse, Rollen und Entscheidungen schon in den nächsten Monaten.
Mal spreche ich , mal meine digitale Stimme. Klar, kritisch,
praxisnah. Blick in die Zukunft https://amzn.eu/d/00WsyVxA
Kommentare (0)