Microsoft Copilot - Diese Nutzungsbedingungen sind ein Skandal

Microsoft Copilot - Diese Nutzungsbedingungen sind ein Skandal

vor 2 Wochen
23 Minuten
0
0 0
Podcast
Podcaster
Die Tonspur zum Newsletter rund um Tech, AI, Netzkultur, Mobilitaet und Nachhaltigkeit.

Beschreibung

vor 2 Wochen

Proton-Drive Angebot
https://t.ly/ProtonDrive
Proton-Mail Angebot
https://t.ly/protonme


Microsoft Copilot – "Nur zur Unterhaltung": Das
Kleingedruckte, das alles ändert


Satya Nadella preist Copilot als unverzichtbares KI-Tool für den
professionellen Arbeitsalltag. Gleichzeitig steht in Microsofts
Nutzungsbedingungen: Copilot ist nur für Unterhaltungszwecke
gedacht. Sascha Pallenberg analysiert das Kleingedruckte, die
Geschichte der Copilot-Pleiten seit der Markteinführung – von 70%
falschen KI-Ergebnissen bis zu Drogenumsatzplätzen als
Reiseempfehlung – und erklärt, warum Microsoft vor allem eines
will: eure Daten. Und keine Klagen.


In diesem Podcast erfahrt ihr: Was in
Microsofts Nutzungsbedingungen wirklich steht – und was
"Unterhaltungszwecke" juristisch bedeutet 
Warum beim Copilot-Launch vor Medienvertretern 70% der
KI-Ergebnisse schlicht falsch waren 
Wie Copilot eine Mexiko-Reise mit Drogenumschlagsplätzen als
Restaurants empfohlen hat 
Warum OpenAI, Google und Meta diesen "Unterhaltungszwecke"-Passus
nicht in ihren AGB haben 
Was Microsoft wirklich mit euren Unternehmensdaten in der Cloud
macht 
Warum die Nutzungsbedingungen vor allem eines bezwecken:
Microsoft vor Klagen zu schützen


Mehr Analysen & Klartext metacheles.de 
Kanal abonnieren – Für Aufklärung statt Propaganda!
15
15
Close