Zurück zur Debattenübersicht
Facebook will Menschen vor dem Selbstmord bewahren
Facebook will Menschen vor dem Selbstmord bewahren

Das Argument in Kürze:

Ein Nutzer schreibt auf Facebook immer öfter traurige und deprimierende Statusmeldungen – das könnte ein Hinweis auf Selbstmordgedanken sein. Und was macht Facebook? Es schlägt Alarm. Ist das gut gemeint oder geht Facebook da zu weit? Im sonst technikbegeisterten Silicon Valley, schreibt Alexander Fanta von NETZPOLITIK.org, ist man besorgt über die neue Entwicklung.

Big Brother meint es gut mit seinen Nutzern – nur noch nicht in Europa

Denn hierzulande will Facebook seine neueste Errungenschaft noch nicht anwenden – aus Datenschutzgründen. Im November letzten Jahres hat Facebook begonnen, künstliche Intelligenz einzusetzen, um die psychische Stabilität seiner Nutzer zu kontrollieren. Der Erfolg scheint Facebook recht zu geben: Im ersten Monat hat Facebook mehr als hundert Mal Rettungskräfte in möglichen Selbstmordfällen verständigt.

Ausgelöst wird das Warnsystem durch Nutzer-Posts, die bestimmte Schlüsselwörter enthalten wie etwa „traurig“. Reagieren andere Nutzer auch noch besorgt, etwa indem sie „Kann ich helfen?“ oder „Geht es dir gut?“ schreiben, dann errechnet das neue System einen Gefahrenwert. Überschreitet der eine bestimmte Grenze wird Facebook aktiv und setzt sich mit den Behörden in Verbindung.

Kritiker sind alarmiert, denn welche Kriterien Facebooks künstliche Intelligenz anwendet,

Möchten Sie die ganze Bandbreite haben?

Jetzt einen Monat The Buzzard PRO kostenfrei testen und direkt weiterlesen!

Probemonat beginnen Schon dabei? Anmelden
Bitte anmelden um Zugriff auf diese Seite zu erlangen.
Lies The Buzzard ab sofort in deinem E-Mail Postfach. Nein danke

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.