Die Eltern zweier junger Menschen verklagen gerade Amazon. Sie sehen eine Schuld beim Konzern, da dieser sogenannte „Selbstmord-Kits“ verkauft habe.

Verschwommene Menschen
Elena Dijour / Shutterstock.com

Amazons Algorithmus steht immer mal wieder in der Kritik. Unter der Rubrik „Kunden haben auch angesehen“ oder „Wird oft zusammengekauft“ schlug die KI beispielsweise bereits Zutaten für den Bau von Bomben vor. Nun hat der Algorithmus offenbar ein sogenanntes „Selbstmord-Kit“ zusammengestellt.

Frei verkäufliches Medikament und entsprechendes Zubehör

Das „Selbstmord-Kit“ besteht aus einer Chemikalie, einer Waage zum Abmessen der tödlichen Dosis, einem frei verkäuflichen Medikament gegen Erbrechen und einem Buch zur Anwendung der Chemikalie. Diese Utensilien soll der Algorithmus vorschlagen, sobald nach der Chemikalie gesucht wird – und schafft damit eine konkrete Gefahr, finden zumindest die Hinterbliebenen zweier Suizidenten.

Konkret geht es um einen 27-Jährigen und eine 17-Jährige, die sich das Leben mit den Kits von Amazon genommen haben sollen. Die Eltern sehen die Verantwortung klar beim Konzern: Dieser sei bereits im Jahr 2019 auf die Gefahr hingewiesen worden. Nun haben die Eltern Klage in Washington eingereicht.

„Ihr Verlust tut mir leid“

Der 27-jährige Mikael Scott litt an Depressionen. Seine Mutter schrieb dem Unternehmen nach seinem Tod und forderte die Entfernung der Chemikalie vom Marktplatz. Andere Plattformen wie etwa Etsy und Ebay sind diesen Schritt bereits gegangen.

Per E-Mail ließ ein Mitarbeiter die Mutter wissen: „Ihr Verlust tut mir leid“. Weiter wird aus der E-Mail durch t-online zitiert: „Aber wenigstens ist Ihr Sohn jetzt in der Hand unseres Gottes.“

Der Tod der beiden jungen Menschen soll dabei kein Einzelfall sein. Insgesamt soll es 50 bekannte Fälle geben. Bereits im Jahr 2019 wurde eine Petition gestartet, um Amazon dazu zu bringen, den Verkauf des Mittels zu unterlassen.

Gewinn über alles?

Mit dem Verkauf der Chemikalie hört es allerdings nicht auf: Die Anwältin eines der Elternpaare wirft dem Konzern vor, gezielt Bewertungen zu löschen, die andere Nutzer vor der Gefahr der Produkte warnen. „Amazon entfernte die 1-Stern-Bewertungen von trauernden Familienmitgliedern, die versuchten, vor den Gefahren zu warnen“, twitterte sie t-online zufolge. Der Nachrichtensender CBS habe einen Bericht über die „Selbstmord-Kits“ sogar zurückgezogen, um eine Kooperation mit Amazon Prime nicht zu gefährden.

Amazon selbst verteidigt den Verkauf der Chemikalie: „Amazon stellt unseren Kunden eine große Auswahl an Produkten zur Verfügung, weil wir darauf vertrauen, dass sie diese Produkte wie von den Herstellern beabsichtigt verwenden.“

Sie wollen immer über die neuesten Entwicklungen bei Amazon informiert sein? Mit unseren Newslettern erhalten Sie die wichtigsten Top-News und spannende Hintergründe direkt in Ihr E-Mail-Postfach – Jetzt abonnieren!
/
Geschrieben von Sandra May




Kommentar schreiben

Sicherheitscode
Captcha aktualisieren