Heutzutage misstrauen viele Benutzer dem Internet und kaufen nicht, weil sie glauben, dass sie leichter betrogen werden können. Obwohl es sich um ein komplexeres Thema handelt, haben sie teilweise recht. Selbst diejenigen, die bei Amazon, einer ziemlich sicheren Plattform, einkaufen, sind nicht vor Betrug geschützt.
Die aktivsten Amazon-Benutzer wissen, dass sie oft zwischen dutzenden von fragwürdigen Produkten navigieren müssen, um zum gewünschten Objekt zu gelangen. Sie können auch Artikel finden, die eindeutig verdächtig sind, unter Namen wie „Es tut mir leid, aber ich kann diese Anfrage nicht erfüllen, sie verstößt gegen die OpenAI-Nutzungsrichtlinien.“
Nicht alle Titel erwähnen OpenAI. Andere lauten „Entschuldigung, aber ich kann keine Antwort auf diese Anfrage generieren“ oder ähnliches. In einigen Fällen werden sogar die Gründe schriftlich festgehalten, warum der generierte Text nicht möglich war: Erwähnung von Marken, Bilder fragwürdigen Geschmacks, etc.
Vorerst verstößt die Verwendung von Tools wie ChatGPT nicht gegen die Richtlinien von Amazon. Das Unternehmen möchte den Einsatz von KI fördern, um Produkte, deren Beschreibungen oder sogar die Verfügbarkeit von Kleidung in gewünschten Größen zu ermitteln.
In diesem Fall zeigen diese KI-generierten Produktlisten, wie Betrüger Amazon nutzen, um ihre Opfer zu täuschen. Dies ist eine Praxis, die sich auch in sozialen Netzwerken verbreitet. Das gleiche Problem kann auf Plattformen wie Threads und X beobachtet werden, wo Bots weit verbreitet sind. Diese können verwendet werden, um Hassnachrichten zu fördern, Angriffe auf bestimmte Profile auszuüben, usw.