Werbung

Nachrichten

OpenAI entfernt das Kleingedrucktes über die „militärische Nutzung“ ihrer KI-Technologie

Der Sieg von Sam Altman scheint sich langsam abzuzeichnen

OpenAI entfernt das Kleingedrucktes über die „militärische Nutzung“ ihrer KI-Technologie
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Aktualisiert:

OpenAI, der Schöpfer von ChatGPT, hat das Kleingedrucktes seiner Nutzungsrichtlinien geändert, um den spezifischen Text im Zusammenhang mit der Verwendung ihrer KI-Technologie oder großer Sprachmodelle für „militärische und kriegerische Zwecke“ zu entfernen.

ChatGPT Download

Vor der Änderung der Richtlinien am 10. Januar untersagte die Nutzungsrichtlinie ausdrücklich die Verwendung von OpenAI-Modellen für die Entwicklung von Waffen und militärischen Inhalten sowie für solche, die Selbstverletzungen fördern, unterstützen oder darstellen.

OpenAI behauptet, dass die aktualisierten Richtlinien die Liste zusammenfasst und das Dokument „lesbarer“ macht, indem sie „spezifische Anleitungen für jeden Service“ bieten.

Wird es wirklich einfacher sein, Technologie militärisch einzusetzen?

Die Liste wurde jetzt zu dem zusammengefasst, was das Unternehmen als „Universelle Richtlinien“ bezeichnet. Diese verbieten es jedem, die Dienste zu nutzen, um anderen zu schaden, und untersagen die Wiederverwendung oder Verbreitung von Ergebnissen der Modelle zum Schaden anderer.

Obwohl der Wechsel der Politik als allmähliche Schwächung der Haltung des Unternehmens gegenüber der Zusammenarbeit mit verteidigungsbezogenen oder militärischen Organisationen interpretiert wird, haben bereits mehrere Experten, darunter Sam Altman, CEO von OpenAI, auf die „Grenzrisiken“ hingewiesen, die KI mit sich bringt.

Obwohl wir die Auswirkungen in der realen Welt noch sehen müssen, kommt diese Änderung der Formulierung gerade zu einer Zeit, in der Militärbehörden auf der ganzen Welt Interesse am Einsatz von KI zeigen.

Die explizite Erwähnung von „militärische und kriegerische Zwecke in der Liste der verbotenen Verwendungen deutete darauf hin, dass OpenAI nicht mit Regierungsbehörden wie dem Verteidigungsministerium zusammenarbeiten konnte, die oft lukrative Verträge an Auftragnehmer vergeben.

Vorerst hat das Unternehmen kein Produkt, das jemanden direkt töten oder physischen Schaden verursachen könnte. Allerdings könnte ihre Technologie, wie von The Intercept berichtet, für Aufgaben wie das Schreiben von Code und die Bearbeitung von Bestellanforderungen für Dinge verwendet werden, die zum Töten von Menschen verwendet werden könnten.

ChatGPT Download

Als er nach der Änderung der Formulierung ihrer Politik gefragt wurde, erklärte der Sprecher von OpenAI, Niko Felix, gegenüber der Veröffentlichung, dass das Unternehmen „einen Satz universeller Prinzipien schaffen wollte, die leicht zu merken und anzuwenden sind, insbesondere in Anbetracht der Tatsache, dass unsere Tools bereits weltweit von täglichen Benutzern verwendet werden, die jetzt auch GPT erstellen können“.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Journalist, spezialisiert auf Technologie, Unterhaltung und Videospiele. Über das zu schreiben, was mich begeistert (Gadgets, Spiele und Filme), ermöglicht es mir, bei Verstand zu bleiben und mit einem Lächeln im Gesicht aufzuwachen, wenn der Wecker klingelt. PS: Das stimmt nicht 100% der Zeit.

Das Neueste von Chema Carvajal Sarabia

Editorialrichtlinien