Ethik und große Unternehmen sind Begriffe, die sich oft nicht gut vertragen. Meta hat dies erneut unter Beweis gestellt, indem es sein Team für Verantwortungsbewusste Künstliche Intelligenz (RAI) aufgelöst hat. Anschließend wurden die Ressourcen zur Förderung von Projekten, die auf generativer Künstlicher Intelligenz basieren, umgeleitet
Laut The Information werden die Mitglieder des Teams nun an Produkten arbeiten, die auf generativer KI basieren, während sich andere auf die KI-Infrastruktur von Meta konzentrieren. Entgegen dem Anschein behauptet der von Zuckerberg geführte Konzern, er wolle an der Schaffung einer verantwortungsbewussten KI arbeiten (wie auf ihrer eigenen Webseite erklärt).

Das Team hatte bereits zu Beginn dieses Jahres eine Umstrukturierung erfahren, die das RAI auf ein Minimum reduzierte. Dieses Team existierte seit 2019, doch seine Initiativen erforderten stets lange Verhandlungen, bevor sie umgesetzt werden konnten.

Die Hauptaufgabe des RAI war es, den KI-Trainingsprozess zu überwachen. Das Team überprüfte die für das Training verwendeten Daten, um deren Vielfalt und Angemessenheit zu gewährleisten. Denn trotz der Fortschritte dieser Systeme verursachen viele von ihnen Probleme. Einer der bekanntesten Fälle ist Instagram, dessen Algorithmus Konten mit Inhalten von sexuellem Missbrauch an Minderjährigen förderte.
Unter den aktuellen Projekten von Meta befindet sich LlaMa, ihre eigene Version von ChatGPT. Sie ist zum Download verfügbar und kann in verschiedenen Bereichen eingesetzt werden. Derzeit befindet sich Meta in den USA vor Gericht. Der Grund? Eine Klage wegen der psychischen Schäden, die ihre Netzwerke (Instagram, Facebook usw.) bei jungen Menschen verursachen.