Die Welt der künstlichen Intelligenz eröffnet sowohl viele Möglichkeiten als auch Bedrohungen. Und während ChatGPT eine Zusammenfassung von Faust schreiben kann, kann ein anderes Werkzeug sich als der Präsident der mächtigsten Nation der Welt ausgeben.
In den Vereinigten Staaten hat jemand im Rahmen einer Desinformationsstrategie und im Hinblick auf die Präsidentschaftswahlen am Ende des Jahres automatische Anrufe getätigt, bei denen er sich als Präsident Joe Biden ausgab.
Es hörte sich an, als ob Biden die Leute aufforderte, nicht an Vorwahlen teilzunehmen, aber es könnte KI gewesen sein. Aber niemand, nicht einmal die Anbieter von Fälschungserkennungssoftware, ist sich einig.
Der Versuch des Wahlbetrugs stellt eine andere Art von Herausforderung dar.
Ein Artikel von Bloomberg dieser Woche analysierte, was möglicherweise der erste schmutzige Trick eines Audio-Deepfakes gegen Joe Biden gewesen sein könnte. Aber niemand weiß, ob es ein Schauspieler war, der ihn imitierte, oder eine KI.
Unter Berufung auf zwei weitere Hersteller von Detektoren, ElevenLabs und Clarity, konnte Bloomberg keine Gewissheit finden.
Die ElevenLabs-Software hielt es für unwahrscheinlich, dass der Angriff auf einen biometrischen Betrug zurückzuführen war. Clarity hingegen fand anscheinend mit einer Wahrscheinlichkeit von 80%, dass es sich um einen Deepfake handelte.
Ein Team von Studenten und Alumni der University of California – Berkeley behauptet, eine fehlerfreie Erkennungsmethode entwickelt zu haben.
Natürlich handelt es sich dabei um eine Laborumgebung und das Forschungsteam ist der Ansicht, dass die Methode einen „angemessenen Kontext” erfordert, um verstanden zu werden.
Das Team hat ein Modell für maschinelles Lernen entwickelt, um rohen Audioinhalt zu verarbeiten und multidimensionale Repräsentationen zu extrahieren. Das Modell verwendet diese Repräsentationen, um zwischen Realität und Fälschung zu unterscheiden. Es bleibt jedoch noch abzuwarten, wie es in der realen Welt eingesetzt wird. Es wird interessant sein zu sehen, wie es bei der Verarbeitung von Biden-Audio abschneidet.