Werbung

Nachrichten

Unsere Stimme nachahmen, um uns zu hacken? KI überwindet die letzte Grenze

Hat Joe Biden die Wähler wirklich angerufen?

Unsere Stimme nachahmen, um uns zu hacken? KI überwindet die letzte Grenze
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Aktualisiert:


Die Welt der künstlichen Intelligenz eröffnet sowohl viele Möglichkeiten als auch Bedrohungen. Und während ChatGPT eine Zusammenfassung von Faust schreiben kann, kann ein anderes Werkzeug sich als der Präsident der mächtigsten Nation der Welt ausgeben.

ChatGPT Download

In den Vereinigten Staaten hat jemand im Rahmen einer Desinformationsstrategie und im Hinblick auf die Präsidentschaftswahlen am Ende des Jahres automatische Anrufe getätigt, bei denen er sich als Präsident Joe Biden ausgab.

Es hörte sich an, als ob Biden die Leute aufforderte, nicht an Vorwahlen teilzunehmen, aber es könnte KI gewesen sein. Aber niemand, nicht einmal die Anbieter von Fälschungserkennungssoftware, ist sich einig.

Der Versuch des Wahlbetrugs stellt eine andere Art von Herausforderung dar.

Ein Artikel von Bloomberg dieser Woche analysierte, was möglicherweise der erste schmutzige Trick eines Audio-Deepfakes gegen Joe Biden gewesen sein könnte. Aber niemand weiß, ob es ein Schauspieler war, der ihn imitierte, oder eine KI.

Unter Berufung auf zwei weitere Hersteller von Detektoren, ElevenLabs und Clarity, konnte Bloomberg keine Gewissheit finden.

Die ElevenLabs-Software hielt es für unwahrscheinlich, dass der Angriff auf einen biometrischen Betrug zurückzuführen war. Clarity hingegen fand anscheinend mit einer Wahrscheinlichkeit von 80%, dass es sich um einen Deepfake handelte.

Ein Team von Studenten und Alumni der University of California – Berkeley behauptet, eine fehlerfreie Erkennungsmethode entwickelt zu haben.

Natürlich handelt es sich dabei um eine Laborumgebung und das Forschungsteam ist der Ansicht, dass die Methode einen „angemessenen Kontext” erfordert, um verstanden zu werden.

ChatGPT Download

Das Team hat ein Modell für maschinelles Lernen entwickelt, um rohen Audioinhalt zu verarbeiten und multidimensionale Repräsentationen zu extrahieren. Das Modell verwendet diese Repräsentationen, um zwischen Realität und Fälschung zu unterscheiden. Es bleibt jedoch noch abzuwarten, wie es in der realen Welt eingesetzt wird. Es wird interessant sein zu sehen, wie es bei der Verarbeitung von Biden-Audio abschneidet.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Journalist, spezialisiert auf Technologie, Unterhaltung und Videospiele. Über das zu schreiben, was mich begeistert (Gadgets, Spiele und Filme), ermöglicht es mir, bei Verstand zu bleiben und mit einem Lächeln im Gesicht aufzuwachen, wenn der Wecker klingelt. PS: Das stimmt nicht 100% der Zeit.

Das Neueste von Chema Carvajal Sarabia

Editorialrichtlinien