Falsche Pentagon-Explosion erschüttert Aktienmarkt
Der Einfluss der von künstlicher Intelligenz gesteuerten Täuschung wurde einmal mehr durch die Verbreitung eines gefälschten Bildes demonstriert, das eine Explosion in der Nähe des Pentagons zeigt.
Am 22. Mai behauptete ein Twitter-Account namens “Bloomberg Feed”, der inzwischen gesperrt wurde, fälschlicherweise, mit dem Medienkonglomerat verbunden zu sein, und teilte das Bild zusammen mit einem Bericht über eine große Explosion in der Nähe des Hauptquartiers des US-Verteidigungsministeriums.
Prime example of the dangers in the pay-to-verify system: This account, which tweeted a (very likely AI-generated) photo of a (fake) story about an explosion at the Pentagon, looks at first glance like a legit Bloomberg news feed. pic.twitter.com/SThErCln0p
— Andy Campbell (@AndyBCampbell) May 22, 2023
Zahlreiche Medien, darunter Russia Today und Republic, verbreiteten die Falschmeldung, haben ihre Tweets aber inzwischen gelöscht. Dieser Vorfall hatte kurzzeitig Auswirkungen auf den Aktienmarkt.
Örtliche Behörden, wie die für die Sicherheit des Gebäudes zuständige Pentagon Force Protection Agency, bestätigten die kursierende Meldung und bestätigten, dass es keine Explosion oder einen Zwischenfall gegeben habe.
Aufmerksame Twitter-Nutzer wiesen auf Ungereimtheiten in dem Bild hin, die auf eine KI-Generierung hindeuten, z. B. auf eine uneinheitliche Gebäudefront und die Zusammenführung zweier verschiedener Zäune.
LESEN SIE MEHR: Russland und islamische Nationen setzen gemeinsam auf die De-Dollarisierung
Obwohl die Nachricht den S&P 500 kurzzeitig um 0.26 % fallen ließ, erholte sich der Markt schnell wieder, als die Fälschung der Meldung aufgedeckt wurde. Es ist erwähnenswert, dass KI-Tools bereits früher zur Erstellung von Fake News und irreführenden Inhalten eingesetzt wurden. In einem aktuellen Fall hat sich die Irish Times entschuldigt, nachdem sie unwissentlich einen von KI generierten Artikel veröffentlicht hatte.
Die kalifornische Finanzaufsichtsbehörde ging im April auch gegen Krypto-Handelsdienste vor und deckte auf, dass einige Unternehmen in Werbevideos KI-generierte Avatare einsetzten, die sich als ihre CEOs ausgaben.
In der Kryptoindustrie gab es auch Fälle von KI-generierten “Deepfakes”, die auf Einzelpersonen für betrügerische Aktivitäten abzielten, wie z. B. ein gefälschtes Video des FTX-Mitbegründers Sam Bankman-Fried, das kurz nach dem Zusammenbruch der Börse auftauchte und FTX-Nutzer unter dem Deckmantel eines “Werbegeschenks” auf eine bösartige Website lockte.