Angesichts der US-Wahlen 2024, die nur noch einen Monat entfernt sind, steht außer Frage, dass künstliche Intelligenz (KI) eine beispiellose Rolle bei der Gestaltung der öffentlichen Meinung spielt. Während KI Innovationen in allen Branchen vorangetrieben hat, ist sie auch zunehmend für diejenigen zugänglich geworden, die ihre Möglichkeiten für Desinformation und Täuschung ausnutzen wollen.
Als Büro des Direktors des Nationalen Nachrichtendienstes wie Ende September skizziert, Russland und Iran nutzen KI, um die US-Wahlen zu beeinflussen. Diese Warnung bestätigt, dass KI-generierte Desinformationskampagnen, die bereits bei internationalen Wahlen in diesem Jahr beobachtet wurden, nun auch in den USA stattfinden. Im letzten Monat vor der Wahl stellt dieser Anstieg KI-generierter Fehlinformationen, einschließlich Deepfakes, Wähler, Regierungen und Social-Media-Plattformen gleichermaßen vor neue Herausforderungen.
Falschinformationen nehmen zu
Swimlane Wir haben kürzlich 500 Entscheidungsträger im Bereich Cybersicherheit zu ihrer Wahrnehmung von KI am Arbeitsplatz und darüber hinaus befragt. Der vollständige Bericht wird zwar erst im Oktober veröffentlicht, aber eine Statistik war uns besonders wichtig: 74% der Entscheidungsträger im Bereich Cybersicherheit sind sich einig, dass der Einsatz von KI zur Generierung irreführender Informationen ein erhebliches Risiko für die USA darstellt.. Diese Personen wissen aus eigener Erfahrung, dass KI-Technologie immer günstiger und leichter zugänglich wird. Daher wird die Menge an irreführenden Informationen im Vorfeld des 5. November noch deutlich zunehmen.
Künstliche Intelligenz ist nicht länger das ausschließliche Privileg gut ausgestatteter Organisationen. Heute kann jeder mit Internetanschluss und grundlegenden Kenntnissen auf KI-Tools zugreifen. Diese Demokratisierung ist zwar in vielerlei Hinsicht spannend, öffnet aber auch die Büchse der Pandora: Falsche Medien – von Deepfake-Videos bis hin zu irreführenden Artikeln – drohen, Online-Plattformen zu überschwemmen.
Eine der alarmierendsten Bedrohungen durch KI ist der Aufstieg von Deepfakes – täuschend echt wirkenden Videos, die Handlungen oder Aussagen von Personen realistisch nachstellen und damit tiefgreifende ethische und gesellschaftliche Implikationen aufwerfen. Deepfake mit Taylor Swift Es war eine erschreckende Erinnerung daran, wie leicht bekannte Persönlichkeiten ins Visier genommen werden können. Und dies ist nur eines von vielen Beispielen, die wir dieses Jahr gesehen haben.
Visuelle Desinformation ist besonders gefährlich, weil Menschen instinktiv dem vertrauen, was sie sehen. Dadurch fällt es dem Durchschnittsbürger schwerer, zwischen authentischen und manipulierten Inhalten zu unterscheiden. Die Folgen sind weitreichend, insbesondere im politischen Bereich, wo Deepfakes Kandidaten diskreditieren oder Wähler manipulieren könnten.
Rechtliche und ethische Grauzonen
Das Zusammenspiel von KI und Desinformation wirft schwierige Fragen auf, insbesondere im Hinblick auf die Meinungsfreiheit. Deepfakes und KI-manipulierte Inhalte verwischen die Grenzen zwischen kreativem Ausdruck und böswilliger Absicht. Ab wann hört bearbeiteter Inhalt auf, Kunst oder Satire zu sein, und wird zu einer gefährlichen Lüge?
Aus juristischer Sicht ist diese Frage besonders komplex. Zwar gibt es Gesetze gegen Desinformation, doch die sich ständig weiterentwickelnde Natur KI-generierter Inhalte erschwert deren Durchsetzung. Die Europäische Union hat kürzlich ihre diesbezüglichen Gesetze formalisiert. Gesetz über künstliche Intelligenz, Damit ist es die erste Regulierung von KI-Systemen in der EU. In den USA hingegen tragen die derzeitigen Bundesvorschriften für Deepfakes und KI-Inhalte den rasanten technologischen Fortschritten möglicherweise nicht Rechnung, sodass wichtige ethische und rechtliche Herausforderungen ungelöst bleiben.
Wie geht es von hier aus weiter?
Dieselbe KI-gestützte Technik, die zur Beeinflussung von Wahlen eingesetzt wird – sei es durch Deepfakes, gefälschte Stimmen oder hochgradig personalisierte Textnachrichten – wird zunehmend auch zur Kompromittierung von Organisationen genutzt. Fakt ist: KI wird nicht nur für politische Manipulation eingesetzt, sondern auch für gezielte Phishing-Angriffe. So werden beispielsweise Hauskäufer durch personalisierte und zeitlich perfekt abgestimmte E-Mails dazu verleitet, ihre Abschlusszahlung auf das falsche Konto zu überweisen.
Diese hohe Komplexität eröffnet Angreifern neue Wege und vergrößert die ohnehin schon wachsende Angriffsfläche. Mit zunehmender Technologieabhängigkeit in allen Branchen werden auch Umfang und Komplexität der Cyberbedrohungen weiter zunehmen.
Um mit dieser rasanten Eskalation Schritt halten zu können, müssen Unternehmen sich anpassen Automatisierung und integrieren KI in ihre Verteidigung. Da KI auf beiden Seiten – von Angreifern und Verteidigern – eingesetzt wird, ist Effizienz entscheidend. Die Richtung, die wir einschlagen müssen, ist klar: Es geht nicht nur darum, den Angreifern einen Schritt voraus zu sein, sondern sich mit ihnen weiterzuentwickeln und KI zu nutzen, um den Herausforderungen einer zunehmend komplexen digitalen Landschaft zu begegnen.
TAG Cyber Tech Report: Einsatz von KI für die SecOps-Automatisierung
Der Analystenbericht beginnt mit einem kurzen Überblick über den SOAR-Markt und der Geschichte, wie Swimlane sich von einer SOAR- zu einer KI-gestützten Sicherheitsautomatisierungsplattform entwickelt hat. Um Swimlanes KI-Einsatz besser zu verstehen, lesen Sie den vollständigen Bericht.

