Social Bots manipulieren Fakten und beeinflussen Meinungen. Es braucht Medienkompetenz und technische Lösungen, um Desinformation im Netz zu erkennen. Ein Meinungsbeitrag von Tabea Wilke.
Soziale Netzwerke sind ein Teil des Mediensystems geworden: Elf Prozent der Menschen in westlichen Ländern nutzen Twitter als Nachrichtenquelle. Facebook verzeichnete im Jahr 2018 insgesamt 1,52 Milliarden aktive Nutzer täglich – fast ein Fünftel der Weltbevölkerung.
In den vergangenen Jahren sind soziale Netzwerke nicht nur zu zentralen Informationsplattformen geworden, sondern auch zu wirkmächtigen Instrumenten, um die öffentliche Meinung zu beeinflussen. Staatliche Akteure versuchen, mit professionell durchgeführter Propaganda und Desinformation politischen Einfluss zu gewinnen. Und wirtschaftliche Akteure zielen mit rufschädigenden Kampagnen gegen Unternehmen und Produkte auf Wettbewerbsvorteile. Soziale Netzwerke sind heute zentrale Arenen des Ringens um die Informations- und Deutungshoheit.
Fakes werden immer professioneller
Durch die Professionalität und das täglich wechselnde Erscheinungsbild der Einflussnahme wird es für Menschen immer schwieriger, seriöse von manipulierten Informationen zu unterscheiden. Dies gilt besonders bei emotionalen Themen und während akuter Lagen, wie Wahlen, Naturkatastrophen und Terroranschlägen, in denen soziale Netzwerke oftmals die erste Nachrichtenquelle sind.
Diese Entwicklung hat einen direkten Bezug zu neuesten Technologien: Eine Software kann eine große Anzahl von Accounts auf Twitter automatisiert steuern, so dass diese wie menschliche Accounts wirken (Social Bots). Durch sie werden Mehrheiten vorgetäuscht und Diskussion über gesellschaftliche Themen gezielt beeinflusst. Mit Entwicklungen im Bereich künstlicher Intelligenz entstehen authentisch wirkende Videos von Staatspräsidenten, die jedes beliebige Wort sagen können (Deep Fakes). Und sogar Desinformationskampagnen selbst werden vorgetäuscht, um den Gegner zu verwirren (False Flags Operations). Die Grenze zwischen Wahrheit und Fälschung verschwimmt, und Fakten verschwinden.
Videobeispiel für einen Deep Fake: Eine künstliche Intelligenz kreierte diesen digitalen Doppelgänger des amerikanischen Ex-Präsidenten Barak Obama. Sie legte ihm Sätze in den Mund, die er so nie gesagt hat – nachdem sie stundenlang mit Videos gefüttert wurde, in denen er spricht. Durch die Analyse der Lippenbewegungen, der Zähne, der Falten um den Mund und der Kopfhaltung lernte die KI, den Mundbewegungen passende Töne zuzuordnen. Das Experiment kann man hier (auf englisch) nachlesen.
Desinformationen rechtzeitig erkennen
Um den Bedrohungen für den digitalen Informationsraum zu begegnen, braucht es die Stärkung von Medienkompetenz und die Förderung der journalistischen Ausbildung, aber auch die kontinuierliche Einbeziehung technischer Lösungen, die sich unmittelbar an die wechselnden Methoden von Desinformation anpassen. Denn Desinformation rechtzeitig zu erkennen und das Wahre vom Gefälschten zu unterscheiden, ist eine der zentralen sicherheitspolitischen Herausforderungen für freie, demokratische Gesellschaften geworden.
Die Autorin
Tabea Wilke ist Gründerin und Geschäftsführerin des Technologieunternehmens botswatch GmbH, das auf die automatisierte Detektion von Fake News, Propaganda, Desinformation und Hack-and-Leak-Taktiken in sozialen Netzwerken spezialisiert ist.
Mehr Input
- Deep Fakes als Gefahr für die Demokratie
Ein Meinungsbeitrag bei Legal Tribune Online - botswatch GmhH wird zu Twincler
twincler.com - „So entlarven Sie Fake News“: Lesen Sie hierzu auch unseren Service-Artikel
datareport.online - Mehr zum Thema Fake News in einem Special der Bundeszentrale für politische Bildung
bpb.de